Le travail à l'ère des algorithmes : quelle éthique pour l'emploi ?

Le 08/09/2017 - 00h00


Le 5 septembre, l'Institut G9 + a participé à une conférence organisée par Renaissance Numérique sur le thème «L'avenir du travail à l'ère des algorithmes». Dans le cadre de notre travail sur le sujet, suite à notre dernière rencontre annuelle et dans la perspective de notre prochain livre, nous vous proposons une synthèse de quelques-uns des points forts de cette table ronde (1/2).

Table ronde Renaissance Numérique : « Intelligence artificielle : va-t-on vers de nouveaux rapports au travail ? »
- Jérôme Chemin, secrétaire national – CFDT-Cadres
- Laurence Devillers, chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur - CNRS
- Lionel Janin, adjoint au directeur du Département Développement durable et Numérique - France Stratégie
- Amal Taleb, directrice adjointe des affaires publiques – SAP France



Le travail à l’ère des algorithmes : quelle éthique pour l’emploi ?

64% des français se disent inquiets de l’utilisation croissante des algorithmes dans le monde du travail. La course à la technologie s’est d’abord faite dans une optique d’amélioration de l’expérience client : robots qui analysent les CVs et proposent une shortlist de candidats, emails automatiques de refus… A priori, des nouveautés qui occultent la dimension humaine justement. Mais facilitent la tâche du recruteur. La question de l’éthique des algorithmes dans les ressources humaines ne s’est donc pas posée immédiatement. C’est face à l’inquiétude croissante qu’elle s’est imposée. Dès lors, il a fallu poser des règles sur l’utilisation des algorithmes.

La dimension humaine écartée dans le tri des profils lors d’un recrutement ?

La transparence est devenue une règle : si l'on utilise un algorithme pour « trier » les profils, il faut expliquer comment il fonctionne. Recherche-t-il des mots clés qui peuvent être discriminants ? Comment catégorise-t-il les différents profils ? Comment est-il programmé, en somme.

Ensuite, il a fallu s’assurer de la « neutralité » de l’algorithme. Sa création ne doit pas être l’apanage d’une seule personne, qui le créera forcément selon son prisme. C’est-à-dire, selon son histoire, sa personnalité, sa perception de ce qui est bon ou mauvais. Et même dans le cas où une équipe crée l’algorithme, les services RH doivent rester vigilants sur la standardisation des critères de recrutement. Attention par exemple au critère « grande école, spécialisation en gestion des SI » qui peut, s’il ne s’apparente pas à un critère discriminant aux yeux de la loi, l’être indirectement. En effet, dans cette branche, les recruteurs reçoivent encore une proportion de CVs masculins bien plus importante que de CVs féminins – on discrimine donc indirectement les femmes.

En même temps, il ne faut pas perdre de vue que les organisations, les personnalités, les cultures diffèrent. Donc un outil sera – quoi qu’il arrive – programmé différemment selon l’entreprise, le secteur d’activité, le pays. La diversité humaine se retrouvera dans les apprentissages des machines.

La seconde grande inquiétude liée à l’utilisation des algorithmes sur le marché de l’emploi est l’utilisation des données personnelles.

Où vont les données que j’envoie pour trouver un emploi, combien de temps sont-elles conservées, dans quel but ?

La loi pour une République numérique de 2016 a, via le renforcement des droits à sanction de la CNIL et l’élargissement de ses missions, demandé plus d’informations et de transparence sur le traitement des données. Cela s’applique aussi au domaine de l’emploi.

Pour mener à bien cette mission, la CNIL a donc souhaité définir et comprendre les enjeux du nouveau monde du travail. Elle a lancé un débat public sous forme de manifestations diverses. L’une d’entre elles abordait les nouveaux rapports au travail induits par l’arrivée des intelligences artificielles dans les processus RH.

Laurence Devillers, chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur du CNRS, définit l’intelligence artificielle comme une capacité de raisonnement cognitif similaire à celui de l’humain, mais appliqué aux machines. Il convient de distinguer sur quels aspects la machine peut intervenir aujourd’hui :

        -   Donnée,
   - Algorithme,
   Processus.

Mais d’abord un peu d’histoire : dans les années 90, la principale problématique autour des algorithmes était d’augmenter la rapidité et la puissance de calcul. Aujourd’hui, les calculs s’effectuent tellement rapidement que l’on peut passer à l’étape suivante : laisser la machine apprendre les règles « toute seule » selon les données qu’on lui fournit. C’est là que l’on retrouve nos trois spectres d’intervention :

    - La donnée : la machine recueille des données brutes et les restitue de manière à ce qu’elles soient analysées par un être humain,
    - L’algorithme : programme exécutable par un ordinateur, par exemple l’automatisation d’une transaction selon un arbre de « décisions » paramétré,
    - Les processus : la machine apprend à réagir à une situation car elle connaît plus globalement le processus dans lequel la situation s’inscrit.

Mais la capacité d’apprendre induit une surveillance dudit apprentissage. La machine ne doit pas tout entendre et retranscrire n’importe quoi, elle n’a pas l’intelligence émotionnelle humaine. Ses apprentissages doivent donc être supervisés.

Pour autant, l’humain ne saura pas se réduire à la surveillance de ces machines

Il faut réinventer les modes de travail, transformer les métiers. Pour que chaque partie prenante apporte une valeur ajoutée.

Pour Amal Taleb, directrice adjointe des affaires publiques chez SAP France, la situation de la Google Car qui doit prendre une décision face à un piéton en danger sans mettre également en danger l’occupant de la voiture est typique de l’inquiétude face à notre futur rôle dans la société. A quel moment l’humain reprend-il le contrôle, et comment ? Il est hors de propos de confier une décision importante à une machine aujourd’hui, la question n’a donc pas encore lieu d’être d’après nos expertes.

Mettre en place une politique européenne d’éducation à l’IA sera essentiel. Il faudra anticiper, ne pas se faire prendre de cours.

Jérôme Chemin, secrétaire national de la CFDT-Cadres, déclare : « n’oublions pas la question du travail quotidien, car le maintien dans l’emploi sera sans doute un challenge encore plus difficile à relever que les changements de modes de recrutement. La formation aux outils sera essentielle, mais aussi la formation aux usages ». Comment travaille-t-on avec la machine au quotidien ?

Tout change mais rien ne change finalement ? Les humains auront toujours du travail, et leur travail sera toujours lié à leurs qualifications. Si une imprimante 3D sait construire une maison demain, le maçon ne sera pas pour autant inutile : sa connaissance des matériaux, son expérience des situations bloquantes, seront mises à profit. Nos enfants ne pourront pas tous faire une Grande Ecole, il faut que l’éducation s’adapte au travail collectif Hommes-Machines.