Rencontre avec Yann Ferguson, sociologue du travail et Directeur Scientifique du LaborIA

Yann Ferguson est docteur en sociologie et Directeur Scientifique du LaborIA.

Spécialiste des mutations du travail, Yann Ferguson consacre une large partie de ses travaux à l’éthique de l’intelligence artificielle et ses effets sociétaux ainsi qu’aux relations entre les Hommes et les machines. En 2018, il a reçu le Prix de la Fondation des sciences sociales pour ses travaux sur les effets pressentis de l’IA sur le travail. Yann est aussi membre expert du groupe de travail « L’avenir du travail » du Partenariat mondial pour l’intelligence artificielle.

L’interview qui suit a été réalisée par Matrice, opérateur du LaborIA Explorer.

Bonjour Yann et merci d’avoir accepté cette interview. Tu es le directeur scientifique du LaborIA, un laboratoire de recherche sur l’application de l’IA au travail. C’est un sujet dont on parle depuis un certain nombre d’années – et de plus en plus récemment depuis la sortie en novembre 2022 de ChatGPT. J’ai envie de commencer cette interview par du concret : de quoi s’agit-il exactement quand on parle d’utilisation de l’IA au travail ?

Il y a plusieurs prismes possibles. Sur le volet anthropologique, cela concerne l’utilisation d’outils pour faciliter la réalisation d’une tâche. C’est un mécanisme que l’être humain mobilise depuis des millénaires. On a longtemps considéré que c’était une caractéristique qui nous distinguait des autres espèces. Aujourd’hui, on sait que ce n’est pas le cas : certains primates et oiseaux utilisent des outils au quotidien. Mais ce qui nous différencie, c’est l’étendue de l’espace mental dans lequel s’intègrent ces outils.

Pour les animaux, ils servent essentiellement dans le cadre de la chasse ou de la reproduction. Mais en tant qu’humains, nous sommes capables de construire des séquences opératoires très complexes. L’IA s’inscrit dans ce processus historique d’utiliser des outils pour nous faciliter la vie. Et cela s’applique de plus en plus à des tâches dites cognitives – longtemps considérées comme exclusives à l’être humain.

C’est déjà quelque chose en soi, mais ça ne s’arrête pas là. Des IA très avancées comme ChatGPT ont pu nous montrer que la machine est également capable de réaliser des tâches qui jusque-là contribuaient à nous définir en tant qu’espèce, à nourrir notre fierté de Sapiens. Et ça s’applique au travail. Car au-delà de subvenir à nos besoins, travailler avec les autres est devenu une façon de s’intégrer, de s’accomplir, de développer ses talents, mais aussi de faire communauté : des qualités constitutives et propres à l’humain.

Rappelons au passage que la valorisation du travail est historiquement assez récente – tout juste deux siècles après la Première Révolution Industrielle. Avec l’aristocratie, il était surtout valorisé de ne pas travailler. Ceux qui travaillaient appartenaient aux classes sociales inférieures. Les révolutions bourgeoises ont eu les conséquences que l’on connaît : le travail est devenu un pilier de nos sociétés. L’IA est en train de bouleverser tout ça, dans le sens où elle s’applique à de nouvelles catégories de tâches, cognitives, créatives, longtemps réservées aux humains. Des programmes comme DALL·E et Midjourney nous l’ont montré avec la création artistique.

Cela pose plusieurs questions fondamentales. Aura-t-on toujours du travail ? Et que deviendrons-nous si ce n’est pas le cas ? Parviendra-t-on à subsister à leurs côtés, à nous réaliser sans travail ? Et si on réussit à le conserver, à quoi ressemblera-t-il ? Nous permettra-t-il de conserver une dignité ?

Pour en revenir plus précisément à ta question, l’IA se matérialise aujourd’hui par des algorithmes qui effectuent différents types de tâches, qui amènent de la valeur dans un travail, et occupent une certaine place dans le cadre d’une mission donnée. Or, cette place va parfois déplacer radicalement celle qu’occupait le travailleur auparavant. Cela implique souvent que l’individu se redéfinisse par rapport à ce déplacement. L’enjeu va donc être de comprendre comment ce dernier va se positionner vis-à-vis de cette nouvelle configuration.

Peux-tu me donner un exemple concret d’une utilisation d’IA au travail dans le cadre de tes recherches menées avec LaborIA ?

Aujourd’hui, on utilise beaucoup l’IA en tant qu’agent conversationnel intelligent – que ce soit par le texte avec les chatbots ou à l’audio avec les assistants vocaux. Ce type d’interaction peut avoir pour objectif de mettre en relation un client et un professionnel.

Quand on y réfléchit, ça peut sembler paradoxal de confier à un robot des tâches sociales qui reposent sur des interactions humaines. Sauf que de nombreuses personnes dont c’est le métier ont justement le sentiment d’exercer ces tâches comme le feraient des robots, ou même des perroquets. Dès lors, ces tâches sont souvent considérées comme ingrates, décourageantes voire aliénantes – et non épanouissantes, gratifiantes et valorisantes.

C’est dans ce cadre que l’on finit par confier ces tâches robotiques à de véritables robots. L’utilisation d’IA adresse donc ce problème de caractère répétitif de l’information. Ce sont toujours les mêmes questions qui reviennent, suivies des mêmes réponses. Les IA conversationnelles apportent une homogénéité de message, une homogénéité d’humeur, une disponibilité totale, ainsi qu’une immédiateté de la réponse. Autant dire qu’on ne peut pas rivaliser sur tous ces niveaux – précisément parce que nous sommes des êtres humains et non des robots.

Deuxième cas d’utilisation très répandu : les applications de computer vision, qui sont associées à la vue. Cela consiste à reconnaître des images avec précision, le tout avec une marge d’erreur qui n’a cessé de diminuer au cours de la dernière décennie. On l’utilise notamment dans l’industrie pour identifier une pièce défectueuse : par exemple, un défaut de soudure dans un châssis de voiture. D’autant plus que c’est possible sur des volumes et cadences très élevées – ce qui est bien sûr impossible pour l’œil humain.

Enfin, la troisième application majeure de l’IA concerne la prédiction. Sur Gmail, tu as par exemple des propositions de fin de phrase dès que tu commences à écrire un e-mail. Ces textes sont basés sur la compréhension de ce que tu es en train d’écrire, mais aussi sur une prise en compte de tes habitudes. En ce qui me concerne, Gmail me suggère très souvent de commencer par la phrase « désolé pour la réponse tardive » (rires).

Au-delà des e-mails, la prédiction par IA peut également s’appliquer à l’anticipation d’une panne de machine, d’une vente de produit, voire d’une démission. Tout dépend des données d’entrées et de sorties dont elle dispose. Voilà donc les grandes familles d’applications de l’IA au travail.

Merci beaucoup pour ces réponses très concrètes ! Et c’est suffisamment rare pour être souligné tant cela peut manquer dans de nombreux discours autour du sujet. Je trouve ça très évocateur de pouvoir associer l’IA à des sens comme la vue ou à des facultés humaines comme l’instinct.

Il faut garder en tête qu’il s’agit d’une autre forme d’instinct. Car il est très différent de celui qu’on a pu développer en tant qu’espèce. L’instinct humain est basé sur notre expérience, ainsi que sur notre façon de résoudre des problèmes. Très concrètement, c’est ce qui nous amène à courir pour fuir un danger qui menace notre survie. Au travail, l’instinct nous permet de trouver des solutions à des situations exceptionnelles. Cela consiste à faire preuve de tactiques et d’inventivité dans le cas d’un événement qui s’éloigne de la procédure ordinaire.

Reste que l’IA repose elle aussi sur une forme d’empirisme. Sauf que cet empirisme se base sur des motifs et des modèles établis par corrélations entre de vastes quantités de données. C’est à partir de ces corrélations qu’une IA va établir des règles face à de nouvelles situations. L’efficacité de sa prédiction sera d’autant plus forte que la règle qu’elle a trouvée est pertinente par rapport au problème en question. Plus un problème donné est proche d’une situation passée qu’elle va analyser, plus sa prédiction sera fiable. Et si une IA n’a ni corps ni sens, elle peut tout de même les simuler. On l’évoquait plus tôt pour la vue, mais ça peut également s’appliquer à l’ouïe – quand elle est couplée à des capteurs sonores.

Il y a un mot central dans tes travaux de recherche, c’est la confiance. C’est d’ailleurs le nom d’un outil que tu as développé (ConfianceS) qui est utilisé dans le cadre de LaborIA. Ce qui m’amène à te demander : sur quels critères se base-t-on aujourd’hui pour juger une IA digne de confiance (ou pas) ?

Là aussi, il y a plusieurs grilles de lecture. Sur le volet technique, une IA est digne de confiance quand elle est jugée stable, c’est-à-dire quand elle ne va pas planter, qu’elle ne va pas être cyber-attaquable et qu’elle répond aux attentes en termes de certificabilité. Ce dernier point consiste à garantir qu’elle ne descendra jamais en dessous d’un niveau de performance attendu.

Un autre enjeu de taille concerne l’interprétabilité. Comment rendre intelligible par des humains (concepteurs comme utilisateurs) une décision prise par une IA ? À noter qu’un concepteur aura besoin d’une réponse mathématique, là où un utilisateur voudra une réponse sémantique. Chacun aura besoin d’une explication dans son langage professionnel pour comprendre comment une IA est parvenue à un résultat donné.

Et aujourd’hui, on ne sait pas comment une IA réussit à atteindre une performance minimale de 90% sur la résolution d’un problème donné, le tout de façon autonome. On est face à une boîte noire : techniquement, on n’arrive pas à lui demander comment elle s’y prend. Pour les industriels, c’est un vrai casse-tête. D’autant plus qu’ils ont un autre enjeu essentiel à gérer : la souveraineté. Cela consiste à s’assurer que les IA ne partagent pas leurs données confidentielles des concurrents voire des puissances étrangères.

L’interprétabilité représente également un problème social. À l’échelon individuel, elle dépend de l’importance de la notion de responsabilité dans l’ethos professionnel d’un travailleur. Plus on demande à quelqu’un d’agir de façon responsable, plus l’explication associée va compter. À l’inverse, si on est habitué à travailler avec des machines qu’on ne comprend pas, si on ne se sent pas engagé moralement vis-à-vis du résultat, ou si on ne nous demande pas d’engager notre responsabilité personnelle vis-à-vis d’une tâche, alors moins la question de l’interprétabilité sera un problème à nos yeux.

Pour autant, c’est un problème qui doit être résolu. Car le risque pour le travailleur, c’est de devenir expert de la machine – et non de son métier. L’idée, ce n’est pas que l’IA nous transforme en “presse-boutons”. Et pour cause : ce n’est ni valorisant ni valorisé, avec des conséquences en termes de salaire, d’employabilité, et donc de dignité au travail. Reste que si un travailleur ne comprend pas le fonctionnement d’une IA, il va tout de même lui associer une certaine valeur. En effet, cela peut lui faire gagner du temps, de la performance, ou lui épargner de la pénibilité. Après, il faut se dire que chaque nouvelle technologie génère une dette.

Certes, il y a une réalisation plus efficace, plus rapide ou moins pénible d’une tâche. Mais il s’agit aussi de se demander quelles tâches cela va impliquer derrière. Cette nouvelle technologie nécessitera-t-elle de l’entretien, de la maintenance, de l’entraînement ? Une tâche supprimée implique toujours d’autres qui s’ajoutent. L’enjeu est donc que celles-ci soient à la fois valorisées et valorisantes.

Si la tâche supprimée est peu appréciée, alors tout le monde y gagne. Mais le calcul ne doit pas uniquement se faire au niveau de la valeur ajoutée. Et pour cause : certaines tâches qui apportent peu à une entreprise peuvent être appréciées par le travailleur. C’est le cas du fameux tri de ses e-mails, qui est rarement la tâche que l’on préfère mais qui a le mérite d’apporter une respiration dans sa journée. Le vendredi en fin d’après-midi, cela permet de créer une transition avec le week-end, ou encore de préparer plus sereinement la semaine à venir.

Enfin, chaque métier est animé par un système de valeurs. D’où l’enjeu de veiller à ce que l’IA ne vienne pas tout chambouler à ce niveau. Prenons le cas – très actuel – d’une IA utilisée pour corriger des dissertations de philosophie. Encore une fois, les copies à corriger sont rarement la tâche préférée des enseignants. Mais à côté de ça, c’est important pour eux dans le sens où il en va de leur responsabilité d’évaluer les élèves équitablement et de les amener à avoir la note qu’ils méritent. Dans cette situation, l’IA viendrait adresser une tâche considérée comme rébarbative et pénible par de nombreux professeurs. Pourtant, nombreux d’entre eux refuseraient d’y avoir recours. Les valeurs de mérite, de responsabilité et d’équité se retrouveraient bouleversées par l’arrivée d’un tel outil. D’autant plus que cela ajouterait une étape opaque à un processus auparavant très clair pour eux.

En parlant d’enseignement, j’imagine que l’IA a énormément d’implications sur le volet de la formation professionnelle.

Je ne suis pas spécialiste du sujet, contrairement à Jean Condé qui travaille avec moi sur LaborIA. Mes travaux qui s’en approchent le plus concernent la détection du déplacement de la valeur du travail. Car si la valeur ajoutée par les travailleurs se déplace, alors il y a très probablement des enjeux de formation associés. Souvent, ces déplacements les orientent vers des tâches plus spécifiques, plus complexes, plus créatives, plus relationnelles. Mais qu’en est-il des personnes qui sont plus à l’aise dans un environnement procédurier ? Si on les déplace vers des tâches moins prévisibles, plus incertaines, elles peuvent se retrouver en situation d’échec à cause de l’IA.

Gardons aussi en tête que l’expertise s’acquiert par l’expérience, qui passe elle-même par l’exercice, puis par la maîtrise de tâches simples et opérationnelles. Mais si l’IA s’occupe de ces tâches à plus faible valeur ajoutée, alors cela pose un vrai problème dans la courbe d’apprentissage d’un métier. Car c’est par l’opérationnel et l’expérimentation que l’on développe son instinct, sa versatilité, son intuition.

Ça me semble d’autant plus important que le travail joue un rôle important dans la construction identitaire des individus. Là aussi, j’imagine que l’IA va chambouler un certain nombre de ses fondamentaux. Quelles sont les implications majeures que tu as pu observer sur son impact sur cette construction identitaire ?

Comme on le disait à l’instant, l’IA pose un risque majeur de déstabilisation des systèmes de valeurs. Côté travailleur, il y a notamment un risque de déresponsabilisation en cas d’erreur, avec des réponses du style : “c’est pas moi, c’est l’IA qui l’a dit”. Ta question m’évoque une problématique essentielle, qui est celle de la gestion de l’autonomie du travailleur face à un système d’IA très coûteux, très puissant, mais qui reste malgré tout faillible.

Historiquement, on a toujours considéré que les entreprises reposent sur deux types de ressources. Il y a le capital : souvent des machines au résultat déterministe et prévisible, avec des performances égales dans le temps. En face, on retrouve bien sûr les travailleurs qui, face à des situations exceptionnelles, vont avoir une performance exceptionnelle mais néanmoins faillible, avec également des écarts de résultat d’un individu à l’autre. L’avènement de l’IA au travail amène un grand bouleversement, à savoir une cohabitation nouvelle entre deux formes d’empirisme : l’expérience des humains d’une part, les probabilités statistiques de l’IA de l’autre.

Pour un humain, l’autonomie c’est aussi ce qui permet de dire qui on est sur le volet identitaire. Ce n’est pas le cas avec le respect des procédures, qui amène les conseillers téléphoniques évoqués plus tôt à se considérer comme des robots. Or aujourd’hui, on recherche des formes d’identité toujours plus complexes. Au travail, la façon dont on exerce son activité nous permet de revendiquer notre singularité. Gardons en tête que par définition, les individus sont justement “indivisibles”. Et cette indivisibilité au travail va se construire par l’autonomie, c’est-à-dire par la façon dont mon fonctionnement me permet de dire que je suis différent des autres – notamment quand d’autres individus ont le même travail que moi.

Ce qui va tout changer avec l’IA entre un travailleur et son manager, c’est l’arrivée d’une nouvelle entité : un modèle statistique, qui repose sur ce que Bruno Latour appelle un “monde obtenu” – par opposition au “monde perçu” propre aux humains. Et cela représente un enjeu managérial de taille. Car il va y avoir une confrontation entre une IA qui préconise des choses en fonction d’un monde obtenu par calcul de probabilités, et un humain qui a développé une vision de ce qu’il faut faire en fonction de son expérience du monde tel qu’il le perçoit. En tant que sociologue, en tant qu’humaniste, et en tant que membre de l’équipe de LaborIA, ma préoccupation sera toujours le travailleur, avec comme priorité de toujours œuvrer pour préserver sa dignité. Et comme l’autonomie en est un élément-clé, alors cela restera un axe majeur de nos travaux.

Aujourd’hui plus que jamais, il y a une effervescence sans précédent autour de l’IA dite “grand public”. C’est notamment grâce à l’API (application programming interface) GPT-3, qui est la technologie derrière ChatGPT. J’ai l’impression qu’on entend surtout d’un côté des personnes très optimistes au vu du potentiel supposément infini de l’outil, et de l’autre des sceptiques qui vont plutôt tirer la sonnette d’alarme face à la menace que cela peut représenter. Alors j’ai envie de te demander : quelle est ta lecture du phénomène en tant que chercheur ? Où places-tu le curseur ?

Sur ChatGPT comme sur plein d’autres sujets de société, on retrouve une polarisation très forte des opinions et émotions en fonction des communautés d’appartenance des individus. C’est d’ailleurs une conséquence directe de notre exposition sur plus d’une décennie à des algorithmes – ici en l’occurrence, ceux des réseaux sociaux. Et ce qui est terrible, c’est que cette opposition peut nous donner cette impression que les deux points de vue sont irréconciliables et nous empêchent de faire société. Sauf que faire société consiste justement à vivre ensemble malgré nos différences et contradictions.

À partir de là, il y a deux issues possibles : la violence ou l’indifférence. Cela peut donner lieu à des émeutes sanglantes, comme cela s’est produit au Brésil en début d’année. Une autre conséquence, c’est la banalisation actuelle de ces bulles de filtre, qui nous amènent à considérer l’information comme un outil au service de la confirmation de ses propres biais – et qui nous permet de balayer d’un revers de la main les opinions d’autrui.

Quant à moi, j’ai la même lecture de ChatGPT que celle du sujet de l’IA au global. Pour commencer, je me méfie des enthousiastes. Ces derniers pourraient privilégier leur propre intérêt et/ou négliger tous les enjeux éthiques et humains autour du sujet. Beaucoup d’entreprises se ruent sur ChatGPT par opportunisme, sans prendre le temps de réfléchir aux problèmes que cette technologie pose à la société – mais aussi potentiellement à elles-mêmes – dans un futur proche. Je dis souvent qu’il faut laisser la croyance aux religions spirituelles. Il est dangereux de croire en la science et la technique. Car ce qui compte, c’est l’esprit critique.

Reste qu’une partie du camp adverse passe lui aussi à côté du vrai sujet. Certaines peurs autour de l’IA me semblent excessives. Penser à la singularité et à l’émergence d’une superintelligence qui nous surpasserait à long terme, c’est une chose. Mais se concentrer sur les vrais problèmes à court terme en est une autre. D’autant plus que ce n’est pas ce qui manque.

Pour commencer, je trouve qu’on sous-estime beaucoup trop le fait que la finalité de ChatGPT est d’arriver à la probabilité statistique la plus proche, mais en aucun cas à une information juste. Il y a donc une garantie de vraisemblance, mais pas de véracité. Son fonctionnement repose sur l’objectif de s’approcher statistiquement le plus possible d’une réponse plausible à une question donnée. Autant dire que cela laisse une certaine place aux approximations, à l’imitation, à de l’invention pure et simple, mais aussi à des erreurs factuelles qui ne seront jamais présentées comme telles.

D’ailleurs, ChatGPT s’inscrit pleinement dans le prolongement des bulles de filtres évoquées plus tôt. Pour le coup, on est plus que jamais dans cette fameuse ère de la post-vérité. Et si on ramène ça au travail, ça nous ramène à une vraie question de société : préfère-t-on des garanties ou de la plausibilité ? Pour un étudiant qui veut utiliser ChatGPT pour sa dissertation, le calcul coût/résultat est extraordinaire. Cela lui permettrait d’obtenir la moyenne voire une note très correcte avec un taux d’effort extrêmement faible. Donc si le mérite et l’éthique ne sont pas dans ses priorités, rien ne l’empêche de basculer vers ChatGPT – bien au contraire.

Il y a selon moi un deuxième problème de taille. Cela concerne la détection des contenus prohibés par les IA : incitations à la haine, appels à la violence sur certaines personnes, etc. Sauf que les robots de ChatGPT ne vont pas s’entraîner tout seuls à reconnaître ces contenus illicites. Billy Perrigo, journaliste chez TIME, vient justement de révéler en début d’année qu’OpenAI fait appel à des travailleurs au Kenya payés moins de 2 dollars par heure pour cette tâche spécifique.

Au-delà de la très faible rémunération, ce sont des métiers psychologiquement éprouvants, encore moins valorisants ou valorisés, et qui sont également invisibles et délocalisés. Cela doit nous inviter à garder à l’esprit que derrière une machine se cache toujours un humain. Les modèles statistiques, quant à eux, doivent toujours disposer de nouvelles données qui doivent être collectées, affinées et entraînées en permanence.

Forcément, ça m’évoque les nombreuses enquêtes sur l’enfer vécu par les personnes derrière la modération des réseaux sociaux – qui n’est pas seulement algorithmique mais humaine aussi.

Effectivement, c’est un autre exemple de violence associée au développement d’une technologie donnée qui a été invisibilisée. Et pour Facebook comme pour ChatGPT, c’est un problème auquel on réfléchit seulement après – et non avant de mettre une technologie entre toutes les mains. Je compare souvent cette réalité à un contrat qu’on va signer avant d’avoir lu toutes les petites lignes associées.

Et à ce sujet, il y a un autre problème colossal : l’explosion de l’impact écologique de l’IA. Pour rappel, le bilan carbone du numérique a dépassé celui du trafic aérien il y a deux ans. On dit souvent que si toute l’industrie numérique était un pays, ce serait le troisième plus gros pollueur du monde derrière la Chine et les Etats Unis. Et sur ce point, l’IA est un désastre écologique annoncé.

Au premier abord, on a du mal à faire le lien entre son apparente dématérialisation et son empreinte carbone exponentielle. Sauf qu’entre les capteurs, les serveurs, les datacenters et j’en passe, c’est une industrie très matérielle. Bien sûr, plus les modèles statistiques sont gros, plus ils sont gourmands en termes de capacité d’hébergement et de stockage des données. Et à force d’entendre que GPT-4 va surpasser de très loin la version actuelle GPT-3, on peut se le dire : oui, il y a vraiment de quoi s’inquiéter.

On est donc toujours en attente d’une maturité civilisationnelle à développer vis-à-vis des nouvelles technologiques. Cela nous éviterait d’être condamnés à découvrir les problèmes après qu’ils aient eu lieu. Mon travail de sociologue du travail est justement de lire entre les petites lignes invisibles situées dans les contrats que nous signons avec l’IA – et souvent d’alerter à leur sujet.

Ça me semble une conclusion particulièrement évocatrice pour clore cette interview. Un grand merci à toi Yann pour cette conversation si riche ! Je te souhaite une bonne continuation dans tes recherches, ainsi qu’avec LaborIA — dont j’ai hâte découvrir les premiers résultats.

Interviewer : Benjamin Perrin pour Matrice