LaborIA, le podcast – Épisode introductif : L’IA au travail, quelle transformation des réalités humaines ?

Le podcast du LaborIA explore les impacts de l’intelligence artificielle sur le travail. Au fil des épisodes, nous suivons une équipe de chercheurs en sciences sociales dans leurs enquêtes terrain et questionnons des experts des transformations du travail.

Comment appréhender le futur du travail avec l’IA ?

Avec l’avènement de ChatGPT, le sujet de l’IA est revenu au cœur des préoccupations. Nous constatons chaque jour que de nouveaux outils d’intelligence artificielle sont inventés pour rendre le travail plus efficace, moins redondant. 

Au fil des épisodes du podcast, des experts du Ministère du Travail, de l’INRIA, de Matrice et du monde de la recherche partagent leurs réflexions sur l’avenir du travail à l’ère de l’IA.

En quoi cette technologie favorise-t-elle ou entrave-t-elle notre capacité d’agir au travail ? Quelles sont les nouvelles identités professionnelles des salariés et managers ? A-t-on le choix de « ce progrès » ou y est-on contraint par la compétition économique ? 

Les invités de cet épisode introductif explorent les grandes questions posées par l’IA au travail et présentent le LaborIA ainsi que les premiers travaux de la zone d’expérimentation LaborIA Explorer.

  • Lamia Abed, Chargée de mission anticipation et développement de l’emploi et des compétences au Ministère du Travail, du Plein emploi et de l’Insertion
  • Jean Condé, Directeur scientifique de Matrice
  • Yann Ferguson, Docteur en sociologie et Directeur scientifique du LaborIA

Hub France IA – ChatGPT : Usages, impacts et recommandations

Le Hub France IA est une association qui vise à fédérer les acteurs de l’écosystème pour promouvoir et développer l’intelligence artificielle au niveau national et européen.. Rassemblant plus de 150 membres et partenaires, le Hub France IA soutient le développement économique de l’écosystème IA, participe à l’émergence de nouveaux projets structurants et s’engage dans un modèle centré sur l’éthique.

Le groupe de travail “ChatGPT” du Hub France IA a étudié pendant plusieurs semaines le fonctionnement de l’IA générative d’Open AI ainsi que ses usages et ses limites, puis, tenté de définir les premiers impacts tangibles.
Ce travail d’envergure s’accompagne de recommandations qui sont le résultat d’une co-construction avec de nombreux partenaires de son écosystème : startups (Aleia, ClicNWork, Datavaloris, DecisionBrain, Neovision…), grands groupes (Atos, BNP Paribas, EDF, SNCF, etc.), établissements d’enseignement supérieur (ESSEC BS, Université Sorbonne, etc.), administrations publiques (DGAC, DGE, etc.), médias (FranceTV, France 2), ainsi que le LaborIA.

La note de synthèse aborde :

  1. Le fonctionnement et les limites de ChatGPT et plus largement des modèles de langage et de l’agent conversationnel ;
  2. Les usages de ChatGPT par domaine (relation client et marketing, développement informatique, cybersécurité, banque et assurance, bâtiment et travaux publics, recherche, enseignement, éthique, journalisme, ressources humaines, droit, santé…) ;
  3.  Les impacts de ChatGPT pour les entreprises, l’emploi, l’environnement, l’éthique et l’enseignement ;
  4. Les recommandations à destination des entreprises, des institutions et de la société civile pour adopter un usage raisonné de ces nouvelles technologies.

Le Hub France IA conseille aux organisations (et à la société en générale) de se préparer dès maintenant au déferlement des applications de l’IA générative pour en tirer un maximum de bénéfices et pallier aux risques décrits dans le rapport. Parmi les recommandations, on retrouve la formation massive des salariés, la diffusion d’une charte de bonnes pratiques ou encore la protection des données confidentielles et le développement de solutions souveraines.
Dans la lignée des travaux du LaborIA, le rapport précise que « Les entreprises peuvent notamment, afin de minimiser les risques liés à l’utilisation de ChatGPT, publier une charte d’usage avec des règles d’utilisation claires, former les collaborateurs sur les limites et la précision de l’outil et mettre en place des outils de détection et de supervision pour prévenir les failles de cybersécurité, corriger les erreurs, les biais ou les incohérences. »

26 septembre 2023 – Le LaborIA organise son premier colloque sur les transformations du travail par l’IA

Objectifs

Ce colloque sera l’occasion de partager les enseignements des travaux du LaborIA et d’autres recherches, tout en les mettant en dialogue avec différents angles de recherche dans une perspective pluridisciplinaire. A l’appui d’éclairages experts et de cas empiriques, l’objectif sera d’appréhender les enjeux posés par l’IA sur le travail et de se projeter collectivement vers une modernité réflexive pour mieux anticiper les conséquences politiques, économiques et scientifiques sur ce thème d’avenir.

Comment les individus s’approprient, utilisent, contournent ou détournent les outils liés à l’IA dans leurs pratiques de travail ? Au-delà de la “geek economy”, comment ces nouvelles briques technologiques s’inscrivent-elles dans le quotidien des organisations ? De quelle manière bousculent et reconfigurent-elles certains métiers – et même la définition d’un “travail d’humain” ? Avec l’IA, quelles nouvelles formes de dialogue en entreprise, quels modèles socio-productifs inventer pour demain ? 

Après une matinée dédiée au croisement de travaux scientifiques sur l’IA, l’après-midi offrira une scène de réflexion sur les futurs possibles du monde du travail à l’ère des IA. Elle croisera les expériences et expertises d’acteurs économiques et institutionnels qui conçoivent, mettent en œuvre, financent et pensent l’intégration professionnelle des IA d’aujourd’hui et de demain.

Programme

8h30 – 9h00 : ACCUEIL

9h00 – 9h15 : MOT D’OUVERTURE par les partenaires (Ministère du Travail, du Plein emploi et de lʼInsertion, Inria, Matrice)

9h15 – 9h45 : INTRODUCTION par le Keynote speaker

  • Pascal Picq, Paléoanthropologue, maître de conférence au Collège de France

9h50 – 10h50 : PANEL 1 – Présentation des résultats du LaborIA Explorer, première zone dʼexpérimentation du LaborIA

  • Simon Borel, Sociologue, chercheur du LaborIA Explorer, Matrice
  • Jean Condé, Sociologue, Directeur scientifique de Matrice
  • Yann Ferguson, Sociologue et Directeur scientifique du LaborIA

10h50 – 11h05 : PITCHS DES POSTERS de chercheurs travaillant sur différentes problématiques autour des impacts de lʼIA sur le travail

  • Louis Devillaine, Doctorant – IA et systèmes techniques complexes, PACTE (CNRS & UGA) & chaire éthique et IA
  • Tamari Gamkrelidze, Docteure en recherche-innovation, Expleo, Cnam-CRTD
  • Quentin Genissel, Doctorant – Management algorithmique, Université Paris Dauphine PSL
  • Valentin Goujon, Doctorant – Deep learning, Médialab Sciences Po
  • Tanguy Mercier, Ingénieur, Matrice

11h05 – 11h20 : Pause

11h20 – 12h40 :
PANEL 2 – Les transformations du travail au niveau de lʼindividu

  • Modérateur : Marie Benedetto-Meyer, sociologue, Dares
  • Gérald Gaglio, Sociologue des organisations, Université Côte d’Azur
  • Clément Le Ludec, Chercheur en sociologie du travail, Institut Polytechnique de Paris / Télécom Paris
  • Claire Marzo, Maître de conférence en Droit Public, Université Paris-Est Créteil

PANEL 3 – Les transformations du travail au niveau du collectif, de lʼorganisation

  • Modérateur : Moustafa Zouinar, chercheur en ergonomie, Orange Innovation
  • Joffrey Becker, Anthropologue des sciences et des techniques, ENSEA-ETIS
  • Anca Boboc, Sociologue du travail et des organisations, Orange Innovation
  • Emmanuelle Mazuyer, Directrice de recherche en droit, CNRS, CERCRID,coordinatrice du projet TraPlaNum
  • Christine Sybord, Maître de Conférences en Sciences de gestion : systèmes d’information, management de projets, Université de Lyon

12h40 – 13h40 : Déjeuner (buffet)

13h40 – 15h40 : CONFÉRENCES INTERACTIVES
Nous penserons les transformations du travail en prenant en compte les évolutions de lʼIA, à horizon 2035, sous lʼangle de 3 thématiques déterminantes. Chaque thématique sera contextualisée par un expert qui partagera les différents éléments essentiels pour pouvoir construire des scénarios.
Dans un second temps, le public sera invité à se positionner sur les situations présentées.

  • Conférence introductive “Les IA génératives” (30 min) – Bertrand Braunschweig, Coordonnateur scientifique de Confiance.ai, IRT SystemX
  • Thématique 1 : Droit du travail (30 min) – Claire Marzo, Maître de conférence en Droit Public, Université Paris-Est Créteil
  • Thématique 2 : Géopolitique (30 min) – Julien Nocetti, chercheur, programme Géopolitique des technologies, Ifri
  • Thématique 3 : Climat (30 min) – Association Latitudes

15h40 – 16h10 : PANEL de clôture

  • Pascal Picq, Paléoanthropologue, maître de conférence au Collège de France
  • Yann Ferguson, Sociologue et Directeur scientifique du LaborIA

16h10 – 16h30 : CONCLUSION : Perspective socio-historique

  • François-Xavier Petit, Historien et Directeur général de Matrice

Comité d’organisation

  • Simon Borel, Chercheur en sciences sociales, chercheur principal du LaborIA Explorer, Matrice
  • Jean Condé, Chercheur en sciences sociales, Directeur scientifique de la zone LaborIA Explorer, Matrice
  • Yann Ferguson, Directeur scientifique du LaborIA, Inria
  • Sarah Gubitta, Chercheuse en sciences sociales, responsable du cadrage scientifique du colloque, Matrice
  • Lucie Poulet, Ingénieure projet pour le LaborIA Explorer et le colloque, Matrice

Vous avez des questions ?

Ecrivez-nous :

LaborIA, le podcast – Épisode spécial : Pourquoi analyser les transformations du travail par l’IA ?

Le podcast du LaborIA explore les impacts de l’intelligence artificielle sur le travail. Au fil des épisodes, nous suivons une équipe de chercheurs en sciences sociales dans leurs enquêtes terrain et questionnons des experts des transformations du travail.

Pourquoi analyser les transformations du travail par l’IA ?

Après avoir diffusé les premiers résultats du LaborIA Explorer, nous vous proposons de vous approcher au plus près de la réflexion des acteurs qui pensent et préparent le déploiement d’une IA éthique et responsable dans le monde professionnel.

Comment anticiper au mieux la place de l’IA dans le travail ? Comment les politiques publiques s’emparent des enjeux de l’IA ? Comment l’IA va-t-elle jouer un rôle dans cette quête de sens au travail ? Réponses dans ce premier volet, qui inaugure une série à découvrir dès l’automne 2023.

Écoutez cet épisode inédit, avec pour invités :

Débat du jour sur RFI : L’IA est-elle une menace pour l’emploi ? Avec Yann Ferguson, Directeur scientifique du LaborIA

L’intelligence artificielle est-elle une menace pour l’emploi ?

Parmi les enjeux majeurs du déploiement de l’IA dans notre société, la question de ses effets sur l’emploi alimente de nombreux débats. Pléthores d’études sont parus dernièrement pour tenter de projeter l’impact de l’IA sur l’emploi. L’IA va-t-elle supprimer des emplois ? En créer de nouveaux ? Dans quelle mesure ? A quelles mutations devrons-nous faire face ? Comment les accompagner et qui pour les arbitrer ?

Pour débattre, Yann Ferguson, docteur en Sociologie et Directeur scientifique du LaborIA, était aux côtés de Salima Benhamou, docteur en Économie, économiste du Travail à France Stratégie, membre du Comité exécutif du LaborIA ainsi que Manuel Gea, spécialiste de l’IA, fondateur et PDG de l’entreprise BMsystems spécialisée dans la santé.

“Débat du jour” est une émission quotidienne sur RFI, présentée par Romain Auzouy, dans laquelle des experts reconnus abordent une question de société et confrontent leurs points de vue.

Rencontre avec Yann Ferguson, sociologue du travail et Directeur Scientifique du LaborIA

Spécialiste des mutations du travail, Yann Ferguson consacre une large partie de ses travaux à l’éthique de l’intelligence artificielle et ses effets sociétaux ainsi qu’aux relations entre les Hommes et les machines. En 2018, il a reçu le Prix de la Fondation des sciences sociales pour ses travaux sur les effets pressentis de l’IA sur le travail. Yann est aussi membre expert du groupe de travail « L’avenir du travail » du Partenariat mondial pour l’intelligence artificielle.

L’interview qui suit a été réalisée par Matrice, opérateur du LaborIA Explorer.

Bonjour Yann et merci d’avoir accepté cette interview. Tu es le directeur scientifique du LaborIA, un laboratoire de recherche sur l’application de l’IA au travail. C’est un sujet dont on parle depuis un certain nombre d’années – et de plus en plus récemment depuis la sortie en novembre 2022 de ChatGPT. J’ai envie de commencer cette interview par du concret : de quoi s’agit-il exactement quand on parle d’utilisation de l’IA au travail ?

Il y a plusieurs prismes possibles. Sur le volet anthropologique, cela concerne l’utilisation d’outils pour faciliter la réalisation d’une tâche. C’est un mécanisme que l’être humain mobilise depuis des millénaires. On a longtemps considéré que c’était une caractéristique qui nous distinguait des autres espèces. Aujourd’hui, on sait que ce n’est pas le cas : certains primates et oiseaux utilisent des outils au quotidien. Mais ce qui nous différencie, c’est l’étendue de l’espace mental dans lequel s’intègrent ces outils.

Pour les animaux, ils servent essentiellement dans le cadre de la chasse ou de la reproduction. Mais en tant qu’humains, nous sommes capables de construire des séquences opératoires très complexes. L’IA s’inscrit dans ce processus historique d’utiliser des outils pour nous faciliter la vie. Et cela s’applique de plus en plus à des tâches dites cognitives – longtemps considérées comme exclusives à l’être humain.

C’est déjà quelque chose en soi, mais ça ne s’arrête pas là. Des IA très avancées comme ChatGPT ont pu nous montrer que la machine est également capable de réaliser des tâches qui jusque-là contribuaient à nous définir en tant qu’espèce, à nourrir notre fierté de Sapiens. Et ça s’applique au travail. Car au-delà de subvenir à nos besoins, travailler avec les autres est devenu une façon de s’intégrer, de s’accomplir, de développer ses talents, mais aussi de faire communauté : des qualités constitutives et propres à l’humain.

Rappelons au passage que la valorisation du travail est historiquement assez récente – tout juste deux siècles après la Première Révolution Industrielle. Avec l’aristocratie, il était surtout valorisé de ne pas travailler. Ceux qui travaillaient appartenaient aux classes sociales inférieures. Les révolutions bourgeoises ont eu les conséquences que l’on connaît : le travail est devenu un pilier de nos sociétés. L’IA est en train de bouleverser tout ça, dans le sens où elle s’applique à de nouvelles catégories de tâches, cognitives, créatives, longtemps réservées aux humains. Des programmes comme DALL·E et Midjourney nous l’ont montré avec la création artistique.

Cela pose plusieurs questions fondamentales. Aura-t-on toujours du travail ? Et que deviendrons-nous si ce n’est pas le cas ? Parviendra-t-on à subsister à leurs côtés, à nous réaliser sans travail ? Et si on réussit à le conserver, à quoi ressemblera-t-il ? Nous permettra-t-il de conserver une dignité ?

Pour en revenir plus précisément à ta question, l’IA se matérialise aujourd’hui par des algorithmes qui effectuent différents types de tâches, qui amènent de la valeur dans un travail, et occupent une certaine place dans le cadre d’une mission donnée. Or, cette place va parfois déplacer radicalement celle qu’occupait le travailleur auparavant. Cela implique souvent que l’individu se redéfinisse par rapport à ce déplacement. L’enjeu va donc être de comprendre comment ce dernier va se positionner vis-à-vis de cette nouvelle configuration.

Peux-tu me donner un exemple concret d’une utilisation d’IA au travail dans le cadre de tes recherches menées avec LaborIA ?

Aujourd’hui, on utilise beaucoup l’IA en tant qu’agent conversationnel intelligent – que ce soit par le texte avec les chatbots ou à l’audio avec les assistants vocaux. Ce type d’interaction peut avoir pour objectif de mettre en relation un client et un professionnel.

Quand on y réfléchit, ça peut sembler paradoxal de confier à un robot des tâches sociales qui reposent sur des interactions humaines. Sauf que de nombreuses personnes dont c’est le métier ont justement le sentiment d’exercer ces tâches comme le feraient des robots, ou même des perroquets. Dès lors, ces tâches sont souvent considérées comme ingrates, décourageantes voire aliénantes – et non épanouissantes, gratifiantes et valorisantes.

C’est dans ce cadre que l’on finit par confier ces tâches robotiques à de véritables robots. L’utilisation d’IA adresse donc ce problème de caractère répétitif de l’information. Ce sont toujours les mêmes questions qui reviennent, suivies des mêmes réponses. Les IA conversationnelles apportent une homogénéité de message, une homogénéité d’humeur, une disponibilité totale, ainsi qu’une immédiateté de la réponse. Autant dire qu’on ne peut pas rivaliser sur tous ces niveaux – précisément parce que nous sommes des êtres humains et non des robots.

Deuxième cas d’utilisation très répandu : les applications de computer vision, qui sont associées à la vue. Cela consiste à reconnaître des images avec précision, le tout avec une marge d’erreur qui n’a cessé de diminuer au cours de la dernière décennie. On l’utilise notamment dans l’industrie pour identifier une pièce défectueuse : par exemple, un défaut de soudure dans un châssis de voiture. D’autant plus que c’est possible sur des volumes et cadences très élevées – ce qui est bien sûr impossible pour l’œil humain.

Enfin, la troisième application majeure de l’IA concerne la prédiction. Sur Gmail, tu as par exemple des propositions de fin de phrase dès que tu commences à écrire un e-mail. Ces textes sont basés sur la compréhension de ce que tu es en train d’écrire, mais aussi sur une prise en compte de tes habitudes. En ce qui me concerne, Gmail me suggère très souvent de commencer par la phrase « désolé pour la réponse tardive » (rires).

Au-delà des e-mails, la prédiction par IA peut également s’appliquer à l’anticipation d’une panne de machine, d’une vente de produit, voire d’une démission. Tout dépend des données d’entrées et de sorties dont elle dispose. Voilà donc les grandes familles d’applications de l’IA au travail.

Merci beaucoup pour ces réponses très concrètes ! Et c’est suffisamment rare pour être souligné tant cela peut manquer dans de nombreux discours autour du sujet. Je trouve ça très évocateur de pouvoir associer l’IA à des sens comme la vue ou à des facultés humaines comme l’instinct.

Il faut garder en tête qu’il s’agit d’une autre forme d’instinct. Car il est très différent de celui qu’on a pu développer en tant qu’espèce. L’instinct humain est basé sur notre expérience, ainsi que sur notre façon de résoudre des problèmes. Très concrètement, c’est ce qui nous amène à courir pour fuir un danger qui menace notre survie. Au travail, l’instinct nous permet de trouver des solutions à des situations exceptionnelles. Cela consiste à faire preuve de tactiques et d’inventivité dans le cas d’un événement qui s’éloigne de la procédure ordinaire.

Reste que l’IA repose elle aussi sur une forme d’empirisme. Sauf que cet empirisme se base sur des motifs et des modèles établis par corrélations entre de vastes quantités de données. C’est à partir de ces corrélations qu’une IA va établir des règles face à de nouvelles situations. L’efficacité de sa prédiction sera d’autant plus forte que la règle qu’elle a trouvée est pertinente par rapport au problème en question. Plus un problème donné est proche d’une situation passée qu’elle va analyser, plus sa prédiction sera fiable. Et si une IA n’a ni corps ni sens, elle peut tout de même les simuler. On l’évoquait plus tôt pour la vue, mais ça peut également s’appliquer à l’ouïe – quand elle est couplée à des capteurs sonores.

Il y a un mot central dans tes travaux de recherche, c’est la confiance. C’est d’ailleurs le nom d’un outil que tu as développé (ConfianceS) qui est utilisé dans le cadre de LaborIA. Ce qui m’amène à te demander : sur quels critères se base-t-on aujourd’hui pour juger une IA digne de confiance (ou pas) ?

Là aussi, il y a plusieurs grilles de lecture. Sur le volet technique, une IA est digne de confiance quand elle est jugée stable, c’est-à-dire quand elle ne va pas planter, qu’elle ne va pas être cyber-attaquable et qu’elle répond aux attentes en termes de certificabilité. Ce dernier point consiste à garantir qu’elle ne descendra jamais en dessous d’un niveau de performance attendu.

Un autre enjeu de taille concerne l’interprétabilité. Comment rendre intelligible par des humains (concepteurs comme utilisateurs) une décision prise par une IA ? À noter qu’un concepteur aura besoin d’une réponse mathématique, là où un utilisateur voudra une réponse sémantique. Chacun aura besoin d’une explication dans son langage professionnel pour comprendre comment une IA est parvenue à un résultat donné.

Et aujourd’hui, on ne sait pas comment une IA réussit à atteindre une performance minimale de 90% sur la résolution d’un problème donné, le tout de façon autonome. On est face à une boîte noire : techniquement, on n’arrive pas à lui demander comment elle s’y prend. Pour les industriels, c’est un vrai casse-tête. D’autant plus qu’ils ont un autre enjeu essentiel à gérer : la souveraineté. Cela consiste à s’assurer que les IA ne partagent pas leurs données confidentielles des concurrents voire des puissances étrangères.

L’interprétabilité représente également un problème social. À l’échelon individuel, elle dépend de l’importance de la notion de responsabilité dans l’ethos professionnel d’un travailleur. Plus on demande à quelqu’un d’agir de façon responsable, plus l’explication associée va compter. À l’inverse, si on est habitué à travailler avec des machines qu’on ne comprend pas, si on ne se sent pas engagé moralement vis-à-vis du résultat, ou si on ne nous demande pas d’engager notre responsabilité personnelle vis-à-vis d’une tâche, alors moins la question de l’interprétabilité sera un problème à nos yeux.

Pour autant, c’est un problème qui doit être résolu. Car le risque pour le travailleur, c’est de devenir expert de la machine – et non de son métier. L’idée, ce n’est pas que l’IA nous transforme en “presse-boutons”. Et pour cause : ce n’est ni valorisant ni valorisé, avec des conséquences en termes de salaire, d’employabilité, et donc de dignité au travail. Reste que si un travailleur ne comprend pas le fonctionnement d’une IA, il va tout de même lui associer une certaine valeur. En effet, cela peut lui faire gagner du temps, de la performance, ou lui épargner de la pénibilité. Après, il faut se dire que chaque nouvelle technologie génère une dette.

Certes, il y a une réalisation plus efficace, plus rapide ou moins pénible d’une tâche. Mais il s’agit aussi de se demander quelles tâches cela va impliquer derrière. Cette nouvelle technologie nécessitera-t-elle de l’entretien, de la maintenance, de l’entraînement ? Une tâche supprimée implique toujours d’autres qui s’ajoutent. L’enjeu est donc que celles-ci soient à la fois valorisées et valorisantes.

Si la tâche supprimée est peu appréciée, alors tout le monde y gagne. Mais le calcul ne doit pas uniquement se faire au niveau de la valeur ajoutée. Et pour cause : certaines tâches qui apportent peu à une entreprise peuvent être appréciées par le travailleur. C’est le cas du fameux tri de ses e-mails, qui est rarement la tâche que l’on préfère mais qui a le mérite d’apporter une respiration dans sa journée. Le vendredi en fin d’après-midi, cela permet de créer une transition avec le week-end, ou encore de préparer plus sereinement la semaine à venir.

Enfin, chaque métier est animé par un système de valeurs. D’où l’enjeu de veiller à ce que l’IA ne vienne pas tout chambouler à ce niveau. Prenons le cas – très actuel – d’une IA utilisée pour corriger des dissertations de philosophie. Encore une fois, les copies à corriger sont rarement la tâche préférée des enseignants. Mais à côté de ça, c’est important pour eux dans le sens où il en va de leur responsabilité d’évaluer les élèves équitablement et de les amener à avoir la note qu’ils méritent. Dans cette situation, l’IA viendrait adresser une tâche considérée comme rébarbative et pénible par de nombreux professeurs. Pourtant, nombreux d’entre eux refuseraient d’y avoir recours. Les valeurs de mérite, de responsabilité et d’équité se retrouveraient bouleversées par l’arrivée d’un tel outil. D’autant plus que cela ajouterait une étape opaque à un processus auparavant très clair pour eux.

En parlant d’enseignement, j’imagine que l’IA a énormément d’implications sur le volet de la formation professionnelle.

Je ne suis pas spécialiste du sujet, contrairement à Jean Condé qui travaille avec moi sur LaborIA. Mes travaux qui s’en approchent le plus concernent la détection du déplacement de la valeur du travail. Car si la valeur ajoutée par les travailleurs se déplace, alors il y a très probablement des enjeux de formation associés. Souvent, ces déplacements les orientent vers des tâches plus spécifiques, plus complexes, plus créatives, plus relationnelles. Mais qu’en est-il des personnes qui sont plus à l’aise dans un environnement procédurier ? Si on les déplace vers des tâches moins prévisibles, plus incertaines, elles peuvent se retrouver en situation d’échec à cause de l’IA.

Gardons aussi en tête que l’expertise s’acquiert par l’expérience, qui passe elle-même par l’exercice, puis par la maîtrise de tâches simples et opérationnelles. Mais si l’IA s’occupe de ces tâches à plus faible valeur ajoutée, alors cela pose un vrai problème dans la courbe d’apprentissage d’un métier. Car c’est par l’opérationnel et l’expérimentation que l’on développe son instinct, sa versatilité, son intuition.

Ça me semble d’autant plus important que le travail joue un rôle important dans la construction identitaire des individus. Là aussi, j’imagine que l’IA va chambouler un certain nombre de ses fondamentaux. Quelles sont les implications majeures que tu as pu observer sur son impact sur cette construction identitaire ?

Comme on le disait à l’instant, l’IA pose un risque majeur de déstabilisation des systèmes de valeurs. Côté travailleur, il y a notamment un risque de déresponsabilisation en cas d’erreur, avec des réponses du style : “c’est pas moi, c’est l’IA qui l’a dit”. Ta question m’évoque une problématique essentielle, qui est celle de la gestion de l’autonomie du travailleur face à un système d’IA très coûteux, très puissant, mais qui reste malgré tout faillible.

Historiquement, on a toujours considéré que les entreprises reposent sur deux types de ressources. Il y a le capital : souvent des machines au résultat déterministe et prévisible, avec des performances égales dans le temps. En face, on retrouve bien sûr les travailleurs qui, face à des situations exceptionnelles, vont avoir une performance exceptionnelle mais néanmoins faillible, avec également des écarts de résultat d’un individu à l’autre. L’avènement de l’IA au travail amène un grand bouleversement, à savoir une cohabitation nouvelle entre deux formes d’empirisme : l’expérience des humains d’une part, les probabilités statistiques de l’IA de l’autre.

Pour un humain, l’autonomie c’est aussi ce qui permet de dire qui on est sur le volet identitaire. Ce n’est pas le cas avec le respect des procédures, qui amène les conseillers téléphoniques évoqués plus tôt à se considérer comme des robots. Or aujourd’hui, on recherche des formes d’identité toujours plus complexes. Au travail, la façon dont on exerce son activité nous permet de revendiquer notre singularité. Gardons en tête que par définition, les individus sont justement “indivisibles”. Et cette indivisibilité au travail va se construire par l’autonomie, c’est-à-dire par la façon dont mon fonctionnement me permet de dire que je suis différent des autres – notamment quand d’autres individus ont le même travail que moi.

Ce qui va tout changer avec l’IA entre un travailleur et son manager, c’est l’arrivée d’une nouvelle entité : un modèle statistique, qui repose sur ce que Bruno Latour appelle un “monde obtenu” – par opposition au “monde perçu” propre aux humains. Et cela représente un enjeu managérial de taille. Car il va y avoir une confrontation entre une IA qui préconise des choses en fonction d’un monde obtenu par calcul de probabilités, et un humain qui a développé une vision de ce qu’il faut faire en fonction de son expérience du monde tel qu’il le perçoit. En tant que sociologue, en tant qu’humaniste, et en tant que membre de l’équipe de LaborIA, ma préoccupation sera toujours le travailleur, avec comme priorité de toujours œuvrer pour préserver sa dignité. Et comme l’autonomie en est un élément-clé, alors cela restera un axe majeur de nos travaux.

Aujourd’hui plus que jamais, il y a une effervescence sans précédent autour de l’IA dite “grand public”. C’est notamment grâce à l’API (application programming interface) GPT-3, qui est la technologie derrière ChatGPT. J’ai l’impression qu’on entend surtout d’un côté des personnes très optimistes au vu du potentiel supposément infini de l’outil, et de l’autre des sceptiques qui vont plutôt tirer la sonnette d’alarme face à la menace que cela peut représenter. Alors j’ai envie de te demander : quelle est ta lecture du phénomène en tant que chercheur ? Où places-tu le curseur ?

Sur ChatGPT comme sur plein d’autres sujets de société, on retrouve une polarisation très forte des opinions et émotions en fonction des communautés d’appartenance des individus. C’est d’ailleurs une conséquence directe de notre exposition sur plus d’une décennie à des algorithmes – ici en l’occurrence, ceux des réseaux sociaux. Et ce qui est terrible, c’est que cette opposition peut nous donner cette impression que les deux points de vue sont irréconciliables et nous empêchent de faire société. Sauf que faire société consiste justement à vivre ensemble malgré nos différences et contradictions.

À partir de là, il y a deux issues possibles : la violence ou l’indifférence. Cela peut donner lieu à des émeutes sanglantes, comme cela s’est produit au Brésil en début d’année. Une autre conséquence, c’est la banalisation actuelle de ces bulles de filtre, qui nous amènent à considérer l’information comme un outil au service de la confirmation de ses propres biais – et qui nous permet de balayer d’un revers de la main les opinions d’autrui.

Quant à moi, j’ai la même lecture de ChatGPT que celle du sujet de l’IA au global. Pour commencer, je me méfie des enthousiastes. Ces derniers pourraient privilégier leur propre intérêt et/ou négliger tous les enjeux éthiques et humains autour du sujet. Beaucoup d’entreprises se ruent sur ChatGPT par opportunisme, sans prendre le temps de réfléchir aux problèmes que cette technologie pose à la société – mais aussi potentiellement à elles-mêmes – dans un futur proche. Je dis souvent qu’il faut laisser la croyance aux religions spirituelles. Il est dangereux de croire en la science et la technique. Car ce qui compte, c’est l’esprit critique.

Reste qu’une partie du camp adverse passe lui aussi à côté du vrai sujet. Certaines peurs autour de l’IA me semblent excessives. Penser à la singularité et à l’émergence d’une superintelligence qui nous surpasserait à long terme, c’est une chose. Mais se concentrer sur les vrais problèmes à court terme en est une autre. D’autant plus que ce n’est pas ce qui manque.

Pour commencer, je trouve qu’on sous-estime beaucoup trop le fait que la finalité de ChatGPT est d’arriver à la probabilité statistique la plus proche, mais en aucun cas à une information juste. Il y a donc une garantie de vraisemblance, mais pas de véracité. Son fonctionnement repose sur l’objectif de s’approcher statistiquement le plus possible d’une réponse plausible à une question donnée. Autant dire que cela laisse une certaine place aux approximations, à l’imitation, à de l’invention pure et simple, mais aussi à des erreurs factuelles qui ne seront jamais présentées comme telles.

D’ailleurs, ChatGPT s’inscrit pleinement dans le prolongement des bulles de filtres évoquées plus tôt. Pour le coup, on est plus que jamais dans cette fameuse ère de la post-vérité. Et si on ramène ça au travail, ça nous ramène à une vraie question de société : préfère-t-on des garanties ou de la plausibilité ? Pour un étudiant qui veut utiliser ChatGPT pour sa dissertation, le calcul coût/résultat est extraordinaire. Cela lui permettrait d’obtenir la moyenne voire une note très correcte avec un taux d’effort extrêmement faible. Donc si le mérite et l’éthique ne sont pas dans ses priorités, rien ne l’empêche de basculer vers ChatGPT – bien au contraire.

Il y a selon moi un deuxième problème de taille. Cela concerne la détection des contenus prohibés par les IA : incitations à la haine, appels à la violence sur certaines personnes, etc. Sauf que les robots de ChatGPT ne vont pas s’entraîner tout seuls à reconnaître ces contenus illicites. Billy Perrigo, journaliste chez TIME, vient justement de révéler en début d’année qu’OpenAI fait appel à des travailleurs au Kenya payés moins de 2 dollars par heure pour cette tâche spécifique.

Au-delà de la très faible rémunération, ce sont des métiers psychologiquement éprouvants, encore moins valorisants ou valorisés, et qui sont également invisibles et délocalisés. Cela doit nous inviter à garder à l’esprit que derrière une machine se cache toujours un humain. Les modèles statistiques, quant à eux, doivent toujours disposer de nouvelles données qui doivent être collectées, affinées et entraînées en permanence.

Forcément, ça m’évoque les nombreuses enquêtes sur l’enfer vécu par les personnes derrière la modération des réseaux sociaux – qui n’est pas seulement algorithmique mais humaine aussi.

Effectivement, c’est un autre exemple de violence associée au développement d’une technologie donnée qui a été invisibilisée. Et pour Facebook comme pour ChatGPT, c’est un problème auquel on réfléchit seulement après – et non avant de mettre une technologie entre toutes les mains. Je compare souvent cette réalité à un contrat qu’on va signer avant d’avoir lu toutes les petites lignes associées.

Et à ce sujet, il y a un autre problème colossal : l’explosion de l’impact écologique de l’IA. Pour rappel, le bilan carbone du numérique a dépassé celui du trafic aérien il y a deux ans. On dit souvent que si toute l’industrie numérique était un pays, ce serait le troisième plus gros pollueur du monde derrière la Chine et les Etats Unis. Et sur ce point, l’IA est un désastre écologique annoncé.

Au premier abord, on a du mal à faire le lien entre son apparente dématérialisation et son empreinte carbone exponentielle. Sauf qu’entre les capteurs, les serveurs, les datacenters et j’en passe, c’est une industrie très matérielle. Bien sûr, plus les modèles statistiques sont gros, plus ils sont gourmands en termes de capacité d’hébergement et de stockage des données. Et à force d’entendre que GPT-4 va surpasser de très loin la version actuelle GPT-3, on peut se le dire : oui, il y a vraiment de quoi s’inquiéter.

On est donc toujours en attente d’une maturité civilisationnelle à développer vis-à-vis des nouvelles technologiques. Cela nous éviterait d’être condamnés à découvrir les problèmes après qu’ils aient eu lieu. Mon travail de sociologue du travail est justement de lire entre les petites lignes invisibles situées dans les contrats que nous signons avec l’IA – et souvent d’alerter à leur sujet.

Ça me semble une conclusion particulièrement évocatrice pour clore cette interview. Un grand merci à toi Yann pour cette conversation si riche ! Je te souhaite une bonne continuation dans tes recherches, ainsi qu’avec LaborIA — dont j’ai hâte découvrir les premiers résultats.

Interviewer : Benjamin Perrin pour Matrice

LaborIA Explorer – Rapport d’enquête : usages et impacts de l’IA sur le travail au prisme des décideurs

La méthodologie d’enquête

Cette première étude s’inscrit dans le cadre des travaux de recherche scientifique du LaborIA Explorer, conduits par Matrice. L’enquête par questionnaire a été menée au cours de l’année 2022 auprès de 250 décideurs (direction générale, direction des ressources humaines, direction des systèmes d’information, direction de l’innovation) travaillant au sein d’entreprises et d’organisations publiques, de divers secteurs.

Figure 1 – Secteur d’activité : 15% exercent dans le secteur de l’industrie, 15% dans l’administration publique, 14% dans les services financiers, 13% dans le commerce (gros et détail), 9% dans le secteur du BTP, de la construction et des transports. 34% des répondants exercent dans d’autres services.
Figure 2 – Type d’entreprise : 82% des répondants exercent dans une Petite ou moyenne entreprise (PME), 16% dans une Entreprise de taille intermédiaire (ETI) et 2% dans une Grande entreprise (GE).

Figure 3 – Poste occupé par les répondants : 39,2% des répondants travaillent dans un service de ressources humaines, 25,2% dans un service informatique, 22% dans un service financier. Les autres répondants travaillent dans des services de production/gestion des process, marketing/communication, innovation ou autres.

Figure 4 – Utilisateurs : Parmi les répondants, 22% sont utilisateurs de système d’intelligence artificielle (SIA) et le reste (78%) pas utilisateur de SIA.

Les premiers résultats

L’enquête met en évidence les systèmes d’IA (SIA) les plus utilisés, les motifs qui ont présidé à leur mise en œuvre, les freins et obstacles que les projets ont dû lever et les impacts ressentis ou projetés des SIA sur les différentes dimensions du travail.

L’étude soulève deux principaux phénomènes convergents :

  • En matière d’impact sur le travail, les représentations sociales diffèrent selon le degré de familiarité avec l’intelligence artificielle : tandis que ses utilisateurs évoquent largement des impacts positifs, notamment en matière d’autonomie et de savoir-faire, ceux qui n’ont pas expérimenté l’IA redoutent des effets négatifs, notamment un certain délitement du lien social.
  • L’intensité de l’impact ressenti diminue à mesure que les projets d’IA gagnent en maturité. Ainsi, les conséquences pressenties sur le sens donné au travail, l’évolution des savoir-faire et l’autonomie sont très fortes lors des phases préliminaires du projet, puis tendent à baisser au cours des phases de déploiement et d’implémentation.

Figure 1 – Perception croisée des impacts de l’IA sur le travail, entre les utilisateurs et non-utilisateurs de système d’IA : Les utilisateurs représentent 42 répondants et les non-utilisateurs représentent 208 répondants.
Impact très positif : Perçu par 19% des utilisateurs et 1% des non-utilisateurs.
Impact plutôt positif : Perçu par 73% des utilisateurs et 45% des non-utilisateurs.
Aucun impact : Perçu par 8% des utilisateurs et 40% des non-utilisateurs.
Impact plutôt négatif : Perçu par 12% des non-utilisateurs.
Impact très négatif : Perçu par 2% des non-utilisateurs.
Figure 2 – Les impacts sur le travail, entre perceptions liées au vécu et projections hypothétiques : Les utilisateurs représentent ici 38 répondants et les non-utilisateurs, 208 répondants.
Sens donné au travail : Impact perçu par 47% des utilisateurs et 49% des non-utilisateurs.
Responsabilité des salariés : Impact perçu par 54% des utilisateurs et 47% des non-utilisateurs.
Relations interpersonnelles : Impact perçu par 29% des utilisateurs et 43% des non-utilisateurs.
Évolution des savoir-faire : Impact perçu par 68% des utilisateurs et 63% des non-utilisateurs.
Autonomie : Impact perçu par 72% des utilisateurs et 56% des non-utilisateurs.
Autres impacts : Perçus par 25% des utilisateurs et 21% des non-utilisateurs.
Figure 3 – Les impacts ressentis en fonction du niveau d’avancement du projet :
Les impacts ressentis sur l’autonomie, l’évolution des savoir-faire et le sens donné au travail sont élevés mais baissent entre la phase d’expérimentation et le déploiement du projet.
L’impact ressenti sur la responsabilité des salariés est moyen et augmente légèrement après le déploiement.
L’impact ressenti sur les relations interpersonnelles est assez bas en phase d’expérimentation mais augmente lors du déploiement.

Sur la base de ces résultats, on peut déduire que les représentations sociales liées à l’IA peuvent être des freins puissants à son usage dans les organisations. Pour pallier ce phénomène, les acteurs économiques et politiques peuvent s’appuyer sur l’expérimentation concrète des systèmes d’intelligence artificielle dans le contexte professionnel. La sensibilisation, la médiation, la vulgarisation et la formation sont aussi des leviers à activer pour favoriser le déploiement serein de l’IA au travail.

Les résultats des investigations terrain et de l’étude longitudinale en cours viendront compléter et confronter les constats de cette première enquête.

État de l’art : Contexte mondial et français pour le développement de l’intelligence artificielle au travail

Comment sont appréhendés les effets de l’intelligence artificielle sur le travail et l’emploi, à travers le monde ? Quelle est la nature de ces effets ? Quel est l’état de la connaissance actuelle sur le sujet ?

Pour servir de support aux réflexions du LaborIA, Matrice a rédigé un état de l’art précisant les champs d’intervention et dressant un panorama des différents travaux et initiatives déjà menés, en France et dans le monde, sur les impacts de l’intelligence artificielle sur le travail.

Ce document propose une vision globale et synthétique, servant de socle de connaissances commun à l’ensemble des acteurs impliqués dans les travaux du LaborIA. L’objectif du document est de mieux comprendre le sujet et ses différentes composantes, de préciser le contexte, de retracer l’historique et de soulever les interrogations structurantes.

Le rapport d’état de l’art fourni des éléments d’explication des notions d’intelligence (humaine et artificielle), de travail et d’emploi. Il propose une analyse du contexte socio-culturel de l’intégration de l’intelligence artificielle au travail, puis, retrace la vision et les initiatives internationales et françaises récentes (groupes de travail, cas d’usage, guides et propositions d’accompagnement, etc.) Il s’intéresse aussi aux différents moyens de promouvoir une IA inclusive et de confiance en Europe, et plus spécifiquement en France. Enfin, il présente les enjeux d’inclusivité et réunit des outils, méthodes ou réflexions qui pourraient servir de support à l’ensemble des parties prenantes pour concrétiser le déploiement d’une intelligence artificielle responsable, inclusive et soutenable pour l’avenir du travail.