Le Hub France IA est une association qui vise à fédérer les acteurs de l’écosystème pour promouvoir et développer l’intelligence artificielle au niveau national et européen.. Rassemblant plus de 150 membres et partenaires, le Hub France IA soutient le développement économique de l’écosystème IA, participe à l’émergence de nouveaux projets structurants et s’engage dans un modèle centré sur l’éthique.
Le groupe de travail “ChatGPT” du Hub France IA a étudié pendant plusieurs semaines le fonctionnement de l’IA générative d’Open AI ainsi que ses usages et ses limites, puis, tenté de définir les premiers impacts tangibles.
Ce travail d’envergure s’accompagne de recommandations qui sont le résultat d’une co-construction avec de nombreux partenaires de son écosystème : startups (Aleia, ClicNWork, Datavaloris, DecisionBrain, Neovision…), grands groupes (Atos, BNP Paribas, EDF, SNCF, etc.), établissements d’enseignement supérieur (ESSEC BS, Université Sorbonne, etc.), administrations publiques (DGAC, DGE, etc.), médias (FranceTV, France 2), ainsi que le LaborIA.
La note de synthèse aborde :
- Le fonctionnement et les limites de ChatGPT et plus largement des modèles de langage et de l’agent conversationnel ;
- Les usages de ChatGPT par domaine (relation client et marketing, développement informatique, cybersécurité, banque et assurance, bâtiment et travaux publics, recherche, enseignement, éthique, journalisme, ressources humaines, droit, santé…) ;
- Les impacts de ChatGPT pour les entreprises, l’emploi, l’environnement, l’éthique et l’enseignement ;
- Les recommandations à destination des entreprises, des institutions et de la société civile pour adopter un usage raisonné de ces nouvelles technologies.
Le Hub France IA conseille aux organisations (et à la société en générale) de se préparer dès maintenant au déferlement des applications de l’IA générative pour en tirer un maximum de bénéfices et pallier aux risques décrits dans le rapport. Parmi les recommandations, on retrouve la formation massive des salariés, la diffusion d’une charte de bonnes pratiques ou encore la protection des données confidentielles et le développement de solutions souveraines.
Dans la lignée des travaux du LaborIA, le rapport précise que « Les entreprises peuvent notamment, afin de minimiser les risques liés à l’utilisation de ChatGPT, publier une charte d’usage avec des règles d’utilisation claires, former les collaborateurs sur les limites et la précision de l’outil et mettre en place des outils de détection et de supervision pour prévenir les failles de cybersécurité, corriger les erreurs, les biais ou les incohérences. »