interviews

Les progrès inattendus de l’IA au travail : d’une utilisation « clandestine » à une utilisation éthique

le 18 février 2025
Interview Yann Ferguson - les progrès inattendus de l'IA
Yann Ferguson

Docteur en sociologie, Yann Ferguson est directeur scientifique du LaborIA, à INRIA et chercheur associé au CERTOP (Université Jean Jaurès).

L’intelligence artificielle. C’était l’un des sujets phare de la troisième édition de l’événement HR Technologies France, qui s’est déroulé les 29 et 30 janvier derniers. Deux jours intenses durant lesquels de nombreux experts RH de renoms se sont succédés sur scène lors de conférences aussi riches que surprenantes. Parmi eux, Yann Ferguson, directeur scientifique du LaborIA, à INRIA, s’est exprimé sur les progrès les plus inattendus de l’IA au travail. Entre « Shadow AI », désingularisation et utilisation éthique de l’IA, il revient, le temps d’une interview, sur l’évolution de l’intelligence artificielle et son adoption au sein des entreprises. 

De quelle manière l’IA a-t-elle progressé sur le marché du travail ces dernières années ? 

Depuis plus de 70 ans que l’IA existe, elle a connu des moments forts et des moments faibles, qu’on appelle communément « printemps » et « hivers ». Les années 2010 marquent le retour d’un nouveau printemps de l’IA. À cette époque, les spécialistes s’accordaient à penser que plus un métier comprenait de tâches répétitives, plus il serait susceptible d’être transformé par l’IA, voire qu’on assisterait à une réduction du nombre d’emplois dans ces secteurs. Les premiers grands travaux ont donc porté sur la suppression de ces tâches répétitives et l’enjeu de requalification des collaborateurs vers des métiers qui seraient moins impactés par l’IA, à savoir les métiers avec une prévalence de tâches plus créatives, au sens large du terme, telles que la résolution de problèmes, la flexibilité et tout ce qui touche à l’humain.  

Or, on s’est rapidement aperçu que les outils d’intelligence artificielle progressaient davantage sur les tâches cognitives, non répétitives et à forte valeur ajoutée. Ces tâches ou nomenclatures de compétences, telles que définie par l’OCDE, sont : l’ordonnancement de l’information, c’est-à-dire la capacité à organiser l’information selon des règles ; la vitesse de perception, donc la vitesse avec laquelle on arrive à distinguer des similitudes et des différences dans des données ; la vitesse de structuration, c’est-à-dire la vitesse avec laquelle on identifie des unités de sens dans des grands ensembles de données ; ou encore la flexibilité de structuration, qui représente la capacité à trouver du sens dans des données parfois peu homogènes. 

Toujours selon l’OCDE, en 2023, les trois métiers les plus impactés par l’IA sont ceux de directeur général, ingénieur et manager. Dix ans plus tard, on est donc à l’exact opposé des métiers qu’on imaginait être les plus exposés en 2013, à savoir les métiers répétitifs. Ce qui est, à mon sens, l’axe de progrès de l’IA le plus inattendu. 

Et comment l’intelligence artificielle a-t-elle progressé au sein des entreprises, plus spécifiquement ? 

Avant novembre 2022, donc avant l’arrivée des outils d’IA générative, l’intelligence artificielle progressait très lentement par le biais de cas d’usage. Ces projets d’innovation autour de l’usage de l’IA dans un métier avaient beau être prometteurs, la plupart des organisations avaient du mal à passer de l’expérimentation à la mise en production. Aujourd’hui encore, 80 % des cas d’usage à l’initiative des employeurs ne passent pas la période d’essai.   

En revanche, on observe de plus en plus d’initiatives prises par les salariés. L’ouverture au grand public de l’IA générative, et notamment des outils tels que ChatGPT, à susciter l’intérêt chez les collaborateurs qui ont commencé à tester puis à intégrer ces outils dans leurs pratiques professionnelles. Aujourd’hui, l’écrasante majorité des cas d’usage de l’IA au travail, est initiée par les employés qui utilisent des systèmes de façon « clandestine ». Ce qui pose un problème, évidemment, en matière de fiabilité des données, de cybersécurité et de privacy. 

Justement, quels sont les risques du « Shadow IA » ? 

Je distingue quatre risques majeurs. Le premier, comme mentionné précédemment, concerne la confidentialité et la sécurité des données. Lorsqu’un collaborateur utilise une solution qui n’a pas été mise en place par l’employeur, ce dernier n’a aucun contrôle sur les données transmises à l’IA. Aucune règle de confidentialité ou de respect des données sensibles ne s’applique. Des études ont prouvé qu’environ 10 % des utilisateurs d’IA génératives en mode « shadow » mobilisent des données personnelles et sensibles, et que 40 % d’entre eux partagent, sans le savoir, des données clients confidentielles (de type facturation, etc). 

Le deuxième risque, c’est de mal utiliser l’IA. Certaines personnes, par exemple, l’utilisent pour rechercher des informations. Or, l’IA générative n’est pas un moteur de recherche, mais un système qui génère des productions écrites en se basant sur des règles de probabilité statistique, afin de générer le contenu le plus cohérent selon la demande. Elle relève de la vraisemblance, plus que de la vérité. D’autres personnes vont également avoir tendance à se contenter d’une réponse rapide de l’IA, sans s’assurer de sa véracité ni de sa qualité. C’est ce qu’on appelle l’effet de contentement. 

Le troisième risque du « shadow IA », c’est la fracture générationnelle et collective qu’il peut entraîner lorsque des utilisateurs d’IA générative – souvent les moins de 25 ans – et des non-utilisateurs – plus de 35 ans – collaborent au sein d’une même entreprise. Cela signifie que le collectif n’a plus le même rapport au temps ou à la vérité. Aujourd’hui, on remarque au sein des entreprises des jeunes qui travaillent de plus en plus vite, mais qui n’ont pas l’expertise pour s’assurer de la qualité du travail produit, et des anciens qui avancent plus lentement, mais avec suffisamment d’expertise pour délivrer un travail de qualité. Le collectif est donc fracturé et ne communique plus, notamment parce que les jeunes utilisent beaucoup l’IA pour se rassurer. Au lieu de se tourner vers ceux qui détiennent le savoir, ils considèrent l’IA comme une sorte de robot omniscient, capable de leur dire s’ils ont raison ou non. Cela pose un problème majeur : non seulement le collectif n’évolue pas à la même vitesse et n’a pas le même rapport à la connaissance, mais il cesse aussi d’interagir, entraînant une perte de connaissance collective.

Enfin, le dernier risque, selon moi, concerne certains collaborateurs qui réalisent un excellent travail grâce à l’IA générative. Le problème, c’est que les bonnes pratiques et la performance restent alors à l’échelle individuelle et ne profitent pas au collectif. Cela crée un chemin vers la performance des organisations qui n’est pas partagé, qui devient discontinu, et n’est donc pas pérenne.

Et comment les entreprises peuvent-elles s’en préserver ? 

La première chose, selon moi, c’est de comprendre pourquoi les salariés le cachent. Plusieurs raisons l’expliquent. Premièrement, la peur de ce que les autres vont penser. Certains craignent d’être perçus comme incompétent, tricheur, ou encore feignant. 

Toutefois, il y a deux autres sujets à prendre en compte, selon moi, pour sortir du « shadow IA » : celui de la productivité, et celui de la reconnaissance. Concernant la productivité, utilisé en mode shadow, le gain de temps apporté par l’IA est majoritairement individuel. Or, si l’entreprise instaure une politique d’utilisation de l’intelligence artificielle, elles vont pouvoir en bénéficier également, soit en intensifiant le travail du salarié, soit en réduisant la charge salariale. Dans tous les cas, elle est gagnante. 

Enfin, se pose le défi de la reconnaissance. Cette dernière, au cœur du bien-être des collaborateurs, doit impérativement être réévaluée, afin que les salariés ne craignent plus le regard de leur manager sur leur travail s’ils ont utilisé l’IA pour le réaliser. Cela implique de rediscuter, collectivement, des valeurs du travail au temps de l’IA et de commencer à valoriser les initiatives et à cartographier les meilleurs cas d’usage de l’IA, afin que le collectif puisse en profiter. L’idée, c’est de sortir du colloque singulier entre le travailleur et l’IA et de mettre en place des arènes collectives, que nous, en sociologie, appelons « conflits de qualité ». Un conflit de qualité est un débat sur la qualité du travail, essentiel pour s’assurer à la fois de la qualité du travail, mais aussi du bien-être au travail. La qualité du travail est un élément fondateur de la qualité de vie au travail. 

Quels sont les principaux défis de l’IA, notamment en termes de perte de compétences, voire de « désingularisation » des employés ? 

L’une des principales préoccupations des travailleurs n’est pas tant le remplacement ou la déshumanisation, mais plutôt la désingularisation. L’IA ayant rendu le travail tellement plus facile, qu’est-ce qui nous rend alors uniques par rapport aux autres ? Les salariés se sentent complètement interchangeables. 

Or, il est essentiel de rappeler que, notamment avec l’IA générative, les meilleurs utilisateurs sont souvent les meilleurs professionnels. Ceux qui possèdent une expertise métier sont les plus aptes à interagir efficacement avec l’IA, à évaluer ses résultats et à les resituer dans un contexte spécifique. Il est donc fondamental de replacer le métier au centre de la réflexion et de repenser les compétences et les fiches de poste. Contrairement aux automates traditionnels, l’IA générative ne fonctionne pas seule : la qualité de son travail dépend directement de la qualité de l’interaction avec l’utilisateur. À l’image d’une équipe performante où les membres développent des synergies et anticipent les actions des autres, un bon usage de l’IA repose sur des compétences d’interaction, d’évaluation et d’esprit critique. Il faut savoir quand suivre ses recommandations, quand les remettre en question et quand ne pas les utiliser.

La fonction RH doit rester vigilante sur ces compétences émergentes afin de faire la distinction entre les collaborateurs qui savent utiliser l’IA et ceux qui ne savent pas.  Tout le monde n’aura pas le même niveau d’interaction avec la machine. Il faudra donc identifier, mesurer et graduer ces nouvelles aptitudes – de l’utilisateur junior à l’expert – pour les intégrer dans les parcours professionnels et les trajectoires d’évolution.

Concrètement, comment utiliser l’IA au sein des entreprises de manière responsable et éthique ? 

Il y a deux dimensions essentielles à considérer pour une utilisation responsable et éthique de l’IA en entreprise.

La première concerne l’éthique de l’IA au travail, c’est-à-dire la garantie que les outils mis entre les mains des travailleurs sont dignes de confiance. Ce concept d’IA digne de confiance a été défini dans un rapport publié en 2018 à la demande de la Commission européenne. Il repose sur plusieurs critères définis par plusieurs experts : explicabilité, respect des droits fondamentaux, robustesse, cybersécurité, protection des données, responsabilité, etc. Ces exigences varient selon la criticité de l’usage : une IA rédigeant des posts sur les réseaux sociaux n’a pas le même niveau de fiabilité attendu qu’une IA influençant des décisions impactant directement les individus (décision de justice, sécurité aérienne, etc.). 

La seconde dimension, qui est peut-être encore plus importante, est l’éthique du travail avec l’IA. Il s’agit de comprendre dans quelle mesure ces outils permettent aux travailleurs d’exercer leur responsabilité. Cette responsabilité est étroitement liée à ce qu’on appelle le pouvoir d’agir : plus une personne a de contrôle sur son travail, plus elle s’y investit. Or, l’IA influence la prise de décision sans toujours fournir d’explication claire sur ses recommandations. L’absence de transparence crée un risque : soit l’humain suit aveuglément l’IA pour minimiser son propre risque d’erreur, soit il la rejette par défiance.

Enfin, au-delà des considérations technologiques, il est crucial que l’organisation elle-même s’adapte. L’IA modifie profondément le rapport au travail, car l’erreur n’est plus seulement humaine, elle est aussi machine. Autrefois, une machine tombait en panne, mais elle ne commettait pas d’erreurs de raisonnement. Aujourd’hui, les IA peuvent générer des erreurs cognitives, issues d’une logique statistique qui diffère de celle de l’humain. Cela implique de repenser les processus internes : une entreprise doit être suffisamment agile et apprenante pour accompagner ces nouvelles interactions humain-machine. Sinon, deux risques majeurs apparaissent : d’un côté, les travailleurs rejetteront l’IA par crainte de l’erreur ; de l’autre, ils suivront aveuglément ses recommandations pour éviter d’être tenus pour responsables en cas de problème.

Crédit photo : Callum Baker



Vous voulez réagir ? Laissez-votre commentaire en remplissant le formulaire ci-dessous

Sur les mêmes sujets

RH ou IA : qui mène la danse ?
tribunes

RH ou IA : qui mène la danse ?

Loin d’être une solution universelle, l’IA doit être un levier d’optimisation, pas un substitut à l’expertise humaine des DRH.

10 ans du Lab RH : le meilleur du kick-off anniversaire
actualités RH

10 ans du Lab RH : le meilleur du kick-off anniversaire

Entre énergie communicative, réflexions audacieuses et regards croisés sur l’avenir, l’après-midi a tenu toutes ses promesses !

L’IA redonne du temps aux recruteurs. Et du respect aux candidats.
tribunes

L’IA redonne du temps aux recruteurs. Et du respect aux candidats.

L’intelligence artificielle n’est plus une promesse futuriste pour les ressources humaines.

L’actu RH vous intéresse

Recevez chaque vendredi La News© du Média 100% RH