1
Article 9 minutes de lecture

Entretien avec Yann Ferguson : dépasser la crainte des travailleur·euses face à l’intelligence artificielle

Auteurice de l’article :

Marie-Flore Pirmez

Véritable vorace de podcasts et de documentaires, Marie-Flore croit fermement en un renouveau du journalisme écrit grâce aux multiples opportunités du web et des magazines longs formats. Lorsqu'elle enlève sa casquette de journaliste, vous risquez de la croiser en train de randonner ou dans un studio de yoga.

en savoir plus

Automatisation, remplacement du travail, gain de productivité… Le boom des technologies d’intelligence artificielle (IA) annoncerait la fin du travail. Mais selon Yann Ferguson, docteur en sociologie et spécialiste de l’impact des IA sur le marché du travail, il faut nuancer.

D’où provient notre crainte face à l’IA ?

Yann Ferguson : Pour répondre à cette question, il faut remonter dans le temps jusqu’aux premières applications de l’IA. L’année 1956 est considérée comme point de départ de l’IA en tant que domaine de recherche distinct. Cette année-là, un événement majeur appelé la Conférence de Dartmouth réunit un groupe de chercheur·euses en informatique et en sciences cognitives et souhaite explorer la possibilité de créer une “machine intelligente”. Herbert Simon, Prix Nobel d’économie en 1978, dit déjà en 1958 que “les machines allaient rapidement pouvoir faire tout ce que l’humain·e peut faire”. Son Prix Nobel ne l’empêche pas de se tromper dans ses prévisions. Un certain optimisme scientifique et technologique nous amène alors à surestimer la puissance technologique face à l’intelligence réelle déployée au travail par les travailleur·euses. La vision organisationnelle et taylorienne du travail qui règne à cette époque fait qu’on considère le travail comme une simple suite d’instructions données à des humain·es. Pour répliquer le travail, il suffirait de rassembler ces instructions et de les implémenter dans un programme informatique. Il s’agit ici d’une double erreur épistémologique : la pensée humaine ne peut pas être décomposée aussi facilement, et le travail non plus.

Dans les années 1960, on imagine davantage de programmes informatiques et l’IA se développe, mais on manque encore de puissance de calcul, de logique. Le monde du travail reste peu étudié, tout comme l’intelligence réelle déployée par les travailleur·euses. Dans les années 1990, autre momentum de l’IA, on crée des systèmes experts. L’idée est moins de créer des machines qui seraient l’équivalent de l’intelligence humaine, mais plutôt de remplacer certaines tâches ou de compléter l’apport humain. Dans une vision cependant toujours très verticale. Un·e expert·e métier livre tous ses secrets et les raisonnements qu’iel mobilise dans sa profession à un·e ingénieur·e du savoir qui les convertit ensuite en langage informatique. L’ingénieur·e programme la machine face à des situations préfigurées par l’expert·e. Ce boom des nineties bute cette fois non pas contre l’insuffisance de calcul des ordinateurs qui a progressé, mais contre un autre paradoxe notamment édicté par Michael Polanyi. Ce polymathe et épistémologue hongrois établit que nous en savons bien plus que nous sommes capables d’exprimer. L’expert·e métier qu’on interroge sur sa profession est tellement peu conscient·e de sa propre connaissance qu’il lui est impossible d’exprimer assez d’informations pour espérer faire égaler son intelligence par une machine. Qui plus est, plus notre niveau d’expertise est grand, plus cette expertise se loge dans l’indicible de l’expérience au travail. Ce constat a fortement limité la pertinence des systèmes experts mis au point à l’époque. À nouveau, nous avons pris conscience des limites de notre capacité à comprendre l’expérience du travail, mais aussi du fait qu’on continuait de sous-estimer le savoir et le savoir-faire des expert·es.

Si aujourd’hui, on pense que ça y est, on est arrivé à créer des machines qui égalent le travail humain, c’est parce qu’on a changé d’approche sur l’IA. Les systèmes d’IA se servent de très grandes quantités de données et créent des règles sur base de ces tonnes de data. Lorsque les corrélations entre toutes ces données sont assez robustes, la machine utilise ces corrélations comme des règles afin de résoudre des problèmes. Certain·es considèrent aujourd’hui que l’IA va pouvoir créer son propre caractère, sa propre expérience, mais ce n’est pas le cas. Elle va toujours partir de l’expérience pour aller vers la théorie.

Ce qui fait peur à l’ensemble des travailleur·euses, c’est le mot “intelligence”. On considère l’IA comme une rivale. Si on remonte aux débuts de l’intelligence de la machine, avant même de la nommer “IA”, le test de Turing en 1950 consistait déjà à dire que si la machine est capable de se faire passer pour un·e humain·e, on doit alors la considérer comme intelligente. D’entrée de jeu, le mathématicien Alan Turing a posé le sujet brûlant sur la table : en bref, si une machine apparaît comme intelligente, elle équivaut alors à l’intelligence humaine. Cette forme d’intelligence non vivante, active plutôt dans les domaines mathématiques, a des capacités et une puissance bien plus fortes que nous, sans aucun doute. On craint la découverte d’une intelligence supérieure à nous qui, si l’on en croit la science-fiction, pourrait développer un libre arbitre et se mettre à décider à notre place. C’est une peur métaphysique. Depuis les débuts de l’informatique, on regarde la machine comme un reflet de nous-même. Étonnant, car c’est l’humain·e qui crée ces machines.

Ce qui vient également nourrir la crainte face à l’arrivée massive de l’IA au travail, c’est que ces énormes systèmes de données et la façon dont l’IA arrive à un résultat restent opaques. Sans pouvoir comprendre le mode de raisonnement de ces machines, la tension entre puissance et opacité reste angoissante pour lae travailleur·euse. En entreprise, l’injonction à utiliser ces machines intelligentes peut être paradoxale : il faut être en capacité d’utiliser l’IA, tout en restant responsable de son résultat.

Beaucoup de travailleur·euses considèrent l’utilisation de l’IA comme un gain de temps. Est-ce qu’on court forcément à notre perte en considérant ces nouvelles technologies pour le gain de productivité qu’elles représentent potentiellement ?

Y. F. : Historiquement, on a toujours considéré la machine comme un gain de productivité dans le monde du travail. Dans la vision marxiste du travail, on a opposé la machine à l’être humain. On postulait qu’en remplaçant les travailleur·euses par des machines, les gains de productivité seraient faramineux. Dans une vision plus humaniste cependant, on considère que la machine peut automatiser des tâches indignes de l’humain·e afin qu’iel puisse se repositionner sur d’autres tâches. C’est aussi le discours qu’on retrouve aujourd’hui dans l’IA. Le momentum que connaît l’IA efface parfois les limites de ces technologies qui devraient pourtant nous pousser à réfléchir autrement. En effet, l’IA est empirique, mais ce n’est pas la même empirie que celle de l’humain·e. Nous généralisons des situations à partir de peu d’informations en compensant nos carences avec notre connaissance sensible du monde. Mais au contraire de la machine, l’humain·e est mauvais·e lorsqu’iel reçoit trop d’informations. La machine, quant à elle, n’est pas performante avec peu d’informations, mais avec beaucoup de data, elle devient très performante. La machine est déterministe, prévisible, mais peu flexible et ne possède aucune expérience sensible du monde qui l’entoure, au contraire d’un·e travailleur·euse qui est assez imprévisible mais extrêmement flexible. Un atout quasiment irremplaçable par la machine. Ce sont deux ressources empiriques très différentes. Deux empiries qu’on devrait valoriser en collaboration, et non pas en opposition. L’enjeu actuel est de savoir comment faire interagir ces deux empiries. Sans pouvoir théoriser quoi que ce soit, mes recherches dans le domaine permettent tout de même de proposer un faisceau d’indices sur la nature de la révolution machinique que l’on connaît. L’IA ne va pas impliquer un gain de productivité par l’automatisation de tâches, mais bien un gain de qualité à travers une meilleure interaction entre humain·es et machines. Par externalité positive, on connaîtra peut-être des gains de temps et de productivité, certes. Mais ça ne doit pas être l’objectif recherché à la base.

Avez-vous des exemples innovants de corps de métiers ayant intégré des IA dans leur quotidien de travail ?

Y. F. : J’ai étudié le cas du métier de recruteur·euse et de l’intégration d’un système d’aide au recrutement basé sur une IA dans une grande organisation de recherche scientifique publique. Iels ont investi dans ce programme en le rendant obligatoire aux directeurices des ressources humaines. C’est un outil qui fait passer trois tests aux candidat·es : un test psychométrique, un test de personnalité, ainsi qu’un troisième test de motivation et de raisonnement. L’IA analyse les données de chaque test et l’interaction entre ces données, et les rapporte à des postes qui correspondent aux candidat·es. Lae promoteurice de cette solution recommande à ses client·es d’utiliser des effets de seuil : à partir de 80% de match, il faut absolument faire passer un deuxième entretien d’embauche au/à la candidat·e, entre 80% et 50%, il faut en discuter, en dessous de 50%, cela ne sert à rien. Cette organisation a décidé de rendre l’outil obligatoire mais ne croit pas aux effets de seuil et a donc demandé aux recruteurices d’utiliser ce système comme iels le souhaitaient. Dans sa séquence de recrutement, lae recruteureuse conserve donc son libre arbitre et peut d’abord faire passer les tests avant de faire passer un entretien, ou bien le faire dans l’autre sens. Sans être obligé·e de regarder les résultats avant l’entretien.

Où en sommes-nous en termes d’acceptabilité de l’IA au travail ?

Y. F. : Une des grandes questions qu’on se pose avec l’application de l’IA en entreprise, sans prendre compte uniquement l’IA générative, c’est pourquoi le taux de déploiement de ses applications est encore si faible. Les grandes entreprises ont fait des expérimentations, mais plus de 90% des systèmes d’IA qui pourraient devenir de nouvelles normes si on les produisait ne sont pas encore déployés. Les motifs sont simples : les systèmes d’IA ne sont pas considérés comme fonctionnels, même si la plupart du temps, ils obtiennent de bons Indicateurs clé de performance (ndlr, les KPIs). Par conséquent, on peut se demander pourquoi ces expériences ne sont pas plus déployées dans les entreprises. Je considère que la performance technologique d’un système est une condition nécessaire à son déploiement au travail, mais n’est pas suffisante. J’ai ainsi identifié trois raisons qui ne sont pas assez considérées pour déployer l’IA.

Tout d’abord, l’acceptabilité organisationnelle. À savoir, dans quelle mesure l’outil s’intègre-t-il dans l’organisation. Imaginons une IA qui assisterait un·e généraliste dans l’identification d’une maladie de peau. Lae généraliste reconnaît l’efficacité du système comme excellente, mais l’IA engendre une augmentation du temps de consultation à 30 minutes au lieu d’une quinzaine en temps normal. L’IA pose ici un problème d’acceptabilité organisationnelle et ne trouve pas sa place dans l’organisation telle quelle.

Ensuite, l’acceptabilité sociale. Dans quelle mesure le système, bien que performant, sera refusé ou partiellement refusé car il butte sur des valeurs de fond, constitutives du métier, et fragilisées par l’IA. Prenons l’exemple d’un outil qui permet de corriger des copies de devoirs d’élèves. Sur papier, cette IA peut sembler plaire aux enseignant·es à qui les corrections pourrissent les week-ends. Mais les professeur·es ne l’entendent pas forcément de cette oreille. Car il est de leur responsabilité d’aider les élèves à progresser, même si cela implique de corriger des centaines de devoirs. Les enseignant·es ne sont peut-être pas prêt·es à déléguer cette tâche, il s’agirait de trahir l’essence même de leur métier. C’est ce que Bourdieu appelle la charge virile de l’emploi. Il y a un certain prestige à souffrir au travail, à être capable de supporter de longues journées ou des tâches redondantes. Si n’importe qui peut faire ce travail, le coût d’entrée dans une profession diminue, et l’individu ne peut pas capitaliser autant par son travail. Son travail perd alors de la valeur.

Enfin, l’acceptabilité pratique. Dans quelle mesure le système d’IA peut transformer, supprimer et/ou créer des pratiques. Pourquoi la question des pratiques est-elle importante ? Les pratiques sont les espaces de liberté du travail et engagent les travailleur·euses dans leur fonction. C’est ce qui crée leur singularité. Si une IA transforme, supprime ou crée une nouvelle pratique, on bouleverse le monde du travail et la hiérarchie du/de la travailleur·euse dans ce monde. Même si ces nouvelles pratiques ne sont pas inintéressantes, voire réduisent la pénibilité au travail, on voit dans la machine ce qui nous désingularise et dégrade notre identité professionnelle.

Quels sont les emplois qui, selon vous, sont les moins susceptibles d’être impactés par l’IA ?

Y. F. : Actuellement, l’IA a le plus progressé dans des tâches cognitives de haut niveau non répétitives. Tout le contraire de ce qu’on prédisait sur l’avenir de l’IA quant à l’automatisation classique. C’est finalement sur la cognition qu’elle a progressé. Tous les métiers qui engagent le corps, et non la tête ou l’esprit, sont donc bien moins exposés à l’IA. On est encore à des années lumières de pouvoir comparer ces robots humanoïdes aux tâches opérées par un corps humain. Si on veut automatiser de manière globale un métier manuel, comme la conduite par exemple, il faudra d’abord repenser l’ensemble des structures routières. Sur des tâches cognitives et abstraites par contre, les contraintes du monde matériel étant faibles, l’IA a bien progressé.

Qu’est-ce qu’il faut dire aux travailleur·euses qui restent résistant·es face à l’IA ? Faut-il encourager les formations à l’IA au travail ?

D’abord, il faut penser à toustes les travailleur·euses, sortir de la dichotomie entre exécutant·es, travailleur·euses, employé·es et de l’autre côté, dirigeant·es paternalistes qui assènent d’accompagner les collaborateurs dans le changement alors qu’iels n’y connaissent pas plus que leurs travailleur·euses. Pourquoi ? À terme, l’utilisation de l’IA sur base de données nécessite non seulement plus d’accompagnement mais aussi une réflexion en termes de culture d’entreprise. Ces machines empiriques et apprenantes sont puissantes et progresseront. Si l’on conserve des organisations procédurières en implémentant simplement un brin d’IA dans leurs processus, sans enlever la couche de rationalisation, on se dirige droit dans le mur. Il ne faut pas juste penser en termes économiques et productivistes, mais aussi à l’échelle du/de la travailleur·euse. Est-ce que les organisations et les entreprises sont prêt·es à faire face à l’erreur, à adopter l’éthos de l’IA à base de données ? L’humain et la machine font toustes deux des erreurs. Mais dans la culture de travail, l’erreur est encore sanctionnée. Pourtant, si l’erreur est également machinique, il faut la considérer comme partie prenante à une phase d’apprentissage. Pour moi, un des outils fondamentaux reste le dialogue social. Il faut arrêter de développer l’IA en pensant que les travailleur·euses n’y connaissent rien de toute manière et qu’on peut donc l’implémenter à tout va dans l’entreprise sans leur expliquer la démarche derrière. Le monde du travail n’a pas besoin de plus de confrontation. Il faut que l’écosystème entier, des fournisseurs d’IA aux dirigeant·es, en passant par les partenaires sociaux·ales, jusqu’aux travailleur·euses, tout le monde doit s’entendre sur le sujet. En ce moment, personne n’est omniscient sur l’IA. Il y a une nécessité de créer davantage de collectifs dans une visée horizontale afin d’avancer dans la compréhension de ces systèmes intelligents.

Yann Ferguson est docteur en sociologie à l’Institut national de recherche en sciences et technologies du numérique (Inria), chercheur associé au Centre d’Étude et de Recherche Travail, Organisation, Pouvoir (CERTOP) de l’Université Jean Jaurès, et également directeur scientifique du LaborIA, un laboratoire de recherche dédié à l’IA créé par le Ministère du Travail, du Plein emploi et de l’Insertion et Inria en novembre 2021.

Appel à projet

Une histoire, des projets ou une idée à partager ?

Proposez votre contenu sur kingkong.

Partager cet article sur

à découvrir aussi