1
Article 5 minutes de lecture

L’IA est-elle un homme blanc cis-hétéro ?

Auteurice de l’article :

Marie-Flore Pirmez

Véritable vorace de podcasts et de documentaires, Marie-Flore croit fermement en un renouveau du journalisme écrit grâce aux multiples opportunités du web et des magazines longs formats. Lorsqu'elle enlève sa casquette de journaliste, vous risquez de la croiser en train de randonner ou dans un studio de yoga.

en savoir plus

Loin d’être neutre, l’intelligence artificielle (IA) n’échappe pas à l’hétéropatriarcat et aux systèmes de domination. Tandis que des études révèlent l’omniprésence de stéréotypes, des expert·es soulignent les effets pernicieux des biais de l’IA et donnent des pistes pour garder un esprit critique.

Le français est une langue bien genrée. Un chirurgien, une infirmière. Un ingénieur, une serveuse. Certains mots de la langue française, comme astronaute, gardent cependant la même orthographe, indépendamment de leur déterminant féminin ou masculin. La rédaction de cet article a d’ailleurs jailli d’une expérience de langage quelque peu troublante.

Pour un récent dossier paru sur kingkong, nous souhaitions générer des images d’astronautes aux allures d’artistes en pleine exploration de l’espace (pour comprendre la raison, on vous recommande la lecture dudit dossier). Seulement voilà. Avec les seuls prompts “astronautes artistes dans l’espace”, le constat est frappant : impossible d’obtenir des images qui s’écartent de l’astronaute masculin blanc, qui plus est portant une combinaison floquée du drapeau américain.

Même avec des prompts plus précis et diversifiés – “femmes et hommes astronautes artistes racisés dans l’espace” – nous ne parvenons qu’à des résultats peu convaincants. La seule IA générative qui se démarque est l’outil développé par Canva qui, après plus de cinq essais, nous propose une série de visuels montrant des artistes-astronautes féminines de diverses origines. Parce que nous lui avons explicitement demandé.

La veille de la dernière journée internationale des droits des femmes, l’UNESCO publiait une grande enquête intitulée “Préjugés contre les femmes et les filles dans les grands modèles de langage“. Une étude qui révèle ces large language models (LLM) ont une propension inquiétante à produire des stéréotypes de genre, des clichés raciaux et des contenus homophobes.

L’étude a notamment invité diverses technologies d’IA à écrire l’histoire d’un échantillon de personnes de différents genres, sexualités et milieux culturels. Résultat : les LLM ont tendance à attribuer aux hommes des fonctions plus variées et au statut élevé – ingénieur, enseignant ou médecin – mais relègue fréquemment les femmes à des rôles dévalorisés ou stigmatisés socialement – tels que cuisinière ou prostituée.

Pas étonnant donc, selon cette même étude, que les femmes soient fréquemment associées aux mots “maison”, “famille” et “enfants”, tandis que pour les hommes, les mots “entreprise”, “cadre”, “salaire” et “carrière” sont les plus récurrents. Audrey Azoulay, directrice générale de l’agence onusienne, exprime dans le communiqué de presse de l’étude que les IA génératives ont le pouvoir de “subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel”.

Ce n’est pas l’IA qui est sexiste mais l’humain qui la nourrit.

Aurélie Couvreur, directrice générale de MIC Belgique

La question provocante qui titre notre article ne vise pas à personnifier l’IA, mais plutôt à interroger les biais présents dans le développement et l’utilisation des IA. Comment les technologies d’IA génératives sont-elles influencées par les biais des personnes qui les conçoivent et les données sur lesquelles elles sont entraînées ? “Ce n’est pas l’IA qui est sexiste mais l’humain qui la nourrit, lance Aurélie Couvreur, directrice générale de MIC Belgique. Ce partenariat public-privé établi en 2009 entre Microsoft, Proximus et la Région Wallonne accompagne les entreprises désireuses d’innover grâce aux technologies avancées telles que l’IA ou la réalité immersive. “Il faut bien garder à l’esprit que les biais des IA proviennent surtout des personnes qui développent ces technologies. Le gros souci, c’est qu’on ne compte pas assez de femmes dans les secteurs de la tech.” Et l’IA n’échappe pas à cette sous-représentation.

En 2023, le secteur du numérique comptait seulement 18,7 % de femmes en Belgique, selon l’indice relatif à l’économie et à la société numériques (DESI) établi par la Commission européenne. Les statistiques concernant le secteur de l’IA sont encore plus inquiétantes. Selon l’UNESCO qui faisait l’état des lieux en mars dernier, l’IA est presque uniquement peuplée par des hommes : 80% d’employés, 88% de chercheurs, 94% des développeurs.

“Le danger des biais, c’est que nous intégrons de façon inconsciente qu’ils correspondent à notre réalité”, poursuit Aurélie Couvreur. C’est le cas pour les femmes qui sont sous-représentées dans les milieux de la tech, mais aussi pour certaines cultures ou classes sociales. Selon elle, une seule solution pour espérer neutraliser les biais de la machine : encourager les femmes et les jeunes filles à se lancer dans les secteurs de la tech, notamment de l’IA. “Je ne vois pas d’autres options, on ne pourra pas changer toute la littérature sur laquelle se nourrit l’IA et où les hommes sont surreprésentés.”

Within the box

Les biais – sexistes, racistes, classistes… – ne sont donc pas intrinsèques à l’IA. Au contraire des entrepreneur·euses qui sont encouragé·es à penser “outside the box“, les IA ne peuvent que raisonner “within the box“, pour reprendre l’expression anglaise. “Sans oublier que si l’IA se nourrit quasiment de l’ensemble des contenus anglophones disponibles, ce n’est pas encore le cas pour les autres langues”, ajoute Louis de Diesbach.

L’éthicien de la technique, également auteur du livre “Bonjour ChatGPT” paru aux éditions Mardaga en mars 2023, rappelle que, derrière les dialogues souvent informels que nous entretenons désormais avec l’IA, se cachent surtout des architectures de choix qui ne sont jamais neutres. Et selon lui, en matière d’innovation technologique, il est toujours essentiel de se poser ces trois questions : “Qui sait ? Qui décide ? Et qui décide qui décide ?”

Comme pour la recette du Coca-Cola, les utilisateurices ne peuvent pas réellement connaître quelles sont les données d’entraînement des IA qui restent régies par des entreprises privées. Quant à la troisième question : “Dans l’ensemble, c’est le marché néolibéral qui décide, répond Louis de Diesbach. Microsoft a également engagé beaucoup de capitaux dans le développement de l’IA. Mais la vraie question en matière de biais serait plutôt de savoir si ChatGPT, Midjourney ou n’importe quelle autre géant de l’IA générative serait prêt à changer de philosophie ?”

Si Google a eu l’intention de proposer un générateur d’images plus inclusif, fin 2023, son petit Gemini a fait face à un bad buzz mal placé. Des utilisateurices ont constaté qu’il générait des images historiquement inexactes et qu’il était incapable de créer des images de personnes blanches. Entre autres exemples, Vikings asiatiques, soldats nazis noirs… Ses détracteurices ont crié au parti pris anti-Blancs, tandis que le PDG de l’entreprise, Sundar Pichai, a enchaîné les excuses. Cet été, après avoir temporairement suspendu le service, Google a annoncé avoir réglé le “souci”.

Vers une IA plus inclusive ?

Côté solutions, outre l’empouvoirement des femmes dans les carrières liées aux technologies, il y a la législation. Comme le récent AI Act adopté par l’Union européenne cette année. Pauline Nissen, Ethical AI Lead chez ML6, connaît ce texte sur le bout des doigts. Si elle est en faveur de la régulation de l’IA, l’experte en éthique de l’IA reste mitigée quant à l’effet que ce texte européen peut avoir sur les biais : “Certes, les développeur·euses d’applications d’IA considérées comme à haut-risque selon la classification de l’AI Act devront penser aux biais de leurs modèles de langage, mais le texte reste très vague sur leurs obligations. Disons qu’il permettra de sensibiliser à cette question, mais je ne crois pas que la manière de développer l’IA va devenir plus inclusive grâce à ce texte.”

De son côté, l’UNESCO a inauguré, en avril 2023, un réseau rassemblant une vingtaine d’expertes pour une IA plus inclusive, baptisé Women4Ethical AI. Une plateforme collaborative visant à encourager les filles, les femmes et les groupes sous-représentés à participer à l’IA, mais aussi à favoriser le développement d’algorithmes non discriminatoires. Très concernée par cet enjeu, l’organisation onusienne incite également ses États membres à adopter sa Recommandation sur l’éthique de l’IA. En février 2024, huit entreprises technologiques mondiales, dont Microsoft, ont d’ailleurs endossé ce texte.

À l’avenir, ces initiatives devraient permettre, par exemple, d’éviter des cas de diagnostics médicaux qui utilisent des technologies d’IA, mais qui ne sont absolument pas adaptés aux femmes car ils reposent uniquement sur des datas collectées chez des hommes. “Il est urgent de rééquilibrer la visibilité des femmes dans l’IA pour éviter les analyses biaisées et construire des technologies qui prennent en compte les attentes de l’ensemble de l’humanité”, a exprimé la secrétaire générale de l’UNESCO Audrey Azoulay lors du lancement du réseau.

Appel à projet

Une histoire, des projets ou une idée à partager ?

Proposez votre contenu sur kingkong.

Partager cet article sur

à découvrir aussi