1
Silly 2 minutes de lecture

ChatGPT ou quand l’IA se met à raconter de gros mensonges

Auteurice de l’article :

François Genette

Accro à l’actu, fan de la culture geek, aficionado de tech digitale et gamer acharné, François Genette est passionné par tout ce qui touche au numérique. Journaliste pendant près de 15 ans dans les grands médias nationaux et locaux, il utilise aujourd’hui sa plume pour partager ses découvertes venant des univers qu’il affectionne.

en savoir plus

Elle est encensée dans tous les domaines, elle impressionne même les expert·es du digital les plus chevronné·es et est considérée comme une évolution incroyable qui va changer à tout jamais nos façons de travailler. Et pourtant, l’IA n’est pas exempte de tous défauts. Au contraire, dans certains cas, elle a une fâcheuse tendance à se tromper… et cela entraîne de lourdes conséquences.

L’exemple le plus récent nous vient des États-Unis, et plus précisément de l’Université Texas A&M. Un professeur d’université américaine a bloqué l’obtention du diplôme de 15 de ses élèves en les accusant à tort d’avoir utilisé ChatGPT pour réaliser leurs travaux rédactionnels.

Pour détecter ces supposées fraudes, ce dernier a utilisé… cette même IA en suivant un procédé simpliste. Pour chaque travail rendu, il copiait le texte écrit dans ChatGPT et demandait à celle-ci si elle en était à l’origine. Et donc, pour 15 d’entre elleux, la réponse fut positive.

ChatGPT, l’IA un peu mytho…

Le problème, c’est que le chatbot d’OpenAI est non seulement incapable de déterminer si un texte a pour origine une plume humaine ou s’il est issu d’un algorithme. Mais en plus, il possède une petite tendance à la mythomanie.

Un exemple concret a été donné par nos confrères de PCMag, qui ont soumis un article rédigé par l’un des rédacteurs du site à ChatGPT. Le résultat a montré que l’IA s’est attribué la paternité de l’écrit, alors qu’elle n’existait pas à l’époque où l’article a été rédigé.

Au final, plusieurs des étudiant·es ont pu régulariser leur situation et obtenir le diplôme tant convoité. Pour l’un d’entre elleux néanmoins, cela s’est moins bien terminé puisqu’il a avoué avoir utilisé ChatGPT pour réaliser son travail de fin d’année.

… trainée sur le banc des accusé·es

Autre exemple d’affabulation entraînant de lourdes conséquences, cette anecdote récente concerne l’animateur radio américain Mark Walters. Ce dernier a en effet décidé de déposer une plainte en diffamation contre OpenAI. Ses reproches sont cinglants. Il accuse ni plus ni moins ChatGPT de calomnies à son encontre.

Tout a commencé lorsqu’un autre journaliste nommé Fred Riehl a demandé à ChatGPT de résumer une affaire judiciaire en se basant sur un texte d’un fichier PDF reprenant l’ensemble des informations relatives à celle-ci.

Dans le résumé ainsi généré, ChatGPT a cité le nom de Mark Walters en assurant que ce dernier était partie prenante de l’affaire, ayant détourné plus de 5 millions de dollars des fonds d’une association à but non lucratif soutenant les armes à feu. Point important de ce résumé, l’IA identifiait Mark Walters comme le trésorier de l’association.

Et c’est bien là tout le problème ! En effet, Mark Walters n’a non seulement jamais occupé ce poste, mais en plus, il n’a jamais travaillé pour cette association et la plainte déposée dans le cadre de cette affaire judiciaire ne fait aucune mention de lui. En bref, il est tout simplement totalement étranger à cette dernière.

Suite à cet incident, Walters a décidé de porter l’affaire devant les tribunaux. La plainte dénonce les allégations de ChatGPT comme étant “fausses et malveillantes”, et le journaliste réclame des dommages et intérêts. Une première dont les dirigeant·es d’OpenAI se seraient bien passé. 

Appel à projet

Une histoire, des projets ou une idée à partager ?

Proposez votre contenu sur kingkong.

Partager cet article sur

à découvrir aussi