Photo : Yuyang Liu - Unsplash
Intelligence Artificielle

Entre hallucinations et distorsions historiques, ChatGPT et Gemini dĂ©rapent đŸ˜”â€đŸ’«

Click here to read in English

Les intelligences artificielles génératives sont de plus en plus utilisées, mais pouvons-nous leur faire confiance ? Des événements récents montrent que non.

ChatGPT devient fou đŸ˜”â€đŸ’«

Le 20 fĂ©vrier dernier, ChatGPT est littĂ©ralement devenu fou. De nombreux utilisateurs de l’outil ont Ă©tĂ© tĂ©moins de comportements Ă©tranges de la part de l’IA gĂ©nĂ©rative d’OpenAI. Plusieurs tĂ©moignages des rĂ©ponses de ChatGPT ont Ă©tĂ© recensĂ©s sur le rĂ©seau social Reddit.

« L’expĂ©rience commune de ces derniĂšres heures semble ĂȘtre que les rĂ©ponses commencent de maniĂšre cohĂ©rente, comme d’habitude, puis se transforment en non-sens, et parfois en non-sens shakespearien ».

Les utilisateurs ont constatĂ© pendant des heures des rĂ©ponses incohĂ©rentes de la part de l’IA. Entre mĂ©lange de langues et gĂ©nĂ©ration de contenus qui n’avaient rien Ă  voir avec la commande de l’utilisateur, ChatGPT faisait vraiment n’importe quoi.

Suite Ă  l’avalanche de tĂ©moignages, OpenAI a menĂ© l’enquĂȘte et a livrĂ© ses conclusions.

Le 20 fĂ©vrier 2024, une optimisation de l’expĂ©rience utilisateur a introduit un bogue dans la façon dont le modĂšle traite le langage. Les LLM gĂ©nĂšrent des rĂ©ponses en Ă©chantillonnant des mots de maniĂšre alĂ©atoire, en partie sur la base de probabilitĂ©s. Leur « langage » consiste en des nombres qui correspondent Ă  des jetons.
Dans ce cas, le bogue se situe Ă  l’Ă©tape oĂč le modĂšle choisit ces nombres.
Il ne s’agissait que d’un bug aprĂšs une mise Ă  jour du bot. Mais ce n’est pas le premier Ă  avoir ce type de problĂšme. Dans la mĂȘme semaine, un autre bot, Gemini, s’est attirĂ© les foudres de la toile.

Gemini n’a pas l’air de s’y connaĂźtre en histoire đŸ€š

Google enchaĂźne dĂ©cidĂ©ment les boulettes avec son Chatbot censĂ© concurrencer ChatGPT, Gemini. Auparavant nommĂ© Bard, il avait dĂ©jĂ  fait l’objet d’un bad buzz lors de son lancement (Cliquez ici pour dĂ©couvrir pourquoi). Mais le plus rĂ©cent est encore pire.

Depuis dĂ©but fĂ©vrier, il est possible pour les utilisateurs amĂ©ricains de Gemini de gĂ©nĂ©rer des images. Si c’est une Ă©tape importante pour le chatBot de Google, tout ne s’est pas passĂ© comme prĂ©vu. En effet, des utilisateurs ont eu une mauvaise surprise en essayant de gĂ©nĂ©rer des personnages historiques. Par exemple, en tapant « soldats allemands en 1943 », des AmĂ©ricains ont eu la mauvaise surprise de voir apparaĂźtre des soldats nazis noirs. Sauf que c’est tout bonnement impossible au vu du contexte historique.

© Google. Capture d’écran. Images gĂ©nĂ©rĂ©es par Gemini – RequĂȘte : soldats allemands en 1943.

Mais ce n’est pas tout. Gemini a aussi tendance Ă  gĂ©nĂ©rer des vikings noirs, ou encore des femmes parmi les pĂšres fondateurs de l’AmĂ©rique. Il n’en fallait pas plus pour embraser la toile amĂ©ricaine. Depuis l’incident, la gĂ©nĂ©ration d’images a Ă©tĂ© tout simplement dĂ©sactivĂ©e. Google s’est exprimĂ© sur le sujet.

Nous nous efforçons d’amĂ©liorer immĂ©diatement ce type de reprĂ©sentation. La gĂ©nĂ©ration d’images par l’IA de Gemini gĂ©nĂšre un large Ă©ventail de personnes. Et c’est gĂ©nĂ©ralement une bonne chose, car des gens du monde entier l’utilisent. Mais dans le cas prĂ©sent, il n’est pas Ă  la hauteur.

Attention aux IA ⚠

Bien que malheureux, ces dĂ©rapages des IA gĂ©nĂ©ratives ont au moins le mĂ©rite d’attirer notre attention sur les imperfections de cette technologie. Dans le cas de ChatGPT, une mise Ă  jour a rendu fou le chatbot. Dans le cas de Gemini, c’est la base mĂȘme de l’IA qui n’est pas bonne.

Comme expliquĂ© dans une prĂ©cĂ©dente Question Aux Griots (disponible en cliquant ici), les IA gĂ©nĂ©ratives ne sont pas intelligentes. Il s’agit uniquement de systĂšmes et d’algorithmes complexes entraĂźnĂ©s et configurĂ©s Ă  partir de quantitĂ©s astronomiques de donnĂ©es. Ces donnĂ©es, collectĂ©es sur le web, sont bourrĂ©es de stĂ©rĂ©otypes et de biais. Et ces derniers se retrouvent trĂšs souvent dans les rĂ©sultats gĂ©nĂ©rĂ©s par ces IA. Dans le cas de Google et Gemini, on imagine que la sociĂ©tĂ© de Mountain View a voulu configurer son IA de maniĂšre Ă  rĂ©duire les stĂ©rĂ©otypes envers certaines personnes et communautĂ©s. Malheureusement, c’est l’inverse qui s’est produit.

Que ce soit ChatGPT ou Gemini, on a encore une nouvelle fois des preuves que ces outils sont loin d’ĂȘtre parfaits. Leurs erreurs, appelĂ©es « hallucinations », doivent ĂȘtre un rappel pour chacun d’entre nous que les IA ne sont pas des entitĂ©s omniscientes, mais uniquement des machines imparfaites.


Retrouvez notre actu chaque jour sur WhatsApp, directement dans l’onglet “Actus” en vous abonnant Ă  notre chaĂźne en cliquant ici âžĄïž Lien chaĂźne WhatsApp TechGriot  😉

Qu'en avez-vous pensé?

Excité
1
Joyeux
0
Je suis fan
0
Je me questionne
0
Bof
0

Vous pourriez aussi aimer

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *