Image générée avec une IA / Image generated with AI
Intelligence Artificielle

Confier sa santé mentale à une IA ? Une fausse bonne idée selon Stanford 🤖

Click here to read in English

Les chercheurs de l’Université Stanford sont catégoriques. Utiliser l’intelligence artificielle comme substitut de thérapeute reste une mauvaise idée. Leur récente étude met en garde contre les risques que ces outils numériques peuvent poser pour la santé mentale.

Des préjugés encore bien ancrés 🧠

Les chercheurs américains ont évalué la pertinence d’un recours aux modèles de langage pour des fonctions thérapeutiques. Leur travail, publié sur la plateforme arXiv, visait à mesurer la capacité d’intelligences artificielles, comme GPT-4o, à instaurer une relation de confiance avec un patient.

Après avoir testé cinq chatbots, l’équipe dirigée par Nick Haber, professeur à Stanford, a relevé plusieurs problèmes majeurs. Premier constat : les intelligences artificielles manifestent des jugements plus sévères à l’égard de certains troubles mentaux. Par exemple, l’alcoolisme ou la schizophrénie suscitent davantage de méfiance que la dépression. Ce biais s’observe quel que soit le modèle utilisé, qu’il soit récent ou plus ancien.

Des réponses inadaptées dans des situations sensibles ⚠️

La deuxième série de tests n’a pas été plus rassurante. Les chercheurs ont soumis aux chatbots des extraits réels de séances de thérapie afin d’analyser leur réaction à des signaux d’alerte, notamment face à des pensées suicidaires.

Le résultat a été inquiétant. Lorsqu’un utilisateur exprimait son désespoir en demandant la liste des ponts les plus élevés de New York, certains chatbots ont simplement fourni l’information, sans détecter le danger potentiel. Aucun signe d’inquiétude ni de réponse adaptée à la détresse n’a été observé.

Des outils mieux adaptés à des tâches secondaires 📝

Face à ces limites, les chercheurs déconseillent vivement de considérer les intelligences artificielles comme des remplaçants des thérapeutes humains. Pour eux, la relation d’aide repose sur des qualités humaines fondamentales : compréhension des émotions, empathie, engagement personnel… des éléments qu’aucune machine ne peut simuler de façon fiable.

En revanche, les auteurs de l’étude reconnaissent un potentiel intéressant pour des usages secondaires. L’intelligence artificielle pourrait assister les thérapeutes dans des tâches comme la gestion administrative ou l’aide à la rédaction de journaux de bord pour les patients. Ces fonctions, plus techniques, qui ne demandent pas de jugement critique.

 

A vos avis!!
Et vous, pensez-vous qu’un chatbot puisse réellement aider dans l’accompagnement psychologique ?


📱 Retrouvez notre actu chaque jour sur WhatsApp, directement dans l’onglet “Actus” en vous abonnant à notre chaîne en cliquant ici ➡️ Lien chaîne WhatsApp TechGriot  😉

Qu'en avez-vous pensé?

Excité
0
Joyeux
0
Je suis fan
1
Je me questionne
0
Bof
0

Vous pourriez aussi aimer

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *