Psychiatrie

Selon OpenAI

Un million d'utilisateurs confieraient des pensées suicidaires à ChatGPT

Plus d'un million d'utilisateurs de ChatGPT évoquent des pensées liées au suicide avec cet assistant d'IA générative, selon des estimations fournies par l'entreprise qui l'a créée, OpenAI.

chatgpt pensées suicidairesOpenAI, l'entreprise californienne d'intelligence artificielle (IA), estime qu'environ 0,15% des utilisateurs de sa création ChatGPT ont des "conversations qui incluent des indicateurs explicites de planification ou d'intention suicidaire potentielle", rapporte-t-elle sur un blog en début de semaine.

Vu qu'OpenAI revendique 800 millions d'utilisateurs hebdomadaires, cela correspondrait à quelque 1,2 million de personnes dans le monde. L'entreprise estime également qu'environ 0,07% des utilisateurs hebdomadaires actifs de ChatGPT présentent des signes de potentielles urgences de santé mentale, liées à des épisodes psychotiques ou maniaques, soit un peu moins de 600.000 personnes.

La question n'est pas neuve, elle occupe le devant de la scène depuis la mort d'un adolescent californien, Adam Raine, dont les parents ont récemment attaqué OpenAI en justice. Ceux-ci affirment que ChatGPT avait fourni à l'ado des conseils spécifiques sur la manière de passer à l'acte.

OpenAI a, depuis, renforcé les contrôles parentaux, et affirme avoir mis en place d'autres garde-fous, notamment un accès renforcé aux assistances téléphoniques d'urgence.

LIRE PAR AILLEURS : L’impact de ChatGPT sur le cerveau a été évalué par le MIT

Différents 'garde-fous' mis en place

La firme indique avoir mis à jour son modèle pour mieux reconnaître et répondre aux utilisateurs vivant une urgence de santé mentale: "Nous avons récemment mis à jour le modèle par défaut de ChatGPT afin qu’il reconnaisse et prenne mieux en charge les personnes en situation de détresse. Aujourd’hui, nous partageons la manière dont ces améliorations ont été réalisées et leurs performances."

L'entreprise affirme ainsi travailler avec plus de 170 professionnels de santé mentale pour réduire de manière significative les réponses problématiques. "En collaboration avec des experts en santé mentale disposant d’une expérience clinique concrète, nous avons entraîné le modèle à mieux identifier les signes de détresse, à désamorcer les conversations et à orienter les utilisateurs vers des professionnels de santé lorsque cela est approprié."

"Nous avons également élargi l’accès aux lignes d’assistance en cas de crise, redirigé les échanges sensibles provenant d’autres modèles vers des modèles plus sûrs et ajouté de légers rappels pour encourager à faire des pauses lors de longues sessions", explique l'entreprise. 

Le renforcement de sécurité concerne plus précisément les troubles de type psychose ou manie, l’automutilation et le suicide et la dépendance émotionnelle à l’intelligence artificielle. "À l’avenir, en plus de nos indicateurs de sécurité de référence de longue date concernant le suicide et l’automutilation, nous intégrerons la dépendance émotionnelle et les urgences psychologiques non suicidaires à notre série standard de tests de sécurité de référence pour les prochaines versions du modèle", poursuit OpenAI.

"Nous pensons que ChatGPT peut offrir un espace de soutien permettant aux utilisateurs d’exprimer et de comprendre leurs émotions, tout en les incitant à solliciter l’aide de proches, de leur famille ou d’un professionnel de santé mentale lorsque cela est nécessaire."

Toute personne ayant des pensées suicidaires peut contacter la ligne d'écoute du Centre de prévention du suicide au 0800/32.123 (elle est anonyme, gratuite et disponible 24h/24). Plus d'infos sur le site Prévention du suicide.

Wat heb je nodig

Accès GRATUIT à l'article
ou
Faites un essai gratuit!Devenez un membre premium gratuit pendant un mois
et découvrez tous les avantages uniques que nous avons à vous offrir.
  • checkaccès numérique aux magazines imprimés
  • checkaccès numérique à le Journal de Médecin, Le Phamacien et AK Hospitals
  • checkoffre d'actualités variée avec actualités, opinions, analyses, actualités médicales et pratiques
  • checknewsletter quotidienne avec des actualités du secteur médical
Vous êtes déjà abonné? 
Écrit par La rédaction (avec Belga)29 octobre 2025

Articles connexes

Enquête : ChatGPT Health n'est pas fiable pour les conseils médicaux

ChatGPT Health, un outil d'IA qui fournit des conseils médicaux, n'est pas du tout à la hauteur. Plus de la moitié des cas nécessitant des soins urgents n'ont pas été classés par ordre de priorité. L'outil a également ignoré les signaux d'alarme indiquant une possible tentative de suicide.

ChatGPT propose désormais des conseils en matière de santé

OpenAI, le créateur du populaire chatbot ChatGPT, annonce une fonction distincte qui fournit des conseils de santé basés sur les dossiers médicaux et les applications de bien-être. ChatGPT Health sera déployé progressivement au cours des prochaines semaines, y compris en Europe.

Psychiatrie d'urgence de proximité: le déploiement national progresse

Treize des 21 réseaux de santé mentale pour adultes ont déjà démarré des interventions dans le cadre du projet national de psychiatrie d'urgence de proximité, inspiré du dispositif bruxellois EMUT (Équipe Mobile d'Urgence), a indiqué lundi François Wyngaerden, expert au SPF Santé publique en charge de la psychiatrie d'urgence. Un an après le lancement de l'appel à projets, le déploiement progresse dans la majorité des réseaux du pays.

Un tiers des professionnels de santé européens souffrent de dépression

Un médecin et infirmier sur trois souffre de dépression et un sur 10 éprouve des pensées suicidaires passives, ressort-il d'une enquête menée auprès de professionnels de santé européens par l'OMS

Magazine imprimé

Édition Récente
12 février 2026

Lire la suite

Découvrez la dernière édition de notre magazine, qui regorge d'articles inspirants, d'analyses approfondies et de visuels époustouflants. Laissez-vous entraîner dans un voyage à travers les sujets les plus brûlants et les histoires que vous ne voudrez pas manquer.

Dans ce magazine