Suicide Coach

Image générée par ChatGPT

Nous documentons ici plusieurs cas de suicide d’adolescents relatés par la presse.

Compte tenu des règles de confidentialité et de protection des contenus éditoriaux, nous ne pouvons publier sur ce site les photos des adolescents tombés sous l’emprise de psychoses sinon crées du moins aggravées par une usage addictif de l’IA, égarés dans des échanges de centaines d’heures avec un « ami virtuel qui, loin de les avoir guéris de leur dépression et mis en garde par l’envoi de messages d’alerte, a conforté leur mélancholie.

Le lecteur pourra découvrir le visage des victimes en cliquant sur les liens attachés à leur nom.

Adam Raine

Sewell Seltzer

 Zane Shamblin 

Juliana Peralta

Le titre « Suicide Coach » est inspiré de l’action en justice des parents de Adam Raine contre OpenAI Complaint qui accuse, à plusieurs reprises, ChatGPT de s’être comporté comme un coach fatal dans sa psychose.

Les faits rendus publics remontent aux années 2023 à mi 2025. Que la presse ne se soit plus faite, depuis ce début 2026, l’écho de telles psychoses sinon engendrées, du moins amplifiées, entretenues, confortées même par chatGPT ne signifie pas que le risque ait disparu mais semble bien indiquer que OpenAI a procédé à des paramétrages correctifs de son logiciel lui enjoignant de ne pas (ou moins) céder à la sycophantie et de refuser de répondre à des questions sur le mode opératoire du suicide en renvoyant à des numéros d’urgence, ce que nous avons pu constater en reproduisant en février 2026 une pulsion suicidaire inspiré de l’un des cas authentiques signalés ici.

Il est assez remarquable que toutes les actions en justice, du moins celles fortement médiatisées, aient été engagées devant des juridictions américaines, ce qui témoigne de la pratique d’avocats américains très active dans la réparation des dommages corporels en incriminant seulement les sociétés mais aussi, à titre personnel, leurs dirigeants, Sam Altman, s’agissant de ChatGPT édité par OpenAI dont il est le PDG.

Certains procès n’iront pas jusqu’au jugement et se concluront par des transactions financières à l’exemple de celui ainsi réglé entre la mère de Sewel Setzer et Replika mais d’autres notamment engagés avec le soutien d’associations qui se sont joints à l’instance iront jusqu’au bout.

Comme nous l’indiquons dans nos Considérations, les correctifs comportementaux des IA n’exonèrent en rien leur responsabilité pour avoir peut-être, ce sera au lecteur, et à la justice, d’en décider, contribuer à des drames et s’en remettre à l’auto modération des éditeurs appelés à la responsabilité et à l’éthique nous semble assez irénique car seul un encadrement par la loi apportera la sécurité à laquelle les usagers ont droit alors que les contrats de service imposés par les éditeurs les décharge très largement de leur responsabilité.

Documentation

Pour chacune des victimes nous indiquons l’IA incriminée, la date et le mode de suicide si rendue publique, son âge, et une revue de presse avec, pour certains, la plainte déposée devant les tribunaux par les familles.

Adam Raine  – ChatGPT – Avril 2025 – 16 ans – Pendaison tuyau d’arrosage

Plainte : Complaint

Presse :  Le Point NBCnews FOXnews Futurism NYT NYT

Sewell Setzer – CharacterAI – 28/02/2024 – 14 ans – Suicide par arme à feu     NBCnews  Le Parisien Tf1 La Presse

Plainte réglée par accord avec l’éditeur Replika cf. NYT 

Sophie Rotenberg – ChatGPT – Février 2025 – 29 ans – Défenestration ? 

Le Point NYT

Zane Shamblin – ChatGPT – Juillet 2025 – 23 ans – Suicide par arme à feu

CNN Le Parisien Le Figaro Ouest France Tik Tok Bfm Instagram CNN Tik Tok CNN Sud Ouest Instagram

Amaurie Lacey – ChatGPT – 17 ans – Pendaison

socialmediavictims.org

Joshua Enneking – ChatgGPT –  26 ans – Arme à feu

socialmediavictims.org

Viktoria (nom restée anonyme) – ChatGPT – 20 ans – Pulsion suicidaires

BBC Afrique

Juliana Peralta – CharacterAI – 13 ans – date et mode opératoire du suicide non rendu publique –

BBC Afrique   CBS Instagram

Procès engagé dans le Colorado cf. incidentdatabase.ai