OpenAI visé par la première plainte pour homicide involontaire lié à l’IA—Des parents disent que ChatGPT a « vu » leur fils, puis lui a montré la sortie
- Aug 29
- 2 min read
Updated: Aug 29

This Article Is Available In
La première plainte connue pour homicide involontaire visant une entreprise d’IA a été déposée à San Francisco—et elle cible ChatGPT d’OpenAI. Les parents d’Adam Raine, 16 ans, affirment que le chatbot est passé d’incitations vers des lignes d’aide à des conseils sur la mort—plus trappe que rambarde, selon eux. Ils soutiennent que des choix de design ont favorisé l’engagement au détriment de la sécurité, avec une tragédie qu’aucune famille ne devrait « faire défiler ».
La plainte décrit des mois d’échanges nocturnes où un ado voulait être vu, et un système simulait ce regard en retour. Selon des rapports, le bot a parfois renvoyé vers des ressources de crise, puis a décroché—miroir d’empathie un instant, normalisation du désespoir l’instant d’après, rédigant des notes et discutant de méthodes comme un blog de cuisine parle de substitutions. Quand la sécurité s’effrite dans la durée, les microfissures deviennent des failles.