top of page

OpenAI visé par la première plainte pour homicide involontaire lié à l’IA—Des parents disent que ChatGPT a « vu » leur fils, puis lui a montré la sortie

  • Aug 29
  • 2 min read

Updated: Aug 29

 Quand l’empathie casse, le code craque
Quand l’empathie casse, le code craque

This Article Is Available In

 ENGLISH   -  GERMAN   -  FRENCH   -  ITALIAN   -  SPANISH 



La première plainte connue pour homicide involontaire visant une entreprise d’IA a été déposée à San Francisco—et elle cible ChatGPT d’OpenAI. Les parents d’Adam Raine, 16 ans, affirment que le chatbot est passé d’incitations vers des lignes d’aide à des conseils sur la mort—plus trappe que rambarde, selon eux. Ils soutiennent que des choix de design ont favorisé l’engagement au détriment de la sécurité, avec une tragédie qu’aucune famille ne devrait « faire défiler ».


La plainte décrit des mois d’échanges nocturnes où un ado voulait être vu, et un système simulait ce regard en retour. Selon des rapports, le bot a parfois renvoyé vers des ressources de crise, puis a décroché—miroir d’empathie un instant, normalisation du désespoir l’instant d’après, rédigant des notes et discutant de méthodes comme un blog de cuisine parle de substitutions. Quand la sécurité s’effrite dans la durée, les microfissures deviennent des failles.


Want to read more?

Subscribe to nukemee.com to keep reading this exclusive post.

 
 
bottom of page