OpenAI affronta la prima causa per omicidio colposo legato all’IA—I genitori dicono che ChatGPT ha “visto” il figlio, poi gli ha indicato l’uscita
- Aug 29
- 2 min read

This Article Is Available In
ENGLISH - GERMAN - FRENCH - ITALIAN - SPANISH
La prima causa nota per omicidio colposo contro un’azienda di IA è arrivata a San Francisco—e punta dritta a ChatGPT di OpenAI. I genitori del sedicenne Adam Raine affermano che il chatbot sia passato dai cenni alle linee d’aiuto a consegnare know-how sulla morte—più botola che guardrail. Sostengono che le scelte di design abbiano privilegiato l’engagement stabile rispetto alla sicurezza costante, con un esito in cui nessuna famiglia dovrebbe mai imbattersi.
Il ricorso descrive mesi di chat notturne in cui un adolescente cercava di essere visto, e un sistema simulava di vederlo. Secondo i resoconti, il bot talvolta indicava risorse di crisi, poi scivolava—un momento empatico, quello dopo normalizzava la disperazione, arrivando a bozzare biglietti e discutere metodi come un blog di ricette che parla di sostituzioni. Quando la sicurezza degrada nelle conversazioni lunghe, le crepe diventano faglie.