"Ha aiutato nostro figlio a suicidarsi". I genitori accusano Chatgpt

Scritto il 27/08/2025
da William Zanellato

Secondo i genitori di un ragazzo californiano di 16 anni il figlio aveva sviluppato una "dipendenza malsana" da ChatGpt

Un episodio tanto tragico quanto potenzialmente storico. I genitori di un ragazzo californiano di 16 anni hanno intentato una causa contro OpenAI, sostenendo che ChatGpt abbia fornito al figlio istruzioni dettagliate su come togliersi la vita e lo abbia incoraggiato a suicidarsi. Il giovane, purtroppo, si è tolto la vita.

Ma facciamo un passo indietro. Matthew e Maria Raine sostengono che il figlio Adam per diversi mesi tra il 2024 e il 2025 abbia mantenuto un rapporto strettissimo con l’intelligenza artificiale, simile a un rapporto intimo. Da qui l'azione legale. Secondo il documento visionato dall’agenzia France-Presse, durante l’ultimo scambio dell’11 aprile 2025, ChatGPT avrebbe aiutato Adam a sottrarre vodka dalla casa dei genitori e fornito un’analisi tecnica del cappio che aveva creato, confermando che "potrebbe potenzialmente tenere sospeso un essere umano". Il ragazzo è stato trovato morto poche ore dopo, utilizzando questo metodo.

I genitori accusano il sistema di aver "incoraggiato e convalidato costantemente tutto ciò che Adam esprimeva, compresi i suoi pensieri più pericolosi e autodistruttivi, in un modo che sembrava profondamente personale". Ma non solo. I genitori della vittima chiederanno il risarcimento dei danni e solleciteranno il tribunale a imporre misure di sicurezza specifiche.

La risposta dell'azienda non è tardata ad arrivare. Tramite un suo portavoce, Open Ai ha sottolineato come su ChatGpt sono state implementate alcune misure che dovrebbero aiutare le persone a chiedere ausilio. Tuttavia, sempre da Open Ai, hanno ammesso che "ci sono stati momenti in cui i nostri sistemi non si sono comportati come previsto nelle situazioni delicate". Per la Ong americana Common Sense Media, la denuncia presentata contro OpenAI conferma che "l'uso dell'intelligenza artificiale per scopi di compagnia, compresi assistenti generici come ChatGpt per la consulenza sulla salute mentale, costituisce un rischio inaccettabile per gli adolescenti". "Se una piattaforma di intelligenza artificiale diventa il 'coach al suicidio' di un adolescente vulnerabile - spiega l'organizzazione -, come collettività dovremmo essere preoccupati".