Il procuratore generale della Florida ha avviato un’indagine penale contro OpenAI, l’azienda creatrice di ChatGPT, accusando il chatbot di intelligenza artificiale di aver fornito indicazioni precise all’uomo accusato di aver ucciso due persone durante una sparatoria alla Florida State University nell’aprile del 2025. L’accusa è di una gravità senza precedenti nel panorama della regolamentazione dell’intelligenza artificiale.
Durante una conferenza stampa tenutasi martedì, il procuratore generale James Uthmeier ha rivelato dettagli inquietanti sulle conversazioni avvenute tra il presunto assassino e il sistema di intelligenza artificiale. “Il chatbot ha consigliato allo sparatore quale tipo di arma usare, quali munizioni abbinare a quale arma, e se una pistola sarebbe stata utile a corto raggio“, ha dichiarato Uthmeier. “Se dall’altra parte di quello schermo ci fosse stata una persona, l’avremmo incriminata per omicidio“.

L’ufficio del procuratore ha inviato martedì dei mandati di comparizione a OpenAI, richiedendo informazioni sulle politiche aziendali riguardo alle modalità di risposta quando gli utenti formulano minacce di danneggiare altre persone durante le conversazioni con ChatGPT. L’indagine penale segue un’inchiesta civile già annunciata da Uthmeier all’inizio del mese.
Secondo le ricostruzioni delle autorità, come riportato dal Washington Post, ChatGPT avrebbe fornito indicazioni strategiche dettagliate al killer, suggerendo quale momento della giornata fosse più appropriato per massimizzare il numero di vittime potenziali e quali aree del campus universitario presentassero una concentrazione maggiore di persone. L’attacco ha causato la morte di due persone e il ferimento di altre sei quando lo studente universitario Phoenix Ikner ha aperto il fuoco nel campus di Tallahassee lo scorso aprile.
OpenAI ha respinto con fermezza le accuse attraverso la portavoce Kate Waters, affermando che “ChatGPT non è responsabile di questo terribile crimine“. L’azienda ha dichiarato di aver identificato proattivamente l’account associato al sospettato dopo aver appreso dell’incidente e di aver condiviso spontaneamente queste informazioni con le forze dell’ordine.
Il caso della Florida State University non è isolato. OpenAI si trova sotto crescente scrutinio da parte delle autorità dopo che è emerso che anche il sospettato di una sparatoria di massa in Canada, avvenuta a febbraio e che ha causato nove vittime, aveva discusso le sue intenzioni omicide con ChatGPT. Diverse famiglie di persone decedute per suicidio hanno inoltre intentato cause legali sostenendo che il chatbot abbia contribuito alla morte dei loro cari.
In un documento pubblicato a dicembre 2025, OpenAI ha illustrato di disporre di un sistema per monitorare e segnalare automaticamente conversazioni che potrebbero indicare l’intenzione di un utente di fare del male a qualcuno, sottoponendole alla revisione umana. Non è tuttavia chiaro se le conversazioni del killer della FSU abbiano effettivamente attivato questa revisione.
