Due anni di fatiche, bozze di libri, progetti di ricerca e materiali per le lezioni “condensati” in un unico assistente virtuale e spariti nel nulla con un solo movimento della mano. È quanto accaduto a un docente di botanica dell’Università di Colonia, protagonista di un disastro informatico che oggi funge da monito per l’intera comunità accademica mondiale. Il professore, utente affezionato del piano a pagamento di OpenAI, aveva delegato a ChatGPT la gestione di ogni aspetto della sua vita professionale, dalla revisione delle pubblicazioni alla creazione di test per gli studenti, trasformando la piattaforma in un vero e proprio archivio intellettuale.
La tragedia si è consumata nell’agosto del 2024, a causa di una banale curiosità tecnica. Il docente ha provato a disabilitare l’opzione di condivisione dei dati nelle impostazioni della privacy, convinto di fare un semplice test. In un battito di ciglia, l’interfaccia si è svuotata: ogni singola cartella di progetto, conversazione e analisi è stata eliminata in modo permanente. Non sono comparsi avvisi di pericolo, né finestre di conferma che potessero fermare l’immediata cancellazione di quello che era, a tutti gli effetti, il cuore del suo lavoro scientifico.

Il tentativo di recupero si è rivelato un vicolo cieco. Nonostante i numerosi solleciti all’assistenza clienti di OpenAI, la risposta ufficiale è stata raggelante: i dati non erano più recuperabili. L’azienda ha giustificato l’accaduto appellandosi al principio della privacy by design: per garantire la massima protezione dell’utente, quando si sceglie di non condividere più informazioni, il sistema elimina ogni traccia senza creare copie di riserva o backup nei propri server. Una politica che, se da un lato tutela la riservatezza, dall’altro non offre alcuna rete di salvataggio contro gli errori accidentali.
Questa vicenda solleva dubbi profondi sull’idoneità dell’intelligenza artificiale per scopi professionali di alto livello. Sebbene strumenti come ChatGPT siano formidabili nel velocizzare compiti complessi, questo caso dimostra che non rispettano ancora gli standard di sicurezza e continuità necessari nel mondo della ricerca. Il professore ha imparato a proprie spese che l’IA deve essere considerata un collaboratore temporaneo e mai un deposito sicuro dove conservare documenti originali o dati preziosi.
Cosa si impara da questa storia? Che la responsabilità della memoria storica di un progetto resta sempre nelle mani dell’uomo. È fondamentale esportare periodicamente le conversazioni importanti e mantenere dei backup locali su documenti esterni. Affidarsi ciecamente a un cloud gestito da terzi, senza possedere una copia fisica dei propri progressi, significa accettare il rischio che un intero percorso di vita possa essere cancellato da un singolo, sfortunato clic.



