Una coalizione straordinaria e inaspettata ha unito le proprie voci in un appello senza precedenti: fermare lo sviluppo della superintelligenza artificiale fino a quando non si potrà garantire la sicurezza dell’umanità. Più di 800 personalità pubbliche provenienti dai mondi più diversi hanno firmato ieri una dichiarazione che chiede una moratoria su questa tecnologia emergente, considerata potenzialmente pericolosa per il futuro della civiltà umana.
Tra i firmatari figurano nomi che difficilmente ci si aspetterebbe di vedere insieme: il principe Harry e sua moglie Meghan Markle, l’ex stratega della Casa Bianca di Trump Steve Bannon, il premio Nobel per l’intelligenza artificiale Geoffrey Hinton, l’ex presidente dello Stato Maggiore congiunto degli Stati Uniti Mike Mullen e persino il rapper Will.i.am. Questa diversità di voci sottolinea la trasversalità delle preoccupazioni legate allo sviluppo dell’AI più avanzata.
La dichiarazione, organizzata dal Future of Life Institute, propone “una proibizione dello sviluppo della superintelligenza” fino al raggiungimento di due condizioni fondamentali: un ampio consenso scientifico sulla possibilità di svilupparla in modo sicuro e controllabile, e un forte sostegno pubblico. Il documento rappresenta l’ultimo di una serie crescente di appelli per rallentare la corsa all’intelligenza artificiale, in un momento in cui questa tecnologia sta trasformando radicalmente economia e cultura.
Ma cosa si intende esattamente per superintelligenza? Secondo i ricercatori del settore, si tratta di una fase evolutiva dell’AI che va oltre l’intelligenza artificiale generale, ovvero la capacità di eseguire compiti intellettuali al pari di un essere umano. La superintelligenza rappresenterebbe il momento in cui i sistemi AI supererebbero persino gli esseri umani più esperti in qualsiasi campo. Alcuni dirigenti tecnologici ritengono che questo traguardo sia ormai imminente.
Mark Zuckerberg, CEO di Meta, ha dichiarato a luglio che la superintelligenza è vicina. Elon Musk, che nel 2015 aveva sostenuto proprio il Future of Life Institute e che oggi compete nella corsa all’AI con la sua startup xAI, ha scritto su X a febbraio che l’avvento della superintelligenza digitale è più che mai prossimo. Un’affermazione particolarmente significativa considerando che in passato lo stesso Musk aveva messo in guardia contro “robot che scendono per strada uccidendo persone”.
Anthony Aguirre, direttore esecutivo del Future of Life Institute e fisico presso l’Università della California a Santa Cruz, ha espresso preoccupazione per la velocità di questi sviluppi.
L’appello non è diretto a una singola organizzazione o governo, ma mira a stimolare una conversazione globale che coinvolga le principali aziende AI, i politici negli Stati Uniti, in Cina e altrove. Aguirre ha sottolineato che le posizioni favorevoli all’industria dell’amministrazione Trump necessitano di un contrappeso.

Il dibattito sulla sicurezza dell’AI avviene in un contesto di investimenti miliardari da parte di OpenAI, Google, Meta e altre aziende tecnologiche, che stanno riversando risorse enormi nello sviluppo di nuovi modelli AI e dei data center necessari per alimentarli. Praticamente ogni settore industriale sta cercando modi per integrare funzionalità di intelligenza artificiale nei propri prodotti e servizi.
L’opinione pubblica americana appare divisa sulla questione. Secondo un sondaggio NBC News Decision Desk Poll condotto quest’anno, il 44% degli adulti statunitensi ritiene che l’AI migliorerà la propria vita e quella delle proprie famiglie, mentre il 42% teme che peggiorerà il loro futuro. Questa spaccatura riflette l’incertezza diffusa su una tecnologia che promette rivoluzioni ma solleva interrogativi esistenziali.



