Elon Musk è uno tra i mille ricercatori ed esperti del settore che hanno chiesto uno stop agli esperimenti con l’IA, fermando per almeno sei mesi lo sviluppo dei sistemi relativi all’ intelligenza artificiale, manifestando preoccupazione per le conseguenze che questa evoluzione potrebbe portare.
La richiesta si è manifestata per mezzo una lettera aperta pubblicata dal Future of Life Institute. Ecco di seguito il contenuto tradotto:
L’umanità corre dei rischi
“I sistemi dotati di intelligenza in competizione con quella umana possono comportare rischi profondi per la società e l’umanità intera, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA.
Come affermato nei principi di Asilomar per l’intelligenza artificiale ampiamente approvati, l’IA avanzata potrebbe portare cambiamenti profondi nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate.
Purtroppo, questo livello di pianificazione e gestione non sta avvenendo, e negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno, tantomeno i loro creatori, è in grado di comprendere e controllare in modo affidabile”.
Quali pericoli presenta l’intelligenza artificiale
Prosegue la lettera:
“I sistemi di intelligenza artificiale contemporanei stanno entrando in competizione con gli esseri umani in compiti generali e dobbiamo chiederci se sia il caso di lasciare che le macchine inondino i nostri canali di informazione.
- Dobbiamo lasciare che le macchine invadano i nostri canali di informazione con propaganda e falsità?
- Rendiamo automatici tutti i lavori, compresi quelli più soddisfacenti?
- Andiamo a sviluppare menti non umane che potrebbero superarci ed essere più intelligenti noi?
- Dovremmo lasciare che ci sostituiscano?
- Dobbiamo rischiare di perdere il controllo della nostra civiltà?
Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo e soltanto quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili.

Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema.
La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che, ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri; e per gli sforzi più avanzati, concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli.
Siamo d’accordo. Quel punto è ora, lo abbiamo già raggiunto” ha affermato Musk.
Stop agli esperimenti con l’IA – Fermarsi per sei mesi
La proposta:
“Pertanto, chiediamo a tutti i laboratori uno stop agli esperimenti IA, sospendere con decorrenza immediata e per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4.
Questa pausa deve essere pubblica, verificabile, e deve includere tutti gli attori principali. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria.
I laboratori di Intelligenza Artificiale e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare – congiuntamente – una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti.
Questi protocolli dovrebbero garantire che i sistemi aderenti siano sicuri, al di là di ogni ragionevole dubbio.
Non è uno stop definitivo, ma solo un passo indietro
Ciò non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli di “black-box” sempre più grandi e imprevedibili, con capacità emergenti.
La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali.

Parallelamente, gli sviluppatori di IA devono lavorare con la politica per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA.
Questi dovrebbero come minimo includere:
- autorità di regolamentazione nuove e capaci dedicate all’IA
- sorveglianza e monitoraggio dei sistemi di IA altamente capaci e di grandi bacini di capacità computazionale
- sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie
- un robusto ecosistema di auditing e certificazione
- responsabilità per i danni causati dall’IA
- solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA
- istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici – soprattutto per la democrazia – che l’IA causerà.
L’umanità può beneficiare dell’IA
L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo goderci un’estate dell’IA in cui raccogliere i frutti, progettare sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi.
La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici per sé stessa e possiamo farlo anche in questo caso.
Godiamoci una lunga estate con l’Intelligenza artificiale, non precipitiamoci impreparati in un autunno”.