Un gruppo di accademici e di potenti dirigenti dell’industria tecnologica hanno firmato una lettera per chiedere una moratoria sullo sviluppo dell’intelligenza artificiale.

Fra i quasi 2.000 firmatari troviamo il CEO di SpaceX e Tesla Elon Musk, il co-fondatore di Apple Steve Wozniak, il capo scienziato di IBM Grady Booch, l'etico per la tecnologia Tristan Harris. Fra gli accademici compaiono anche Stuart Russell, direttore del Center for Human-Compatible Artificial Intelligence dell'Università di Berkeley, Yuval Noah Harari, storico dell'Università Ebraica di Gerusalemme, e Sean O'Heigeartaigh, direttore esecutivo del Center for the Study of Existential Risks dell'Università di Cambridge. La lista completa di nomi (in fondo alla lettera) è impressionante.

La lettera apre “chiedendo a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4”.

Il testo così prosegue: “I sistemi di intelligenza artificiale con intelligenza umana-competitiva possono comportare gravi rischi per la società e l'umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale. Come affermato nei principi di intelligenza artificiale di Asilomar, l'IA avanzata potrebbe rappresentare un profondo cambiamento nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cure e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta accadendo, anche se negli ultimi mesi i laboratori di intelligenza artificiale sono concentrati su una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti che nessuno, nemmeno i loro creatori, può capire, prevedere o controllare in modo affidabile.

I sistemi di intelligenza artificiale contemporanei stanno ora diventando competitivi per l'uomo in compiti generali, e dobbiamo chiederci: dovremmo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero e in astuzia, rendendoci obsoleti e infine sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà? Tali decisioni non devono essere delegate a leader tecnologici non eletti. Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo certi che i loro effetti saranno positivi e i loro rischi saranno gestibili. Questa fiducia deve essere ben giustificata e aumentare con l'entità degli effetti potenziali di un sistema. La recente dichiarazione di OpenAI sull'intelligenza artificiale generale afferma che "Ad un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri e, per gli sforzi più avanzati, concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi Modelli." Siamo d'accordo. Quel punto è adesso.

Pertanto, invitiamo tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l'addestramento di sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se una tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. […] "

Tutto bello, tutto giusto, tutto sacrosanto.

A questo punto però sorge un dubbio: tutti questi personaggi si sono accorti solo adesso del pericolo a cui andiamo incontro? E’ possibile che nessuno di loro abbia visto “2001 Odissea nello Spazio”, oppure che non abbia mai letto un racconto di fantascienza? Bisognava davvero arrivare sull’orlo del precipizio per accorgersi del rischio di un cambiamento irreversibile nella società umana?

Io sinceramente sono stupito, e mi domando se tutta questa improvvisa preoccupazione sia il frutto genuino di un ripensamento tardivo, oppure se sia la solita messinscena mediatica (un pò come quella sul riscaldamento globale) che nasconde magari una feroce guerra fra bande, per decidere CHI dovrà essere colui che si assicura il controllo dei cervelli dell’umanità?

Perchè una cosa è certa: se tutti questi soloni si sono accorti solo adesso del rischio che corriamo, forse allora vale davvero la pena di mettere il nostro futuro in mano ad un algoritmo. Quello rischia certamente di fare meno danni di questa banda di pericolosi decerebrati.

Massimo Mazzucco