Un folto gruppo di ricercatori, scienziati e personaggi noti - fra cui Stephen Hawking, Elon Musk e Steve Wozniak - ha pubblicato una lettera contro lo sviluppo delle cosiddette "armi autonome", ovvero tutte quelle armi che utilizzano l'intelligenza artificiale, e sono quindi in grado di agire al di fuori del controllo umano.
Questa è la traduzione della lettera:
Le armi autonome selezionano e affrontano il loro bersaglio senza un intervento umano. Queste armi possono includere, ad esempio, quadri-cotteri armati in grado di identificare ed eliminare le persone in base ad alcuni criteri predefiniti, mentre non includono i missili cruise o i droni pilotati a distanza, per i quali sono sempre gli umani a prendere la decisione di sparare.
La tecnologia dell' Intelligenza Artificiale ha raggiunto un livello tale da permettere di realizzare di questi sistemi - in termini pratici, se non legali - entro pochi anni e non decenni. La sfida è enorme, visto che le armi autonome sono state definite la terza rivoluzione nel mondo della guerra, dopo la polvere da sparo e le armi atomiche. [...] Diverse argomentazioni sono state portate sia a favore che contro le armi autonome. Ad esempio, il fatto che sostituire i soldati umani con delle macchine sia positivo perché permette di ridurre il numero delle vittime, ma sia negativo perché abbassa la soglia che porta ad entrare in guerra. La domanda cruciale per l'umanità oggi è se permettere l'inizio di una corsa globale alle armi [autonome], oppure se fermare questa corsa sul nascere. Se una qualunque grande potenza militare spingerà verso lo sviluppo di armi autonome, una corsa globale agli armamenti è virtualmente inevitabile, e la conclusione di questo percorso tecnologico è evidente: le armi autonome diventeranno i Kalashnikov di domani.
A differenza delle armi nucleari, infatti, queste non richiedono materiali particolarmente costosi né difficili da reperire. Questo significa che si troveranno dappertutto e che costerà molto poco produrle per una qualunque potenza militare. Sarà solo una questione di tempo, prima di vederle comparire sul mercato nero, e poi nelle mani dei terroristi, dei dittatori che vogliono mantenere il controllo sulle loro popolazioni, dei capi tribali che vogliono portare a termine una pulizia etnica, eccetera eccetera.
Le armi autonome sono anche l'ideale per svolgere compiti come assassini, per destabilizzare delle nazioni, per sottomettere delle popolazioni e per eliminare in modo selettivo un particolare gruppo etnico. Noi quindi crediamo che una corsa allo sviluppo militare delle armi autonome non sarebbe un beneficio per l'umanità. Vi sono svariati modi in cui l'intelligenza artificiale può rendere il campo di battaglia più sicuro per gli esseri umani - i civili soprattutto - senza bisogno di creare nuovi strumenti per uccidere.
Esattamente come i chimici e biologi non hanno alcun interesse a costruire armi chimiche o biologiche, la maggior parte dei ricercatori nel campo dell'intelligenza artificiale non ha alcun interesse nel costruire armi autonome, e non vuole veder rovinata la reputazione del loro campo di ricerca, creando una reazione negativa del pubblico che potrebbe venire a danneggiare i futuri benefici dell'intelligenza artificiale. Di fatto, i chimici e i biologi hanno fortemente supportato gli accordi internazionali che hanno proibito le armi chimiche e biologiche, così come la maggior parte dei fisici ha supportato i trattati che hanno proibito gli armamenti nucleari nello spazio e le armi di accecamento con il laser.
In conclusione, noi crediamo che l'intelligenza artificiale abbia un grande potenziale benefico per l'umanità, e che lo scopo ultimo di questo settore sia proprio questo. Dare inizio ad una corsa alle armi autonome è una pessima idea, e dovrebbe essere impedito con la proibizione di qualunque arma che possa agire al di là del controllo umano.
Fonte
RT,
BBC.
La
lettera originale, con la lista dei firmatari.