Centinaia di ricercatori che si occupano di robotica e intelligenza artificiale hanno chiesto la messa al bando sullo sviluppo delle armi autonome. Con una lettera aperta i ricercatori sottolineano il pericolo di una “virtualmente inevitabile corsa mondiale agli armamenti” chiedendo il divieto alle armi autonome, in grado di uccidere da sole, un’idea prospettata nel report del Pentagono intitolato “Visualizzare il campo di battaglia tattico del 2050”.
Tra i firmatari dell’appello, ci sono personaggi e studio di alto profilo quali Stephen Hawking ed Elon Musk, entrambi già in passato concordi nel ribadire la potenziale pericolosità dell’intelligenza artificiale in alcuni settori. Altri nomi di spicco, sono: il co-fondatore di Apple Steve Wozniak, il filosofo cognitivista Daniel Dennett, il linguista-attivista Noam Chomsky, il direttore delle ricerche di Google Peter Norvig, il capo delle ricerche di Microsoft Eric Horvitz, il cofondatore di Skype Jaan Tallin.
Il gruppo di firmatari riconosce che vi siano casi nei quali sostituire soldati umani con le macchine sia positivo e riduce la probabilità di rischi, ma d’altra parte ciò diminuisce i limiti per i quali si sceglie di combattere al fronte. Alcune tecnologie nelle mani sbagliate potrebbero essere letali per l’umanità; “Provate a immaginarle nelle mani di terroristi” spiega il professor Stuart Russell a Tech Insider, “o nelle mani di dittatori per opprimere i popoli”; “armi del genere farebbero passare in secondo piano perfino i pericoli del nucleare”.
Esistono già armi semiautonome, ma queste non sono in grado di agire da sole ma devono essere innescate sempre da un essere umano. Una convenzione sulla proibizione o la limitazione dell’uso di alcune tipologie di armi è a detta di molti fondamentale; bisogna ad ogni modo fare in fretta prima che le armi autonome (alle quali vari paesi stanno lavorando) diventino realtà. Non troppo preoccupato sembra invece Linus Torvalds, autore della prima versione del kernel GNU/Linux e coordinatore del progetto di sviluppo dello stesso: “Non riesco a capire cosa ci sia da temere” ha detto in una recente intervista a Slashdot; “avremo l’intelligenza artificiale e sarà molto probabilmente qualcosa di molto simile alle reti neurali ricorrenti, e il punto è che giacché questo tipo di intelligenza artificiale richiede l’addestramento, non sarà “affidabile” nel tradizionale senso del termine nel mondo dei computer”. A detta di Linus, insomma, non si arriverà mai ad avere forme di intelligenza artificiale capaci di eguagliare l’intelligenza umana.