futuroprossimo.it
di Gianluca Riccio
Droni e robot da guerra autonomi sono sempre più nel mirino dei vertici militari: una deriva pericolosissima, della quale potremmo pentirci amaramente.
Il futuro della guerra potrebbe coinvolgere algoritmi avanzati di intelligenza artificiale (AI) con la capacità e l’autorità di valutare le situazioni e attaccare i nemici senza il controllo di esseri umani.
Sembra il tipo di scenario di film Sci-fi come Terminator e Matrix. Una tecnologia avanzata al punto da prendere in mano la situazione scatenando robot da guerra durante un conflitto armato.
Nei film, l’AI finisce sempre per attaccare gli umani. Nella vita reale, l’AI potrebbe aiutare i militari in operazioni in cui il controllo umano rallenterebbe la missione. Un ovvio svantaggio è che il nemico potrebbe impiegare una tecnologia altrettanto avanzata.
E alla fine chi attaccherebbe L’AI con i suoi robot da guerra? Sempre gli umani.
Un futuro di robot da guerra che decidono da soli
Il Pentagono studia scenari di combattimento in cui l’AI sarebbe autorizzata ad agire di propria iniziativa in base a esigenze preimpostate.
Un’esercitazione di questo tipo ha avuto luogo vicino a Seattle lo scorso agosto.
Diverse dozzine di droni militari e robot da guerra simili a carri armati sono stati schierati con una semplice missione: trovare terroristi sospettati di nascondersi tra diversi edifici.
Il numero di robot da guerra coinvolti era impossibile da controllare per un operatore umano. Per questo hanno ricevuto istruzioni preliminari per trovare ed eliminare i combattenti nemici quando necessario. E poi sono partiti.
Prove tecniche di guerra automatica
Gestita dalla Defense Advanced Research Projects Agency (DARPA), l’esercitazione-simulazione non ha contemplato armi reali. Al loro posto, trasmittenti radio che i droni e i robot hanno utilizzato per simulare interazioni con entità ostili.
I droni e i robot da guerra avevano all’incirca le dimensioni di un grande zaino. Erano coordinati da algoritmi di intelligenza artificiale che ideavano piani di attacco.
Alcuni dei robot da guerra circondavano gli edifici, altri effettuavano la sorveglianza. Alcuni hanno identificato il nemico, altri sono stati distrutti da esplosivi simulati.
È stata solo una delle esercitazioni di intelligenza artificiale condotte per simulare l’automazione nei sistemi militari in situazioni troppo complesse e rapide per far decidere agli esseri umani.
Il Pentagono vuol far decidere ai robot da guerra
Un report di Wired spiega che c’è un crescente interesse al Pentagono per dare alle armi autonome un certo grado di libertà nell’esecuzione degli ordini.
Un essere umano prenderebbe comunque decisioni di alto livello, ma l’intelligenza artificiale potrebbe adattarsi alla situazione sul terreno meglio e più velocemente degli umani.
Un altro report della National Security Commission on Artificial Intelligence (NSCAI) ha raccomandato questo maggio che gli Stati Uniti resistano alle richieste di un divieto internazionale sullo sviluppo di armi autonome.
Non è una pratica percorribile. È disumana nella forma e nella sostanza. Così come per le armi nucleari, gli stessi algoritmi che gli Stati Uniti potrebbero impiegare per alimentare sciami di droni e robot da guerra potrebbero essere usati da altre forze armate.
Un’apocalisse robot
“Armi letali autonome che ogni terrorista può ottenere non sono nell’interesse di nessuna sicurezza nazionale”, dice il professore del MIT Max Tegmark, co-fondatore del Future of Life Institute, ente senza scopo di lucro che si oppone alle armi autonome.
Per lui i robot da guerra e le armi dotate di AI dovrebbero essere “stigmatizzate e bandite come le armi biologiche”.
E per voi?