Armi autonome: molti esperti in Intelligenza Artificiale temono che il loro lavoro porterà alla creazione di Terminators

Sono molti gli scienziati e gli esperti in Intelligenza Artificiale che consigliano di vietarle, ma gli Stati più forti vogliono provare comunque a implementarle.

Le armi letali autonome o LAW (letal autonomous weapon) come vengono chiamate, affronteranno il nemico senza ricevere ordini umani e decideranno da soli il da farsi nel rimuovere gli ostacoli che si presenteranno durante la loro missione. Ad esempio un piccolo carro armato potrebbe essere impiegato per pattugliare le strade di una città e agire senza che sia un pilota a decidere per lui. Queste invenzioni ancora non esistono, ma già hanno sollevato diverse polemiche e dibattiti a livello internazionale. Quelli già esistenti sono semi-autonomi, capaci di muoversi autonomamente e selezionare i bersagli verso i quali scaterare la loro forza distruttrice secondo i criteri dell’Intelligenza Artificiale, ma possono agire solo attraverso dei comandi manuali attivati dall’uomo.

Nell’estate 2015, più di mille scienziati, esperti in tecnologia e specialisti in Intelligenza Artificiale, hanno formato un manifesto contro le armi autonome che hanno definito come “la terza rivoluzione nella storia della guerra dopo la polvere da sparo e la bomba nucleare”. I firmatari, tra i quali troviamo figure prestigiose come l’astrofisico britannico Stephen Hawking, l’imprenditore Elon Musk, il presidente di Tesla & SpaceX e Steve Wozniak cofondatore di Apple, chiedevano il veto all’implementazione di questa tipologia di armi. Da allora altri scienziati e cittadini comuni, si sono uniti alla petizione, che solleva interrogativi ai quali è difficile rispondere. Ad esempio, cosa accadrebbe se uno Stato decidesse di implementare questa tecnologia? La cosa più probabile è che avrà inizio una corsa agli armamenti globale che avrà pericolose conseguenze: terroristi, sostenitori della guerra e dittatori potrebbero rifornirsi di questi sofisticati mezzi di distruzione ma mano che andranno a diffondersi. Secondo il manifesto “le armi autonome si convertiranno nei kalashnikov del futuro”. Inoltre se le macchine si convertissero nelle protagoniste dei conflitti bellici e si riducesse la presenza di truppe al fronte, alcuni paesi potrebbero considerarsi più predisposti all’attacco perché risulterebbe ridotto il pericolo per i loro soldati. L’opposizione allo sviluppo di robot da guerra in sostituzione dei soldati in carne ed ossa e dei veicoli privi di pilota, è crescente. Nel 2013 un insieme di organizzazioni non governative internazionali ha creato una coalizione chiamata Campaign to Stop Killer Robot, che si dedica a promuovere la proibizione preventiva delle armi autonome considerate come una chiara violazione del diritto internazionale umanitario, di fronte a chi li considera come armi di precisione che hanno solo bisogno di essere regolamentate. Il dibattito ha coinvolto forum internazionali pubblici, inclusa l’ONU.

La divisione a livello internazionale sulle armi autonome

La Cina è stato l’unico membro permanente del Consiglio di Sicurezza dell’ONU a manifestare la necessità di creare una legge internazionale che possa regolamentare le armi autonome letali o LAW; altri tre, USA, Francia e Regno Unito, mantengono una posizione ambigua, anche se hanno proposto di affidare il dibattito ad un gruppo di esperti governativi; la Russia si è rifiutata di entrare nel merito della questione, asserendo che è impossibile legiferare sulle armi autonome quando ancora non esiste una definizione comunemente accettata di ciò che realmente sono. E’ certo che l’ONU può fare ben poco se le grandi potenze si dimostrano reticenti. La maggior parte dei paesi concorda nel continuare a negoziare al fine di giungere ad una regolamentazione soddisfacente, ma solo 19 paesi si sono dichiarati contrari alle LAW; e di questi, solo 5, (Algeria, Messico, Venezuela, Pakistan, Egitto) hanno importanza sulla scena internazionale per ragioni economiche, politiche e demografiche. I politici tentennano. E i militari? Anche. Tuttavia molti di essi sono proclivi allo sviluppo di questi sistemi di armamento, sempre nella misura in cui rispettino le leggi di guerra, siano capaci di distinguere le intenzioni pacifiche o aggressive di un soggetto, discriminare tra un civile inoffensivo ed un terrorista, qualcosa che non risulta facile nemmeno ai soldati più esperti. E’ ovvio che le LAW risulterebbero più efficienti di un soldato umano: non si stancano, non hanno necessità fisiologiche e sono privi di reazioni emotive dettate dalla paura, dall’odio o dalla vendetta. I loro difensori sostengono che, oltre a ridurre il numero di vittime, provocherebbero meno danni collaterali tra le popolazioni civili che le attuali guerre. Inoltre i mercenari meccanici sarebbero molto più economici degli attuali eserciti. Ogni soldato della superpotenza statunitense costa quasi 850 dollari l’anno ai contribuenti del paese.

Gli oppositori basano le loro ragioni su questioni inquietanti come la mancanza di responsabilità in caso di crimini di guerra e l’insufficiente affidabilità dei criteri usati dalla macchina al momento di distinguere tra civili e combattenti. Aggiungono inoltre che il prezzo accessibile di questi dispositivi e l’assenza di vittime, potrebbe aumentare il numero e l’intensità dei conflitti. Il dilemma è solo uno dei tanti che genererà lo sviluppo dell’intelligenza artificiale. La verità è che ancora non si ha idea di come inserire parametri etici in una macchina. Parallelamente alle dispute filosofiche e legali, alcune potenze tecnologicamente avanzate come la Corea del Sud e Israele impiegano già alcuni prototipi, sistemi anti-aerei terrestri o semi-autonomi. Gli USA hanno testato con successo l’X-47B, il primo drone capace di atterrare senza aiuto in una portaerei e rifornirsi in volo senza alcun intervento umano. Quando verrà usato, non sarà necessario che gli operatori lo controllino da terra. Gli obiettivi di ogni missione verranno caricati nel suo computer centrale e la macchina si occuperà di compiere le funzioni, che siano di sorveglianza o attacco. La Russia ha già esibito il suo carro armato T-14, la cui torretta è in grado di funzionare autonomamente; il Regno Unito sviluppa insieme a BAE System il drone semiautomatico Taranis, simile all’ X-47B, con capacità per compiti di vigilanza ed intelligence, ma anche per segnalare obiettivi e attaccarli una volta autorizzato. La Cina mantiene in questo campo la sua opacità abituale, ma gli esperti non dubitano che stanno lavorando alla costruzione di armi di questo tipo.

Una delle principali qualità delle armi autonome che potrebbero convertirle in realtà è il loro costo relativamente basso, rispetto ai soldati in carne ed ossa. Questa caratteristica ha portato gli strateghi di guerre future a immaginare attacchi devastanti senza ricorrere alla precisione delle difese attuali. L’invio di orde di armi autonome o veicoli da combattimento senza pilota contro i nemici, esaurirebbe ben presto le loro munizioni e risorse.

Ma pur essendo più convenienti da selezionare, attrezzare, formare e sostenere le truppe, specialmente quelli che verranno, dotati di esoscheletri e di ogni tipo di sensori, protezione e armi sofisticate, il loro costo deve scendere ancora di più per consentire tale gioia.

Questioni etiche e legali a parte, un altro ostacolo che impedisce al momento lo sviluppo e la diffusione di questi sistemi è l’insufficiente livello dell’intelligenza artificiale. Quando le macchine ci eguaglieranno e ci supereranno intellettualmente, alcuni scienziati ritengono che non avverrà mai, mentre altri sostengono che accadrà tra circa un decennio, forse sarà troppo tardi per reagire e frenarle. Terminator, sta dunque tornando?

Federico Cocco

Ho studiato storia, giornalismo e lingue straniere. Lavoro per diverse testate e collaboro con Il Mattino. Ho scritto per l’Ansa e il Corriere del Mezzogiorno. Politica, economia sono le mie passioni. Questo è il mio blo personale.

Leave a Reply

Your email address will not be published. Required fields are marked *