Chiamateli robot-killer, armi non convenzionali, eserciti robotici o armamenti a guida (e decisione?) autonoma, ma il dato
di fatto che anche il settore militare sta vivendo una grande trasformazione tecnologica, la terza “rivoluzione” dopo la
polvere da sparo e le armi nucleari. Che poi quella trainata dall’intelligenza artificiale. Proprio questa settimana la
Cina ha tuonato contro gli Stati Uniti dopo che Donald Trump ha messo l’intelligenza artificiale in testa alle priorit degli
investimenti e dell’innovazione dell’amministrazione Usa. Pechino non ha usato mezzi termini: il Global Times, tabloid vicino al Governo, ha messo in guardia per quello che potrebbe rappresentare il lancio formale di una Guerra fredda
tecnologica.

Neanche in occasione della decisione della Casa Bianca di ritirarsi dal trattato nucleare che rischia di far partire una corsa
al riarmo, Pechino aveva usato toni cos perentori.


D’altra parte le intenzioni di Trump non sono molto pacifiche. Nello stesso giorno dell’annuncio di Trump il Pentagono ha
pubblicato un rapporto strategico dal titolo piuttosto esplicito: “Harnessing AI to advance our security and prosperity”,
in cui si sottolinea che le macchine impatteranno su ogni singolo settore della difesa e che diventa urgente comprendere come
l’Ai potr contribuire al miglioramento della sicurezza comune .

Evoluzione poco intelligente
Dai carri armati a guida autonoma ai droni fino ai sommergibili senza guidatore sperimentati recentemente dai cinesi, l’intelligenza
artificiale sta entrando in ogni singola arma con la prospettiva, per il momento lontana (ma neanche troppo) di eserciti fatti
solo da robot. A oggi sono una trentina i paesi che utilizzano sistemi automatizzati, per il momento prevalentemente in ambito
difensivo, utilizzati quindi per proteggere al meglio navi, mezzi sul terreno o basi da attacchi missilistici, per fare un
esempio. L’ambito di applicazione potrebbe estendersi rapidamente, di concerto con l’evoluzione delle tecnologie a base di
Ai.


Ed altrettanto evidente che, ancor di pi parlando di mezzi militari offensivi, mirati a colpire il nemico con le minori
perdite possibili, la tecnologia si incrocia con i temi etici che deve affrontare l’umano nello sviluppo delle applicazioni
civili, a partire dai meccanismi di guida autonoma dei veicoli. In caso di emergenza, per fare un esempio, i “robot-killer”
potranno avere la possibilit di agire direttamente senza attendere il comando umano. E di chi sarebbe la responsabilit se
in una situazione del genere l’arma andasse a colpire dei civili?

Un trattato per il divieto
Negli ultimi anni si moltiplicano le iniziative per mettere un limite al proliferare di armi robotiche automatiche. L’associazione
Campaign to stop killer robots, che raggruppa quasi un centinaio di organizzazioni non governative, riuscita a catalizzare il sostegno di 28 governi con
l’obiettivo di inserire questo tipo di armi all’interno delle fattispecie prevista dalla Convention on Certain Conventional Weapons, che in italiano potremmo tradurre come Convezione sulle armi non convenzionali, quelle ritenute particolarmente dannose
e con effetti indiscriminati, tra cui mine, armi laser o incendiarie, come il napalm.


All’appello mancano per protagonisti di primo piano del panorama militare globale, tra cui Stati Uniti, Russia e Israele,
il che condiziona pesantemente le possibilit di un accordo che blocchi lo sviluppo di dispositivi militari”intelligenti”,
prima che sia troppo tardi. Si stanno esplorando modalit alternative, portando la questione all’Assemblea generale delle
Nazioni Unite, oppure trovare un accordo al di fuori del consesso Onu, come gi successo per il Trattato contro le mine anti-uomo
e quello per la Proibizione delle armi nucleari. Ma sono tutti casi che sono diventati rilevanti pi per i paesi che non hanno
aderito che per quelli che hanno partecipato alla messa al bando.

© Riproduzione riservata



Sorgente – ilsole24ore.com