Quando in guerra sarà IA a decidere chi sopravvive

La DARPA avvia un programma militare per sviluppare algoritmi ai quali affidare il triage dei feriti in battaglia. Intanto l’intelligenza artificiale serve già a guidare droni e per l’infowar

Redazione ANSA Roma

Di Alessio Jacona*

Cosa succede se in guerra è l’IA a decidere chi vive e chi muore? Quello che ancora per il momento è ancora solo una riflessione teorica o un dilemma etico, presto potrebbe diventare un problema reale che riguarda ogni aspetto del conflitto: dagli attacchi sferrati contro il nemico, alla gestione dei feriti negli ospedali da campo.

 

L’IA in guerra

Quando si tratta di attaccare, l’intelligenza artificiale ha già un ruolo importante: le Forze Armate ucraine, ad esempio, stanno già utilizzando contro l'esercito russo il TB2 Bayraktar, un veicolo aereo tattico senza equipaggio (cioè un drone) di fabbricazione turca, che può trasportare missili anticarro, che atterra e decolla da solo grazie all'IA, ma che richiede ancora l'intervento umano per attivare le armi. Serve insomma qualcuno che prema il grilletto. Diverso è invece l’utilizzo del Lantset, un “drone kamikaze” russo progettato per attaccare carri armati, colonne di veicoli o concentrazioni di truppe: esso vola in autonomia finché non individua bersaglio pre-impostato e ci si schianta contro, esplodendo. Utilizzato in Siria, in pratica è un proiettile vagante ma intelligente, sempre in attesa di colpire.

 

Più in generale, l’intelligenza artificiale viene già usata in quella che chiamiamo guerra dell'informazione (o infowar), che ruota intorno all’uso delle notizie - vere, o più spesso false e create ad arte - per ottenere obiettivi militari strategici, orientare l’opinione pubblica, creare o incrinare consenso. Oggi la macchina della propaganda può infatti già contare ad esempio sull’utilizzo di reti generative avversarie (o GAN), un sottoinsieme dell'apprendimento automatico in cui due reti neurali antagoniste fondamentalmente combattono e si addestrano a vicenda fino ad arrivare a una conclusione. Il risultato sono fake news di testo, audio e video sempre più credibili, vere e proprie bombe mediatiche che esplodono nel panorama informativo per propagarsi in maniera virale, infettando le coscienze e offuscando il giudizio di tutti. Certo non sono pallottole, ma in un territorio di guerra possono contribuire ad aumentare il numero dei danni e delle vittime.

 

L’IA e il triage dei feriti in battaglia: prendere decisioni “In The Moment”

C’è poi un altro contesto, molto meno scontato, in cui l’IA potrebbe presto trovarsi a dover scegliere chi ha una possibilità di vivere e chi no: la gestione del triage per i feriti in battaglia. In guerra, il personale medico lavora in costante emergenza e accoglie i feriti compiendo continuamente scelte difficili, definendo le priorità di intervento per salvare vite in base a una serie di freddi parametri: gravità delle condizioni, stima della possibilità che il ferito ha di sopravvivere, disponibilità di mezzi e strumenti per intervenire e curarlo. Spesso i medici hanno solo pochi istanti per decidere chi soccorrere per primo, per fare appello alla propria esperienza e compiere scelte dalla responsabilità enorme, ed è per questo che ora la Defense Advanced Research Projects Agency, (o DARPA) il braccio dell'innovazione dell'esercito americano, vorrebbe affidare questa scelta all'intelligenza artificiale.

 

Il progetto si chiama “In The Moment Program”, verrà avviato a breve e mira a sviluppare una tecnologia basata su IA che prenda decisioni rapide in situazioni di stress utilizzando algoritmi e dati. L’idea di base è che la rimozione dei pregiudizi umani può salvare vite, e il progetto servirà a sviluppare e valutare decisori algoritmici affidabili per le operazioni mission-critical del Dipartimento della Difesa (DoD), affinché diventino capaci di sostituirsi all’uomo nel prendere decisioni che non hanno una sola, univoca risposta.

 

Il progetto ITM è solo agli inizi, e probabilmente richiederà tempo per dare risultati utilizzabili in guerra, ma già ora c’è chi esprime forti perplessità di natura etica per l’uso di algoritmi per fare scelte di vita o di morte. Specie considerando che le IA hanno già dimostrato di non essere immuni ai pregiudizi, che peraltro assorbono dagli esseri umani che le programmano e producono i dati su cui si addestrano.

 

*Giornalista, esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale ANSA.it

RIPRODUZIONE RISERVATA © Copyright ANSA