I sistemi di intelligenza artificiale che dirigono i raid di Israele a Gaza
Secondo un'inchiesta, Israele userebbe l'intelligenza artificiale per colpire le vittime nella Striscia di Gaza senza supervisione umana
Se c’è una guerra in cui l’intelligenza artificiale sta dimostrando tutta la sua asettica brutalità, è quella in corso nella Striscia di Gaza. Difficile stabilire quando Israele ha impiegato l’AI per la prima volta contro i palestinesi. Quel che si sa è che già nel 2021 l’esercito di Tel Aviv ha utilizzato i primi sciami di droni in risposta agli attacchi di Hamas. Non si conoscono i dettagli di quell’operazione, se non che si trattava di droni da nove chili (il modello Thor prodotto da Elbit Systems) e che hanno effettuato tutte le fasi della missione, dal riconoscimento alla tipizzazione vera e propria. Probabilmente sotto sorveglianza del comando militare.
Cos’è cambiato con il programma Lavender dell’esercito israeliano
Ma se fino ad adesso il controllo umano è sempre stato presente, dal 7 ottobre 2023, giorno dell’assalto di Hamas, le cose sono cambiate. Un’inchiesta di Yuval Abraham per +972 Magazine e Local Call ha rivelato che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come Lavender. Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra contro la Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’intelligenza artificiale per generare obiettivi da assassinare, Lavender ha svolto un ruolo centrale e senza precedenti nei bombardamenti. Infatti, secondo le fonti, la sua influenza nelle operazioni militari è stata tale da indurre i militari a trattare i risultati dell’IA «come se si trattasse di una decisione umana».
Le fonti hanno riferito a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha registrato ben 37mila palestinesi come sospetti militanti. E le loro case obiettivi per possibili attacchi aerei. Una fonte ha dichiarato che il personale umano spesso serviva solo come «timbro di approvazione» per le decisioni della macchina. Aggiungendo che, di solito, dedicava personalmente solo «20 secondi» a ciascun obiettivo prima di autorizzare un bombardamento. Il tempo di assicurarsi solo che l’obiettivo contrassegnato da Lavender fosse di sesso maschile.
Questo nonostante si sappia che il sistema commette errori in circa il 10% dei casi. Inoltre, è noto per bollare occasionalmente individui che hanno solo un legame debole con i gruppi militanti, o addirittura nessun legame diretto. Gli attacchi venivano condotti con munizioni non guidate note come dumb bomb (“bomba stupida”) che distruggono intere abitazioni insieme a tutti i suoi abitanti. «Non conviene sprecare bombe costose per persone poco importanti», è stato il commento di un ufficiale dell’intelligence.
IA e conflitti
L’Ucraina, il laboratorio dell’intelligenza artificiale nei conflitti
L’invasione dell’Ucraina ha rappresentato un terreno di test per le nuove tecnologie basate sull’intelligenza artificiale
Migliaia di palestinesi attaccati mentre sono in casa con le loro famiglie
Inoltre, l’esercito israeliano ha sistematicamente attaccato le persone mentre si trovavano nelle loro case – di solito di notte, alla presenza dei loro familiari – piuttosto che durante le attività militari. Altri sistemi automatizzati, tra cui uno chiamato “Where is daddy?”, erano usati specificamente per rintracciare gli individui presi di mira e per effettuare attentati quando erano entrati nelle loro residenze.
La prova di questa politica è evidente anche dai dati. Durante il primo mese di guerra, insieme a 6.120 persone uccise, sono morte 1.340 famiglie intere. Nell’attuale guerra, la percentuale di nuclei bombardati nelle loro case è molto più alta rispetto all’operazione israeliana del 2014 a Gaza (che in precedenza era stata la guerra più letale di Israele nella Striscia). Il che suggerisce ulteriormente l’importanza dei mezzi automatici impiegati in questo frangente.
Il ruolo umano nella selezione degli obiettivi è sempre meno rilevante
Prima del 7 ottobre, la decisione di “incriminare” un individuo veniva discussa e poi approvata con i consulenti legali. Ma ora le cose sono drasticamente cambiate: i comandanti ora vogliono un flusso costante di obiettivi. Un’altra fonte riportata da +972 e Local Call ha rivelato che, ogni volta che il ritmo degli omicidi diminuiva, venivano caricati altri obiettivi in sistemi come “Where’s Daddy?” per individuare nuovi bersagli da bombardare nelle loro case. Inoltre, a decidere chi inserire nei sistemi di localizzazione erano ufficiali di grado relativamente basso nella gerarchia militare. «Un giorno, di mia spontanea volontà, ho aggiunto qualcosa come 1.200 nuovi obiettivi al sistema [di tracciamento], perché il numero di attacchi [che stavamo conducendo] era diminuito», ha detto la fonte. «Ci dicevano: ora dobbiamo disintegrare Hamas, a qualunque costo. Bombardate tutto quello che si può».
Il ruolo umano nel processo di selezione dei bersagli sarebbe stato insomma poco rilevante: anche alcuni minorenni sono stati contrassegnati da Lavender come obiettivi per i bombardamenti. Di solito le persone scelte dal sistema hanno più di 17 anni, ma questa non è una conditio sine qua non. Secondo l’inchiesta, l’esercito avrebbe anche deciso che per ogni agente di Hamas di basso livello targettizzato da Lavender si poteva accettare l’uccisione di 15 o 20 civili. In passato, l’esercito non autorizzava alcun “danno collaterale” durante l’assassinio di militanti di basso rango. Nel caso di un alto funzionario, il numero di civili che si possono sacrificare sale a 100.
The Gospel, l’altro sistema di intelligenza artificiale usato a Gaza
Lavender si unisce a un altro sistema di intelligenza artificiale, The Gospel. La differenza fondamentale tra i due sistemi sta nella definizione dell’obiettivo. Mentre il primo contrassegna le persone e le inserisce in una lista di target da uccidere, una vera e propria kill list, The Gospel si limita a contrassegnare gli edifici e le strutture da distruggere.
«Attraverso l’utilizzo di questi potenti sistemi di intelligenza artificiale, Israele è entrato nel territorio inesplorato delle guerre d’avanguardia. Sollevando una serie di questioni legali e morali e trasformando il rapporto tra personale militare e macchine», scrivono i giornalisti Bethan McKernan e Harry Davies sul Guardian, che ha co-pubblicato in anteprima l’inchiesta di +972 e Local Call. I reporter fanno riferimento al fatto che, come confermato dalle fonti, gli ufficiali hanno più fiducia in un «meccanismo informato» che in un soldato in lutto che magari ha perso qualche persona cara nell’attentato del 7 ottobre. La macchina agisce freddamente e questo, per le forze militari israeliane, è un vantaggio.
Da parte sua, il corpo militare isrealiano nega qualsiasi accusa. Attraverso una nota, dice che non esiste una policy che ammetta l’uccisione di decine di migliaia di persone nelle loro case. Lavender, poi, sarebbe solamente un database utilizzato «per incrociare le fonti di intelligence» e non «un elenco di operativi militari confermati».
La nuova guerra fredda
L’intelligenza artificiale prepara la guerra fredda del nuovo millennio
Lo sviluppo dell’intelligenza artificiale per scopi militari è il cuore del nuovo scontro tra Stati Uniti e Cina
La diffusa preoccupazione per l’uso dell’intelligenza artificiale nei conflitti, a Gaza e non solo
«Questa inchiesta, se confermata nei dettagli, apre interrogativi enormi e inquietanti sul ruolo che i sistemi di intelligenza artificiale stanno assumendo o potranno assumere in guerra. Sistemi che tendono già a essere delle scatole nere per come sono progettati e funzionano. E che, specie in scenari di conflitto, diventano ancora più opachi, privi di controlli o audit esterni», spiega Carola Frediani, esperta di cybersicurezza e autrice di “Guerre di Rete”.
La coalizione Stop Killer Robots (la stessa che chiede una legge internazionale sul tema) ha pubblicato un commento in cui dice di «trovare profondamente preoccupanti, da un punto di vista legale, morale e umanitario, le notizie sull’uso da parte di Israele di sistemi di raccomandazione dei bersagli nella Striscia di Gaza. Sebbene il sistema Lavender, come il sistema Habsora/Gospel, non sia un’arma autonoma, entrambi sollevano serie preoccupazioni sull’uso crescente dell’intelligenza artificiale nei conflitti, sui pregiudizi dell’automazione (automation bias), sulla disumanizzazione digitale e sulla perdita del controllo umano nell’uso della forza».
Scarica il dossier L’intelligenza artificiale va al fronte in formato PDF o ePub.