Etica Sgr chiede un regolamento internazionale per i sistemi d’arma autonomi
Insieme a numerosi attori, Etica Sgr denuncia la pericolosità dei i sistemi d’arma autonomi. E chiede che siano regolamentati
In 25 anni di storia, i fondi di Etica Sgr non hanno mai investito in società coinvolte nella produzione, nell’utilizzo, nella manutenzione, nella distribuzione e nello stoccaggio di armi. Che siano armi controverse come mine antiuomo, bombe a grappolo e nucleari o semplici armi convenzionali. Adesso però si apre una nuova sfida. La trasformazione tecnologica in corso nel settore della difesa solleva interrogativi profondi e urgenti, che vanno ben oltre le logiche militari. Tra le innovazioni più controverse, infatti, sono oramai sempre più diffusi i sistemi d’arma autonomi.
Basati su intelligenza artificiale avanzata, gli Autonomous weapon systems (Aws) sono tecnologie capaci di identificare e colpire obiettivi in maniera autonoma, senza un controllo umano diretto nel momento dell’ingaggio. E in questo modo, mettono in discussione i fondamenti stessi del diritto internazionale e, più in generale, dell’etica che dovrebbe guidare ogni scelta riguardante la vita umana.
In un mondo in cui gli algoritmi assumono un ruolo crescente nei processi decisionali, anche in ambiti ad altissimo impatto come la sicurezza e il conflitto armato, ci troviamo di fronte a domande ineludibili. Quale società vogliamo costruire? Siamo pronti ad accettare un mondo in cui le macchine decidono chi deve vivere e chi no? Per questo Etica Sgr ha redatto un report in cui si vuole offrire uno sguardo chiaro su una delle questioni etiche più rilevanti del nostro tempo, per promuovere la consapevolezza della società civile sul tema.
L’assenza di una definizione normativa precisa sui sistemi d’arma autonomi
In assenza di una definizione normativa precisa, si ricorre frequentemente a una classificazione delle armi autonome basata sul livello di controllo umano nel ciclo decisionale. Questa classificazione mostra però importanti limiti. Per questo numerosi studiosi, enti nazionali e internazionali, attori del mondo degli investimenti – tra cui Archivio Disarmo, Rete Italiana Pace e Disarmo, Stop Killer Robots e Etica Sgr – chiedono l’adozione urgente di regole internazionali che impongano il mantenimento di un controllo umano significativo e vietino lo sviluppo e l’impiego di sistemi d’arma completamente autonomi. Almeno fino a quando non sarà possibile dimostrare, con criteri rigorosi e trasparenti, che tali sistemi rispettano in modo affidabile il diritto internazionale umanitario, le norme di responsabilità e la dignità della persona
Come spiega il report, infatti, oggi l’impiego dei sistemi d’arma autonomi non è più confinato alla fase di sperimentazione. Studi accademici e diverse testate giornalistiche mostrano con chiarezza che queste tecnologie sono già impiegate in missioni operative reali. Dall’Ucraina alla Palestina, alle altre zone di guerra globali. In tali contesti si evidenzia sempre più la progressiva disumanizzazione del processo decisionale, per cui il ruolo umano si riduce a un mero supporto tecnico, mentre l’efficienza algoritmica finisce per prevalere sull’etica della responsabilità. E le questioni emerse con l’assegnazione di crescente autonomia alle macchine sollevano seri dubbi sul rispetto del diritto internazionale umanitario e delle leggi a tutela dei diritti umani. Oltre a suscitare profonde preoccupazioni.
Le criticità etiche, tecnico, strategiche e giuridiche dei sistemi d’arma autonomi
Pertanto, per comprendere appieno il significato e la portata dell’impiego dei sistemi d’arma autonomi, è necessario analizzarne le principali implicazioni sotto il profilo etico, tecnico, strategico e giuridico. Sul piano etico, affidare a una macchina la decisione di vita o di morte rappresenta una violazione della dignità umana, in quanto la vittima non ha la possibilità di essere riconosciuta come persona, ma viene ridotta a un semplice oggetto, un bersaglio, un insieme di coordinate e di dati numerici. E questo è dovuto anche a evidenti problemi tecnico-operativi. A partire dal fatto che gli algoritmi sono basati su set di dati incompleti o distorti, che rischiano di generare tecnologie influenzate da evidenti bias.
Ci sono quindi evidenti problemi strategici. Con l’uso dei sistemi d’arma autonomi, la tecnologia rischia infatti di diventare un fattore incentivante dei conflitti. Inoltre, la possibilità di condurre operazioni belliche senza mettere a rischio la vita dei propri soldati può rendere la guerra più “accettabile” e frequente. In questo senso, la tecnologia non funge da deterrente, ma rischia di diventare un fattore incentivante. E quindi, dato che i sistemi d’arma autonomi presentano costi relativamente bassi e requisiti di personale ridotti, rischiano di diventare il propulsore per una ulteriore corsa agli armamenti. E ci sono, infine, serie implicazioni giuridiche.
La campagna Stop Killer Robots
Uno degli aspetti più critici legati all’impiego dei sistemi d’arma autonomi riguarda infatti la loro compatibilità con il diritto internazionale umanitario. In particolare su principi cardine come “distinzione”, che impone di saper distinguere tra obiettivi militari e civili. E “proporzionalità”, che vieta attacchi in cui i danni collaterali previsti risultino eccessivi rispetto al vantaggio militare concreto e diretto. È evidente che questa valutazione, per sua natura, richiede capacità morali e cognitive assenti nelle macchine. Un ulteriore nodo giuridico poi riguarda la “responsabilità”. Chi risponde se i sistemi d’arma autonomi colpiscono un obiettivo illegittimo? O provocano vittime civili?
Le macchine – prive di agency morale e giuridica – non possono essere ritenute responsabili. Si apre così un pericoloso “vuoto di responsabilità”, che mette in crisi il sistema stesso del diritto internazionale umanitario. E mina il principio della rendicontabilità nei conflitti armati. Per questo, come chiede Etica Sgr, è urgente una regolamentazione a livello internazionale. Grazie al ruolo e all’impiego della società civile, con il supporto di oltre duecento organizzazioni in tutto il mondo nel 2013 è stata lanciata la campagna Stop Killer Robots, che ha contribuito a portare il tema nell’agenda diplomatica a livello globale.
Nel 2023 l’Assemblea generale delle Nazioni Unite ha approvato una prima risoluzione storica che ha riconosciuto l’urgenza di affrontare le implicazioni etiche, legali e di sicurezza dei sistemi d’arma autonomi. E il 2 dicembre 2024 ben 166 Stati hanno votato a favore della Risoluzione 79/L.77 sui killer robot, che ribadisce la necessità di avviare negoziati su un trattato internazionale che li vieti, anche se il testo non impone ancora l’avvio formale di negoziati in quanto alcuni Stati, in particolare gli Stati Uniti, si sono dimostrati contrari.
«Non possiamo correre il rischio di lasciar prendere decisioni sulla vita umana a un algoritmo»
Al centro dell’azione della Campagna Stop Killer Robots c’è quindi la richiesta di uno strumento giuridico internazionale vincolante, che vieti i sistemi d’arma autonomi e imponga un controllo umano significativo in tutte le decisioni legate all’uso della forza. Questo al fine di impedire l’automazione delle decisioni che riguardano la vita delle persone, proteggere i diritti umani e il diritto internazionale umanitario, prevenire una corsa globale agli armamenti autonomi, stabilire confini etici per lo sviluppo tecnologico.
Come spiega Francesco Vignarca, coordinatore campagne della Rete Italiana Pace e Disarmo: «Ormai lo sviluppo di sistemi militari ci ha portato a poca distanza da armi con capacità letali in cui le tre fasi di operatività – attivazione iniziale, selezione dell’obiettivo da colpire e decisione finale sull’attacco – sono completamente automatizzate, ovvero indipendenti dalla volontà e dal giudizio umano. Noi crediamo invece che il controllo umano sull’utilizzo di un’arma debba sempre essere significativo. Il rischio sarebbe quello di lasciar prendere decisioni sulla vita umana a un algoritmo che opera a una velocità tale da rendere impossibile il controllo e la verifica da parte delle persone».
«Per questo dobbiamo agire subito», continua Vignarca. «Abbiamo l’occasione unica, nella storia, di non aprire il vaso di Pandora, e dobbiamo avere la possibilità di farlo. Ma ci vuole la volontà politica». Da qui l’urgenza sempre meno differibile, grazie anche a un’ulteriore spinta della società civile, di arrivare alla ratifica di un trattato internazionale che regoli ricerca, sviluppo, adozione e utilizzo dei sistemi d’arma autonomi. Per non svegliarsi un giorno circondati da Killer Robots.




Nessun commento finora.