Finanza etica

Killer robots: a rischio i diritti fondamentali

Dibattito acceso e un rapporto di HRW alla vigilia di una importante discussione alle Nazioni unite sulle questioni giuridiche legate all’impiego militare di robot ...

Di Corrado Fontana


Paura per i killer robots e i droni autonomi ad uso militare. E così domani al Consiglio sui diritti umani delle Nazioni unite (UN Human Rights Council) verrà ascoltato come relatore speciale Christoph Heyns, professore di legislazione dei diritti umani e condirettore dell’Istituto di diritto internazionale e comparato all’Università di Pretoria, per un aggiornamento sul tema delle esecuzioni extragiudiziali, sommarie o arbitrarie.

Argomento purtroppo d’attualità e prepotentemente penetrato nella discussione sempre più estesa, a livello internazionale, sull’uso a scopo di robot cosiddetti autonomi in campo militare o dagli organi di pubblica sicurezza (avete già letto il dossier di copertina di Valori di giugno, “Futuro umanoide”?). A preoccuparsi del tema  anche sotto il punto di vista giuridico, rilanciato ad esempio dalla pubblicazione «Jurist», curata dalla scuola di diritto dell’Università di Pittsbourgh, diversi soggetti istituzionali, scientifici e della società civile.

L’ong Human Rights Watch e la International Human Rights Clinic della Harvard Law School stanno infatti chiedendo un divieto preventivo sulle armi completamente autonome e sostengono una campagna per la loro moratoria internazionale (Stop Killer Robots) con una coalizione globale di 52 organizzazioni non governative. L’obiettivo è quello di allargare le platee di discussione dall’ambito più legato all’ attivismo pacifista alle istituzioni internazionali: un traguardo centrato, ad esempio, in occasione della recente 4 giorni sui “sistemi autonomi d’armamento letali” tenuta dai Paesi aderenti alla Convenzione sulle armi convenzionali (CCW).

HRW, che sull’argomento ha pubblicato il rapporto Shaking the Foundations,   denuncia che queste armi potrebbero compromettere il diritto alla vita sotto il profilo del diritto internazionale, che vieta la privazione arbitraria della vita ed è un prerequisito per tutti gli altri diritti. “Per essere lecita, l’uccisione deve essere necessaria, soluzione estrema e proporzionata alla minaccia in questione. I robot sarebbero poco adatti per stabilire se una situazione soddisfa questi criteri, che richiedono determinazioni qualitative.

Le armi non possono essere pre-programmate per gestire ogni situazione […] Le armi completamente autonome potrebbero anche negare il diritto a un risarcimento. Ci sono seri dubbi che qualsiasi responsabilità significativa sarebbe attribuibile per le azioni di tali armi. Punire un robot non è certo un’opzione…”, scrive Bonnie Docherty, ricercatore della divisione Armi di HRW e docente di diritto presso l’International Human Rights Clinic di Harvard.

Iscriviti alla newsletter

Il meglio delle notizie di finanza etica ed economia sostenibile