Ai killer robot non interessa chi muore

Mentre le Nazioni unite e il “Gruppo degli esperti governativi sulle tecnologie emergenti nel settore dei sistemi di armi autonome letali” continuano a discutere, i Killer robot vengono ampiamente utilizzati nei conflitti in corso. Sono sistemi d’arma che utilizzano gli standard più avanzati dell’intelligenza artificiale per colpire strutture e persone senza il controllo, la verifica e la decisione finale da parte di un essere umano.

Ormai da tempo alcune fonti militari israeliane hanno rivelato il largo impiego dei sistemi Lavender e Gospel nella Striscia di Gaza e, si suppone, anche in Libano. Il sistema Lavender utilizza una grande quantità di informazioni che l’intelligence israeliana ha raccolto sui cittadini della Striscia di Gaza nel corso degli anni. Si tratta di dati personali e biometrici raccolti tramite intercettazioni e rilevamenti da droni che riguardano comportamenti (frequentazioni, idee politiche…), modelli di comunicazione, connessioni ai social media e cambi frequenti di indirizzo. A ciascuna/o cittadina/o viene assegnato un punteggio circa la sua potenziale pericolosità.

Il sistema Gospel si comporta allo stesso modo riguardo alle strutture e, in particolare, su quella che viene definita la metropolitana di Gaza, la fittissima rete dei cammini sotterranei.

Ogni qualvolta che Lavender individua un obiettivo pericoloso, invia un impulso che permette il lancio di un missile o altra arma che uccide la persona individuata senza alcun riguardo per le altre che ne vengono coinvolte. È così che siamo arrivati al numero impressionante di vittime che si contano fino ad oggi in quei contesti di guerra. Serve urgentemente quantomeno una legislazione mondiale per la messa al bando delle armi autonome letali.

LASCIA UN COMMENTO