[Pacifistat] “Lavender”: La macchina di intelligenza artific…

Supprimer ce message

Répondre à ce message
Auteur: Roberto Badel
Date:  
À: pacifistat
Sujet: [Pacifistat] “Lavender”: La macchina di intelligenza artificiale che dirige i bombardamenti di Israele su Gaza

Di Yuval Abraham – +972 Local Call 3 aprile 2024

(traduzione di Federica Riccardi)

"Nel 2021, un libro intitolato “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” (Come creare una sinergia tra intelligenza umana e artificiale che rivoluzionerà il nostro mondo) è stato pubblicato in inglese dietro lo pseudonimo di “Brigadier General Y.S.”. In esso l’autore – un uomo che, come abbiamo confermato, è l’attuale comandante dell’unità d’élite israeliana 8200 – sostiene la necessità di progettare una macchina speciale in grado di elaborare rapidamente enormi quantità di dati per generare migliaia di potenziali “bersagli” da colpire in guerra. Tale tecnologia, scrive, risolverebbe quello che ha descritto come un “collo di bottiglia umano sia per la localizzazione dei nuovi obiettivi che per il processo decisionale di approvazione degli stessi”.

Una macchina del genere, a quanto pare, esiste davvero. Una nuova inchiesta di +972 Magazine e Local Call rivela che l’esercito israeliano ha sviluppato un programma basato sull’intelligenza artificiale noto come “Lavender”, svelato qui per la prima volta. Secondo sei ufficiali dell’intelligence israeliana, che hanno tutti prestato servizio nell’esercito durante l’attuale guerra contro la Striscia di Gaza e sono stati coinvolti in prima persona nell’uso dell’IA per generare obiettivi da assassinare, Lavender ha svolto un ruolo centrale nei bombardamenti senza precedenti contro i palestinesi, soprattutto durante le prime fasi della guerra. Infatti, secondo le fonti, la sua influenza sulle operazioni militari è stata tale da indurre i militari a trattare i risultati della macchina IA “come se si trattasse di una decisione umana”.

Formalmente, il sistema Lavender è progettato per contrassegnare tutti i sospetti operativi delle ali militari di Hamas e della Jihad islamica palestinese (JIP), anche quelli di basso rango, come potenziali obiettivi di attentati. Le fonti hanno riferito a +972 e Local Call che, durante le prime settimane di guerra, l’esercito si è affidato quasi completamente a Lavender, che ha registrato ben 37.000 palestinesi come sospetti militanti – e le loro case – per possibili attacchi aerei.

Durante le prime fasi della guerra, l’esercito diede ampia approvazione agli ufficiali per l’adozione delle liste di bersagli di Lavender, senza alcun obbligo di verificare a fondo il motivo per cui la macchina aveva fatto quelle scelte o di esaminare i dati di intelligence grezzi su cui si basavano. Una fonte ha dichiarato che il personale umano spesso serviva solo come “timbro di garanzia” per le decisioni della macchina, aggiungendo che, di solito, dedicava personalmente solo “20 secondi” a ciascun obiettivo prima di autorizzare un bombardamento – solo per assicurarsi che l’obiettivo contrassegnato da Lavender fosse di sesso maschile. Questo nonostante si sappia che il sistema commette quelli che vengono considerati “errori” in circa il 10% dei casi, e che è noto per contrassegnare occasionalmente individui che hanno solo un legame debole con i gruppi militanti, o nessun legame.

Inoltre, l’esercito israeliano ha sistematicamente attaccato le persone prese di mira mentre si trovavano nelle loro case – di solito di notte, mentre erano presenti tutte le loro famiglie – piuttosto che durante le attività militari. Secondo le fonti, questo avveniva perché, da quello che consideravano un punto di vista di intelligence, era più facile localizzare gli individui nelle loro case private. Altri sistemi automatizzati, tra cui uno chiamato “Where’s Daddy?” (Dov’è papà?), anch’esso rivelato qui per la prima volta, sono stati utilizzati specificamente per rintracciare gli individui presi di mira ed effettuare attentati quando erano entrati nelle loro residenze familiari.

Il risultato, come testimoniato dalle fonti, è che migliaia di palestinesi – la maggior parte dei quali donne e bambini o persone non coinvolte nei combattimenti – sono stati spazzati via dagli attacchi aerei israeliani, soprattutto nelle prime settimane di guerra, a causa delle decisioni del programma di IA.

“Non ci interessava uccidere gli operativi [di Hamas] solo quando si trovavano in un edificio militare o erano impegnati in un’attività militare”, ha dichiarato A., un ufficiale dell’intelligence, a +972 e Local Call. “Al contrario, l’IDF li ha bombardati nelle loro case senza esitazione, come prima opzione. È molto più facile bombardare la casa di una famiglia. Il sistema è costruito per cercarli in queste situazioni”.

La macchina Lavender si aggiunge a un altro sistema di intelligenza artificiale, “The Gospel”, le cui informazioni sono state rivelate in una precedente indagine di +972 e Local Call nel novembre 2023, oltre che nelle pubblicazioni dell’esercito israeliano. Una differenza fondamentale tra i due sistemi è nella definizione del bersaglio: mentre il Gospel contrassegna gli edifici e le strutture da cui, secondo l’esercito, operano i militanti, Lavender contrassegna le persone – e le inserisce in una lista di obiettivi da uccidere.

Inoltre, secondo le fonti, quando si trattava di colpire i presunti militanti junior segnalati da Lavender, l’esercito preferiva usare solo “dumb bombs”, comunemente noti come bombe non-guidate (in contrasto con le bombe di precisione “intelligenti”), che possono distruggere interi edifici con i loro occupanti e causare vittime significative. “Non si vogliono sprecare bombe costose per persone non importanti – è molto costoso per il Paese e c’è una carenza [di queste bombe]”, ha detto C., uno degli ufficiali dell’intelligence. Un’altra fonte ha dichiarato di aver autorizzato personalmente il bombardamento di “centinaia” di case private di presunti agenti minori segnalati da Lavender, con molti di questi attacchi che hanno ucciso civili e intere famiglie come “danni collaterali”.

In una mossa senza precedenti, secondo due delle fonti, l’esercito ha anche deciso durante le prime settimane di guerra che, per ogni giovane agente di Hamas contrassegnato da Lavender, era permesso uccidere fino a 15 o 20 civili; in passato, l’esercito non autorizzava alcun “danno collaterale” per l’assassinio di militanti di basso rango. Le fonti hanno aggiunto che, nel caso in cui l’obiettivo fosse un alto funzionario di Hamas con il grado di comandante di battaglione o di brigata, l’esercito ha autorizzato in diverse occasioni l’uccisione di più di 100 civili per l’assassinio di un singolo comandante.

La seguente indagine è organizzata secondo le sei fasi cronologiche della produzione di bersagli altamente automatizzati da parte dell’esercito israeliano nelle prime settimane della guerra di Gaza. In primo luogo, spieghiamo la macchina Lavender stessa, che ha marcato decine di migliaia di palestinesi utilizzando l’intelligenza artificiale. In secondo luogo, riveliamo il sistema Where’s Daddy? , che traccia questi obiettivi e segnala all’esercito quando entrano nelle case famigliari. In terzo luogo, descriviamo come sono state scelte le bombe non-guidate per colpire queste case.

In quarto luogo, spieghiamo come l’esercito abbia ampliato il numero di civili che potevano essere uccisi durante il bombardamento di un obiettivo. In quinto luogo, notiamo come un software automatico abbia calcolato in modo impreciso la quantità di non combattenti in ogni famiglia. In sesto luogo, mostriamo come in diverse occasioni, quando una casa è stata colpita, di solito di notte, l’obiettivo individuale a volte non era affatto all’interno, perché gli ufficiali militari non verificano le informazioni in tempo reale."

Leggi tutto su:
[ https://urlsand.esvalabs.com/?u=https%3A%2F%2Fpagineesteri.it%2F2024%2F04%2F05%2Fmedioriente%2Flavender-la-macchina-di-intelligenza-artificiale-che-dirige-i-bombardamenti-di-israele-su-gaza%2F&e=2637b01d&h=b5e45c04&f=y&p=y | https://pagineesteri.it/2024/04/05/medioriente/lavender-la-macchina-di-intelligenza-artificiale-che-dirige-i-bombardamenti-di-israele-su-gaza/ ]