AI Act, l'Europarlamento tiene
Cosa prevede l'attuale formulazione della legge
Il 14 giugno il Parlamento Ue ha approvato le modifiche alla bozza del 
regolamento noto come Artificial Intelligence Act o AI Act. Con 499 voti 
a favore, 28 contro e 93 astensioni, e una coalizione composta da 
Socialisti e Democratici, Democratici Cristiani del PPE, liberali di 
Renew e Verdi, l’approvazione del regolamento entra dunque nella sua 
fase finale, cioè nei successivi triloghi tra Parlamento, Consiglio e 
Commissione, per arrivare a un’approvazione definitiva prima delle 
elezioni europee del giugno 2024 (e un’entrata in vigore effettiva 
prevista attualmente per il 2026) (qui gli emendamenti approvati 
<
https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html>, 
qui la proposta di regolamento 
<
https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206>).
Ma il dato fondamentale è quale testo abbia ricevuto l’imprimatur degli 
europarlamentari. Che malgrado diverse pressioni (incluse quelle da 
Oltreoceano), le richieste in senso più sicuritario della Commissione e 
l’intervento negli ultimi giorni di membri del centrodestra del partito 
popolare europeo (PPE) che volevano fare concessioni sul riconoscimento 
facciale, ha tenuto il punto su una serie di questioni fondamentali.
*No al riconoscimento facciale in tempo reale*
Perché nella formulazione attuale 
<
https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai>restano 
vietati:
- i sistemi di identificazione biometrica remota "in tempo reale" in 
spazi accessibili al pubblico;
-i sistemi di identificazione biometrica a distanza "a posteriori", con 
l'unica eccezione delle forze dell'ordine per il perseguimento di reati 
gravi e solo previa autorizzazione giudiziaria;
- i sistemi di categorizzazione biometrica che utilizzano 
caratteristiche sensibili (ad esempio, sesso, razza, etnia, 
cittadinanza, religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profili, ubicazione o 
comportamenti criminali passati);
-  i sistemi di riconoscimento delle emozioni nelle forze dell'ordine, 
nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni 
scolastiche;
- lo scraping non mirato di immagini facciali da Internet o da filmati 
di telecamere a circuito chiuso per creare database di riconoscimento 
facciale (in violazione dei diritti umani e del diritto alla privacy).
*The Italian job
*Non è invece passato il tentativo di alcuni europarlamentari del gruppo 
politico del PPE che volevano togliere il ban sul riconoscimento 
facciale per casi di lotta al crimine, al terrorismo e per ricerca di 
bambini scomparsi e, secondo il Guardian 
<
https://www.theguardian.com/technology/2023/jun/14/eu-moves-closer-to-passing-one-of-worlds-first-laws-governing-ai>, 
la “ribellione” contro i precedenti accordi non avrebbe preso piede 
anche considerato che un certo numero di europarlamentari erano in 
Italia al funerale di Silvio Berlusconi.
Sta di fatto che la Commissione e diversi leader europei tenteranno di 
ridurre il divieto totale e l’esito di questi giorni non può darsi per 
scontato. Ma oggi chi ha voluto questa legge - a partire dai due 
correlatori, di cui uno, Brando Benifei, italiano - può cantare vittoria 
- anche se lo stesso Benifei, in un’intervista per un articolo sull’AI 
Act pubblicato su Guerre di Rete 
<
https://www.guerredirete.it/la-legge-sullintelligenza-artificiale-in-europa-e-a-una-svolta/>(vedi 
più sotto), riconosce che ci sarà battaglia. “Sarà un negoziato 
probabilmente difficile”, precisa. “Il Parlamento Europeo [sulle 
tematiche legate alla sicurezza] ha una visione diversa rispetto a 
quella che probabilmente avranno molti Governi”.
“Il tentativo del PPE di rompere l'accordo sul divieto di riconoscimento 
facciale è fallito - ha poi dichiarato Benifei nella conferenza stampa 
<
https://multimedia.europarl.europa.eu/en/webstreaming/press-conference-by-roberta-metsola-ep-president-brando-benifei-and-dragos-tudorache-rapporteurs-on_20230614-1400-SPECIAL-PRESSER>del 
14 giugno, che ho seguito - I risultati di oggi danno una posizione 
forte al parlamento che non vuole recedere sul divieto di sorveglianza 
di massa”.
*ChatGPT e l’AI generativa
*Altra questione centrale, l’AI generativa (la carica di ChatGPT e gli 
altri). La posizione adottata è la seguente 
<
https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai>: 
i fornitori di modelli di base (foundation models, come GPT3 o GPT4, che 
stanno alla base di servizi come ChatGPT, ndr) devono valutare e 
mitigare i possibili rischi (per la salute, la sicurezza, i diritti 
fondamentali, l'ambiente, la democrazia e lo stato di diritto) e 
registrare i loro modelli nella banca dati dell'UE prima della loro 
immissione sul mercato. Inoltre devono rispettare i requisiti di 
trasparenza (rivelando che il contenuto è stato generato da una AI, e 
aiutando a distinguere contenuti deepfake da quelli reali) e dare 
garanzie contro la generazione di contenuti illegali. Dovranno infine 
essere disponibili al pubblico dei riepiloghi dettagliati dei dati 
protetti da copyright utilizzati per l'addestramento del modello.
“Prendiamo molto sul serio l'AI generativa e riteniamo che vi siano dei 
rischi intrinseci, e non solo nel modo in cui viene utilizzata, a 
partire dai dati usati per l'addestramento”, ha dichiarato sempre in 
conferenza stampa l’altro correlatore, il rumeno Dragos Tudorache.
*Cosa significa in concreto per ChatGPT?*
“ChatGPT, se la legislazione entrasse in vigore domani, dovrebbe essere 
trasparente sui dataset che ha utilizzato per l'addestramento e sui 
parametri”, ha continuato Tudorache. “Dovrebbe dimostrare che nello 
sviluppo ha considerato la liceità dei contenuti che produce, e dovrebbe 
rivelare il materiale protetto da copyright utilizzato, e documentarlo, 
essere trasparente su questo”.
Non solo: secondo Benifei, bisognerebbe considerare una implementazione 
dell’AI Act più veloce rispetto a quella attualmente preventivata, 
specie riguardo i sistemi di AI generativa.
In quanto alla capacità di applicare il regolamento da parte dell’Ue, 
Benifei cita la possibilità di richiedere informazioni alle aziende e, 
se insoddisfatti, di imporre il ritiro di una determinata applicazione 
dal mercato, o di arrivare a comminare multe fino al 7 per cento del 
fatturato.
*Rimasti fuori i diritti dei migranti e la gestione frontiere
*Quello che invece non è passato è il divieto di queste tecnologie per 
il controllo delle frontiere e dei migranti. Lo spiega bene *Irene 
Doda*in un articolo su Guerre di Rete (La legge sull’intelligenza 
artificiale in Europa è a una svolta 
<
https://www.guerredirete.it/la-legge-sullintelligenza-artificiale-in-europa-e-a-una-svolta/>) 
uscito il giorno prima dell’approvazione dell’AI Act. Su questo le Ong 
per i diritti digitali registrano una delusione. Dal pezzo di Irene:
““Il Parlamento europeo non è riuscito a proteggere i diritti dei 
migranti dalla sorveglianza discriminatoria. Gli eurodeputati non hanno 
incluso nell’elenco delle pratiche vietate l’uso dell’intelligenza 
artificiale per facilitare i respingimenti illegali o per profilare gli 
individui in modo discriminatorio. Senza questi divieti, il Parlamento 
europeo sta aprendo la strada all’utilizzo di un panopticon alle 
frontiere dell’UE”, si legge ancora nella dichiarazione di EDRi.
Il tema sarà anche probabilmente molto dibattuto in fase di negoziazioni 
interistituzionali, con l’organo co-legislativo (il Consiglio, composto 
dai ministri competenti degli Stati Membri) che premerà per introdurre 
delle eccezioni per quanto riguarda le forze di polizia e l’applicazione 
delle politiche migratorie”.
*La tentazione sorveglianza resta nel mondo*
L’AI Act arriva dunque a un primo importante giro di boa proprio mentre 
in Europa e altrove la tentazione e la volontà di usare AI e altre 
tecnologie per il controllo non sembra avere freni. Lo racconta bene 
*Eleonora Zocca*in un altro articolo recente di Guerre di Rete 
(intitolato Tentazione sorveglianza biometrica 
<
https://www.guerredirete.it/tentazione-sorveglianza-biometrica/>):
“Negli stessi giorni in cui l’AI Act veniva approvato dalle Commissioni 
europee, la Franciaautorizzava 
<
https://www.francebleu.fr/infos/faits-divers-justice/migrants-la-prefecture-des-alpes-maritimes-autorise-la-surveillance-de-la-frontiere-italienne-par-drones-9908088>l’uso 
di droni per la “cattura, registrazione e trasmissione di immagini” al 
fine di contrastare i passaggi irregolari al confine con l’Italia. 
Secondo la prefettura, quella dei droni è “la migliore soluzione” nonché 
il dispositivo “meno intrusivo”.
A utilizzarli nel Mediterraneo c’è anche Frontex, l’agenzia europea 
della guardia di frontiera e costiera, secondo cui la sorveglianza aerea 
è utile per salvare le persone in mezzo al mare e catturare i 
trafficanti.Un’indagine 
<
https://www.hrw.org/news/2022/08/01/eus-drone-another-threat-migrants-and-refugees>di 
Human Rights Watch e Border Forensics ha però dimostrato come Frontex 
abbia utilizzato i droni per individuare le barche dei migranti e 
segnalarle alla Guardia costiera libica.
Nel Regno Unito, invece, l’organizzazione Privacy Internationalha 
denunciato 
<
https://privacyinternational.org/long-read/5063/who-profits-uks-247-tracking-migrants>l’utilizzo 
di braccialetti elettronici con rilevatore GPS che i migranti devono 
indossare 24 ore su 24, 7 giorni su 7. La rilevazione costante della 
localizzazione diventa per le autorità competenti uno strumento per 
decidere, ad esempio, se concedere o meno il diritto di asilo o un 
permesso di soggiorno”
*Vestager sull’AI Act: più urgente il rischio di discriminazione di 
quello esistenziale*
A tutto ciò va aggiunta la dichiarazione della commissaria europea per 
la concorrenza, Margrethe Vestager. In un'intervista alla BBC 
<
https://www.bbc.com/news/technology-65881389>, Vestager ha detto di 
ritenere che il potenziale dell'AI di amplificare i pregiudizi o le 
discriminazioni, che possono essere contenuti nelle vaste quantità di 
dati provenienti da Internet e utilizzati per addestrare modelli e 
strumenti, sia una preoccupazione più pressante di possibili “rischi 
esistenziali”. E per andare nel concreto ha aggiunto: “Se si tratta di 
una banca che la usa per decidere se si possa ottenere un mutuo o meno, 
o se si tratta dei servizi sociali del vostro comune, allora volete 
essere sicuri che non sarete discriminati a causa del vostro sesso, del 
vostro colore o del vostro codice postale".