[peer_to_peer] INTELLIGENZA ARTIFICIALE Cosa prevede l'attua…

Delete this message

Reply to this message
Autor: 
Data:  
Para: peer_to_peer
Assunto: [peer_to_peer] INTELLIGENZA ARTIFICIALE Cosa prevede l'attuale formulazione della legge

AI Act, l'Europarlamento tiene

Cosa prevede l'attuale formulazione della legge


Il 14 giugno il Parlamento Ue ha approvato le modifiche alla bozza del
regolamento noto come Artificial Intelligence Act o AI Act. Con 499 voti
a favore, 28 contro e 93 astensioni, e una coalizione composta da
Socialisti e Democratici, Democratici Cristiani del PPE, liberali di
Renew e Verdi, l’approvazione del regolamento entra dunque nella sua
fase finale, cioè nei successivi triloghi tra Parlamento, Consiglio e
Commissione, per arrivare a un’approvazione definitiva prima delle
elezioni europee del giugno 2024 (e un’entrata in vigore effettiva
prevista attualmente per il 2026) (qui gli emendamenti approvati
<https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.html>,
qui la proposta di regolamento
<https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206>).
Ma il dato fondamentale è quale testo abbia ricevuto l’imprimatur degli
europarlamentari. Che malgrado diverse pressioni (incluse quelle da
Oltreoceano), le richieste in senso più sicuritario della Commissione e
l’intervento negli ultimi giorni di membri del centrodestra del partito
popolare europeo (PPE) che volevano fare concessioni sul riconoscimento
facciale, ha tenuto il punto su una serie di questioni fondamentali.

*No al riconoscimento facciale in tempo reale*
Perché nella formulazione attuale
<https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai>restano
vietati:

- i sistemi di identificazione biometrica remota "in tempo reale" in
spazi accessibili al pubblico;
-i sistemi di identificazione biometrica a distanza "a posteriori", con
l'unica eccezione delle forze dell'ordine per il perseguimento di reati
gravi e solo previa autorizzazione giudiziaria;
- i sistemi di categorizzazione biometrica che utilizzano
caratteristiche sensibili (ad esempio, sesso, razza, etnia,
cittadinanza, religione, orientamento politico);
- i sistemi di polizia predittiva (basati su profili, ubicazione o
comportamenti criminali passati);
-  i sistemi di riconoscimento delle emozioni nelle forze dell'ordine,
nella gestione delle frontiere, nei luoghi di lavoro e nelle istituzioni
scolastiche;
- lo scraping non mirato di immagini facciali da Internet o da filmati
di telecamere a circuito chiuso per creare database di riconoscimento
facciale (in violazione dei diritti umani e del diritto alla privacy).

*The Italian job
*Non è invece passato il tentativo di alcuni europarlamentari del gruppo
politico del PPE che volevano togliere il ban sul riconoscimento
facciale per casi di lotta al crimine, al terrorismo e per ricerca di
bambini scomparsi e, secondo il Guardian
<https://www.theguardian.com/technology/2023/jun/14/eu-moves-closer-to-passing-one-of-worlds-first-laws-governing-ai>,
la “ribellione” contro i precedenti accordi non avrebbe preso piede
anche considerato che un certo numero di europarlamentari erano in
Italia al funerale di Silvio Berlusconi.
Sta di fatto che la Commissione e diversi leader europei tenteranno di
ridurre il divieto totale e l’esito di questi giorni non può darsi per
scontato. Ma oggi chi ha voluto questa legge - a partire dai due
correlatori, di cui uno, Brando Benifei, italiano - può cantare vittoria
- anche se lo stesso Benifei, in un’intervista per un articolo sull’AI
Act pubblicato su Guerre di Rete
<https://www.guerredirete.it/la-legge-sullintelligenza-artificiale-in-europa-e-a-una-svolta/>(vedi
più sotto), riconosce che ci sarà battaglia. “Sarà un negoziato
probabilmente difficile”, precisa. “Il Parlamento Europeo [sulle
tematiche legate alla sicurezza] ha una visione diversa rispetto a
quella che probabilmente avranno molti Governi”.

“Il tentativo del PPE di rompere l'accordo sul divieto di riconoscimento
facciale è fallito - ha poi dichiarato Benifei nella conferenza stampa
<https://multimedia.europarl.europa.eu/en/webstreaming/press-conference-by-roberta-metsola-ep-president-brando-benifei-and-dragos-tudorache-rapporteurs-on_20230614-1400-SPECIAL-PRESSER>del
14 giugno, che ho seguito - I risultati di oggi danno una posizione
forte al parlamento che non vuole recedere sul divieto di sorveglianza
di massa”.

*ChatGPT e l’AI generativa
*Altra questione centrale, l’AI generativa (la carica di ChatGPT e gli
altri). La posizione adottata è la seguente
<https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai>:
i fornitori di modelli di base (foundation models, come GPT3 o GPT4, che
stanno alla base di servizi come ChatGPT, ndr) devono valutare e
mitigare i possibili rischi (per la salute, la sicurezza, i diritti
fondamentali, l'ambiente, la democrazia e lo stato di diritto) e
registrare i loro modelli nella banca dati dell'UE prima della loro
immissione sul mercato. Inoltre devono rispettare i requisiti di
trasparenza (rivelando che il contenuto è stato generato da una AI, e
aiutando a distinguere contenuti deepfake da quelli reali) e dare
garanzie contro la generazione di contenuti illegali. Dovranno infine
essere disponibili al pubblico dei riepiloghi dettagliati dei dati
protetti da copyright utilizzati per l'addestramento del modello.

“Prendiamo molto sul serio l'AI generativa e riteniamo che vi siano dei
rischi intrinseci, e non solo nel modo in cui viene utilizzata, a
partire dai dati usati per l'addestramento”, ha dichiarato sempre in
conferenza stampa l’altro correlatore, il rumeno Dragos Tudorache.

*Cosa significa in concreto per ChatGPT?*
“ChatGPT, se la legislazione entrasse in vigore domani, dovrebbe essere
trasparente sui dataset che ha utilizzato per l'addestramento e sui
parametri”, ha continuato Tudorache. “Dovrebbe dimostrare che nello
sviluppo ha considerato la liceità dei contenuti che produce, e dovrebbe
rivelare il materiale protetto da copyright utilizzato, e documentarlo,
essere trasparente su questo”.
Non solo: secondo Benifei, bisognerebbe considerare una implementazione
dell’AI Act più veloce rispetto a quella attualmente preventivata,
specie riguardo i sistemi di AI generativa.
In quanto alla capacità di applicare il regolamento da parte dell’Ue,
Benifei cita la possibilità di richiedere informazioni alle aziende e,
se insoddisfatti, di imporre il ritiro di una determinata applicazione
dal mercato, o di arrivare a comminare multe fino al 7 per cento del
fatturato.

*Rimasti fuori i diritti dei migranti e la gestione frontiere
*Quello che invece non è passato è il divieto di queste tecnologie per
il controllo delle frontiere e dei migranti. Lo spiega bene *Irene
Doda*in un articolo su Guerre di Rete (La legge sull’intelligenza
artificiale in Europa è a una svolta
<https://www.guerredirete.it/la-legge-sullintelligenza-artificiale-in-europa-e-a-una-svolta/>)
uscito il giorno prima dell’approvazione dell’AI Act. Su questo le Ong
per i diritti digitali registrano una delusione. Dal pezzo di Irene:

““Il Parlamento europeo non è riuscito a proteggere i diritti dei
migranti dalla sorveglianza discriminatoria. Gli eurodeputati non hanno
incluso nell’elenco delle pratiche vietate l’uso dell’intelligenza
artificiale per facilitare i respingimenti illegali o per profilare gli
individui in modo discriminatorio. Senza questi divieti, il Parlamento
europeo sta aprendo la strada all’utilizzo di un panopticon alle
frontiere dell’UE”, si legge ancora nella dichiarazione di EDRi.
Il tema sarà anche probabilmente molto dibattuto in fase di negoziazioni
interistituzionali, con l’organo co-legislativo (il Consiglio, composto
dai ministri competenti degli Stati Membri) che premerà per introdurre
delle eccezioni per quanto riguarda le forze di polizia e l’applicazione
delle politiche migratorie”.

*La tentazione sorveglianza resta nel mondo*
L’AI Act arriva dunque a un primo importante giro di boa proprio mentre
in Europa e altrove la tentazione e la volontà di usare AI e altre
tecnologie per il controllo non sembra avere freni. Lo racconta bene
*Eleonora Zocca*in un altro articolo recente di Guerre di Rete
(intitolato Tentazione sorveglianza biometrica
<https://www.guerredirete.it/tentazione-sorveglianza-biometrica/>):

“Negli stessi giorni in cui l’AI Act veniva approvato dalle Commissioni
europee, la Franciaautorizzava
<https://www.francebleu.fr/infos/faits-divers-justice/migrants-la-prefecture-des-alpes-maritimes-autorise-la-surveillance-de-la-frontiere-italienne-par-drones-9908088>l’uso
di droni per la “cattura, registrazione e trasmissione di immagini” al
fine di contrastare i passaggi irregolari al confine con l’Italia.
Secondo la prefettura, quella dei droni è “la migliore soluzione” nonché
il dispositivo “meno intrusivo”.
A utilizzarli nel Mediterraneo c’è anche Frontex, l’agenzia europea
della guardia di frontiera e costiera, secondo cui la sorveglianza aerea
è utile per salvare le persone in mezzo al mare e catturare i
trafficanti.Un’indagine
<https://www.hrw.org/news/2022/08/01/eus-drone-another-threat-migrants-and-refugees>di
Human Rights Watch e Border Forensics ha però dimostrato come Frontex
abbia utilizzato i droni per individuare le barche dei migranti e
segnalarle alla Guardia costiera libica.
Nel Regno Unito, invece, l’organizzazione Privacy Internationalha
denunciato
<https://privacyinternational.org/long-read/5063/who-profits-uks-247-tracking-migrants>l’utilizzo
di braccialetti elettronici con rilevatore GPS che i migranti devono
indossare 24 ore su 24, 7 giorni su 7. La rilevazione costante della
localizzazione diventa per le autorità competenti uno strumento per
decidere, ad esempio, se concedere o meno il diritto di asilo o un
permesso di soggiorno”

*Vestager sull’AI Act: più urgente il rischio di discriminazione di
quello esistenziale*
A tutto ciò va aggiunta la dichiarazione della commissaria europea per
la concorrenza, Margrethe Vestager. In un'intervista alla BBC
<https://www.bbc.com/news/technology-65881389>, Vestager ha detto di
ritenere che il potenziale dell'AI di amplificare i pregiudizi o le
discriminazioni, che possono essere contenuti nelle vaste quantità di
dati provenienti da Internet e utilizzati per addestrare modelli e
strumenti, sia una preoccupazione più pressante di possibili “rischi
esistenziali”. E per andare nel concreto ha aggiunto: “Se si tratta di
una banca che la usa per decidere se si possa ottenere un mutuo o meno,
o se si tratta dei servizi sociali del vostro comune, allora volete
essere sicuri che non sarete discriminati a causa del vostro sesso, del
vostro colore o del vostro codice postale".