[peer_to_peer] L'Unione Europea ha la sua legge sull'intelli…

このメッセージを削除

このメッセージに返信
著者: 
日付:  
To: peer_to_peer
題目: [peer_to_peer] L'Unione Europea ha la sua legge sull'intelligenza artificiale
*L'Unione Europea ha la sua legge sull'intelligenza artificiale*
Il 13 marzo il Parlamento europeo ha approvato l'AI Act: il regolamento
europeo sull'intelligenza artificiale.
Ecco cosa c'è da sapere.

Dopo le ultime formalità, l'AI Act entrerà ufficialmente in vigore entro
maggio o giugno.
Le sue disposizioni *entreranno in vigore gradualmente*:
- Entro sei mesi: i Paesi dovranno vietare i sistemi di intelligenza
artificiale vietati.
- Entro un anno: inizieranno ad applicarsi le regole per i sistemi di IA
per scopi generali.
- Entro due anni: si applicherà la maggior parte della legge sull'IA.
- Entro tre anni: entreranno in vigore gli obblighi per i sistemi ad
alto rischio.

*Le multe* per la mancata conformità possono arrivare a 35 milioni di
euro o al 7% del fatturato globale annuo dell'azienda.
*Vietato:*
*-* Sfruttamento delle vulnerabilità di individui o gruppi in base
all'età, alla disabilità o allo status socio-economico.
*- *Pratiche manipolative e ingannevoli, come i sistemi che utilizzano
tecniche subliminali per distorcere materialmente la     capacità
decisionale di una persona.
*- *Sistemi di categorizzazione biometrica basati su caratteristiche
sensibili, che classificano gli individui sulla base di dati biometrici
per dedurre informazioni sensibili come razza, opinioni politiche o
orientamento sessuale (sono previste eccezioni per le attività di polizia).
*-* Social scoring (valutazione di individui o gruppi nel tempo in base
al loro comportamento sociale o alle loro caratteristiche personali).
*-* Scraping non mirato di immagini facciali da Internet o da filmati di
telecamere a circuito chiuso per creare database di riconoscimento facciale.
*-* Riconoscimento delle emozioni nei luoghi di lavoro e nelle
istituzioni educative (con eccezioni per motivi medici o di sicurezza).
*-* Polizia predittiva (quando si basa esclusivamente sul profilo di una
persona o sulla valutazione delle sue caratteristiche).

*L'identificazione biometrica in tempo reale (RBI)* negli spazi pubblici
da parte delle forze dell'ordine non è completamente vietata, ma
limitata. L'identificazione è consentita in determinate circostanze (gli
usi consentiti includono la ricerca di una persona scomparsa o la
prevenzione di un attacco terroristico), previa approvazione da parte di
un tribunale o di un'autorità indipendente.


I sistemi di identificazione biometrica post-facto ("RBI post-remoto")
sono considerati un caso d'uso ad alto rischio, che richiede
l'autorizzazione dell'autorità giudiziaria in quanto collegati a un reato.

Le seguenti aree non sono vietate, ma sono considerate *"ad alto
rischio"*. I sistemi che operano in queste aree saranno valutati sia
prima dell'immissione sul mercato sia durante il loro ciclo di vita. I
cittadini potranno presentare reclami alle autorità nazionali.

*Le aree ad alto rischio *comprendono non solo le infrastrutture
critiche o i componenti di sicurezza, ma anche l'*istruzione* (per
determinare l'accesso o l'ammissione, l'assegnazione di individui a
istituzioni o programmi di formazione a tutti i livelli, la valutazione
dei risultati di apprendimento degli individui, la valutazione del
livello di istruzione appropriato per un individuo e l'influenza sul
livello di istruzione a cui può accedere, il monitoraggio e
l'individuazione di comportamenti vietati degli studenti durante i
test); *occupazione* (per l'assunzione e la selezione di persone, per
prendere decisioni su termini e condizioni dei contratti di lavoro, per
l'assegnazione di compiti basati su comportamenti, tratti o
caratteristiche personali individuali e per il monitoraggio o la
valutazione delle persone); *servizi essenziali*, tra cui l'assistenza
sanitaria, le prestazioni di sicurezza sociale, i servizi sociali e il
rating del credito; l'amministrazione della giustizia (compresi gli
organismi di risoluzione alternativa delle controversie); la migrazione
e la gestione delle frontiere (come l'esame delle domande di asilo, di
visto e di permesso di soggiorno e le relative richieste).

*I sistemi di IA per scopi generici* (GPAI) e i modelli su cui si basano
(compresi i modelli di IA generativa di grandi dimensioni) dovranno
rispettare una serie di requisiti di*trasparenza*, come ad esempio:
rivelare che il contenuto è generato dall'IA, garantire che i modelli
non generino contenuti illegali, rispettare la *legge sul copyright
dell'UE* e pubblicare *sintesi* dettagliate dei contenuti utilizzati per
la formazione.
I modelli più potenti che potrebbero comportare rischi sistemici
dovranno rispettare anche altri obblighi, come la conduzione di
valutazioni dei modelli, la valutazione e l'attenuazione dei rischi
sistemici e la segnalazione degli incidenti.

I Paesi dell'UE devono creare e rendere disponibili a livello nazionale
sandbox  regolamentari (https://it.wikipedia.org/wiki/Sandbox) e test
reali per consentire alle PMI/piccole e medie impresee alle startup di
sviluppare sistemi di IA prima che entrino nel mercato.
(Elaborato a partire dal testo finale in allegato, dal documento del
Parlamento europeo
(https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law)
e dai commenti di Luiza Jarovsky
(https://twitter.com/LuizaJarovsky/status/1767899302930657704).