[peer_to_peer] Lo spettro delle IA

Üzenet törlése

Válasz az üzenetre
Szerző: 
Dátum:  
Címzett: peer_to_peer
Tárgy: [peer_to_peer] Lo spettro delle IA
nota****

https://bitly.com/

__________________



 da: Gli Asini - Rivista <https://gliasinirivista.org/>


Nuove intelligenze, vecchi pregiudizi


*Lo spettro delle IA*

9 Luglio 2023

Carlo Milani <https://gliasinirivista.org/autore/carlo-milani/>

Uno spettro si aggira per il mondo: è lo spettro delle Intelligenze
Artificiali (IA). Lo spettro è ormai diventato uno spauracchio, tanto
che alcuni chiedono una moratoria sullo sviluppo di nuovi modelli più
potenti di GPT-4 invocando regole pubbliche rispettate da tutti
(bit.ly/pauseIA)****. I promotori e primi firmatari sono gli stessi
miliardari che hanno finanziato e sviluppato i sistemi oggi esistenti,
per cui il dubbio che sussistano secondi fini è più che concreto. Altri,
come il garante italiano per la privacy, sollevano obiezioni più che
fondate sulla legittimità di esperimenti recenti dal punto di vista del
rispetto della riservatezza delle persone, ma senza grande successo.

Le IA sono quindi ormai riconosciute come potenze da tutte le potenze
del mondo, dagli Stati e dalle loro agenzie così come dalle
multinazionali e dai gruppi criminali organizzati. Ma questo non è un
manifesto a favore dell’IA, come potrebbe far pensare il riferimento
iniziale al manifesto del partito comunista. Questo è un tentativo di
applicare l’attitudine hacker alla questione dell’IA. Un’attitudine si
può imparare e insegnare; si assume, non è un fatto naturale, non è per
nascita, per censo, per genetica, per investitura. Con hacker intendo un
essere umano che, nelle sue azioni concrete, mira a ridurre
l’alienazione tecnica. Non si tratta quindi di mercenari al soldo delle
potenze di cui sopra o di altri deprecabili attori nel panorama della
cosiddetta sicurezza, ma di persone amanti delle tecnologie, della
riservatezza (privacy), intenzionate a conoscere e comprendere quelli
che, sulla scorta del filosofo della tecnica Gilbert Simondon (/Sulla
tecnica/, Orthotes, 2017), chiamo “esseri tecnici”, esseri cioè che
mediano la relazione dell’uomo con la natura e che, sebbene creati e
utilizzati dalla mano umana, non sono riconducibili a meri utensili ma
sono in grado di evolvere e ristrutturare sé stessi e l’ambiente che li
circonda. Conoscere e comprendere gli “esseri tecnici” per vivere
armoniosamente e piacevolmente insieme: a questo mira l’hacker.

Cerchiamo di osservare la questione in pratica, interrogando le
esperienze concrete con uno spirito curioso, tentando di tradurre in
maniera condivisibile ciò che accade nella complessità delle interazioni
tecniche.

Questo modo di procedere è parte integrante della pedagogia hacker, una
metodologia che sperimentiamo da anni con C.I.R.C.E. (Centro
Internazionale di Ricerca per le Convivialità Elettriche:
https://circex.org/it). Di fronte alle difficoltà, alle fatiche, alle
novità della vita nel mondo tecnologico contemporaneo, cerchiamo di fare
un passo indietro e di osservarci, di osservare come agiamo e re-agiamo.
Di imparare dalle nostre vulnerabilità, dalle reazioni emotive, dagli
entusiasmi e dalle delusioni che spesso punteggiano i nostri rapporti
con gli esseri tecnici.

Riprendiamo il filo del discorso. Esseri tecnologici intelligenti
promettono (o minacciano, dipende dalla prospettiva) di sostituire gli
esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. Le
Intelligenze Artificiali se ne occuperebbero automaticamente, agendo
come aiutanti «magici» (poiché «qualsiasi tecnologia sufficientemente
avanzata è indistinguibile dalla magia», come asseriva lo scrittore di
fantascienza Artur C. Clarke), capaci di svolgere qualsiasi compito
assegnato loro.

Negli ultimi anni l’interesse per le IA ha ampiamente travalicato
l’ambito specialistico, fino a diventare argomento di discussione da
bar, da social media, da intrattenimento televisivo. Questo
probabilmente perché la tecnologia attuale sembra poter realizzare sogni
e incubi della fantascienza.

Ormai non è più possibile distinguere il vero dal falso in maniera
rapida e al di là di ogni ragionevole dubbio. Dal /deepfake /siamo
arrivati ai LLM generativi (Large Language Models, Grandi Modelli
Linguistici, come quelli della famiglia GPT), che permettono a chiunque
di creare testi, immagini, audio e video a partire da prompt testuali,
cioè da descrizioni di ciò che si vuole ottenere, che vengono
interpretate come istruzioni dai LLM. Così, l’input «papa Bergoglio con
piumino bianco» (un’immagine di sintesi diventata virale nel marzo 2023
generata grazie a Midjourney) è di fatto un comando rapidamente
trasformato in un artefatto, ovvero un output generato dal LLM
generativo. Immagini, testi, audio, video possono essere prodotti di
sintesi, risultato delle iterazioni di algoritmi in grado di produrre
risultati straordinari, un pixel alla volta, una parola, una nota, un
fotogramma dopo l’altro, in maniera probabilistica. Questa invasione di
artefatti sintetici, indistinguibili da quelli creati dagli esseri
umani, è forse la materializzazione più concreta della pervasività delle IA.

Le IA promettono, o minacciano, di entrare a far parte anche
dell’insegnamento e della formazione a tutti i livelli. Attività noiose
e routinarie come valutare, assegnare i compiti, fornire informazioni
logistiche e burocratiche saranno svolte da assistenti digitali
«intelligenti», in modo che gli insegnanti possano dedicarsi a ruoli di
facilitazione e motivazione dell’apprendimento.

Al di fuori delle classi/gruppi, le IA potranno fornire servizi di
tutoraggio spacciato come personalizzato, mentre in realtà sono per
definizione omologanti, poiché trattano il singolo sulla base della sua
appartenenza a una serie di categorie costruite in maniera non
trasparente. A partire da questa categorizzazione omologante,
lavoreranno per identificare i punti deboli della classe. Per esempio,
potranno individuare quando e con che frequenza determinati gruppi di
studenti saltano alcune domande, aiutando l’insegnante nel
riallestimento e adattamento continuo del materiale didattico per
migliorare le prestazioni individuali e complessive.

Queste IA sono «intelligenze» non intelligenti, dal momento che si
tratta di programmi automatici che restituiscono risultati
probabilistici; e non sono esclusivamente «artificiali», poiché
abbisognano di un’enorme quantità di lavoro umano per controllare a
monte e a valle il funzionamento dei sistemi, oltre che per monitorare,
aggiustare, manutenere, migliorare. IA è quindi un’espressione
accattivante per Automazione Industriale. Una veste appena ritoccata per
mascherare la domanda di sempre, nelle dinamiche di apprendimento come
in qualsiasi altro ambito: chi controllerà i controllori, via via che un
numero sempre maggiore di procedure («creative», di monitoraggio,
valutazione, ecc.) saranno messe in opera da macchine gestite in maniera
automatica? Sulla base di quali parametri?


    *Bias, pregiudizi, inclinazioni e vulnerabilità*


Entrano in gioco a questo punto i /bias/, un termine spesso frainteso.
/Bias /non significa pregiudizio, bensì inclinazione. /Biais /in
francese significa originariamente «obliquo», così come in inglese. In
particolare, i /bias /cognitivi tipici degli esseri umani sono basati su
euristiche sviluppate per ragioni evolutive; sono perciò fondati su
strategie e procedure per velocizzare la valutazione di situazioni
concrete e fornire elementi per effettuare decisioni rapide.

Il /bias /di gruppo, ad esempio, è un’inclinazione cognitiva che induce
a fidarsi maggiormente del gruppo sociale a cui si appartiene, o si
ritiene di appartenere. La ragione evolutiva più evidente di un tale
comportamento è che gli individui appartenenti alla propria cerchia
sociale, le persone note, sono ragionevolmente più «dalla nostra parte»
rispetto a persone sconosciute. Più che un pregiudizio è un
post-giudizio, che però può condurre a sopravvalutare le capacità e il
valore del nostro gruppo sociale, o a considerare i successi del nostro
gruppo come risultato di qualità del gruppo stesso.

Per converso, si tende a non fidarsi delle opinioni di persone
considerate parte di gruppi sociali diversi dal nostro, fino ad
attribuire i successi di un gruppo estraneo a fattori esterni (caso,
fortuna, congiunture favorevoli, ecc.) non insiti nelle qualità delle
persone che lo compongono. D’altra parte, il gruppo di cui ci si fida
«automaticamente» può essere una forzatura veicolata da comportamenti
gregari e non rispondente a una realtà fattuale al di là dei social
media, come accade per il gruppo dei follower di un certo marchio o
persona famosa.

Possiamo grossolanamente distinguere /bias /e pregiudizi ricordando che
mentre un /bias /può avere una valenza positiva, appunto perché
l’euristica su cui si basa può giocare un ruolo positivo nell’effettuare
una decisione in maniera rapida, un pregiudizio è associato a un errore
di valutazione e quindi ha una valenza negativa (si veda il saggio
introduttivo di Daniel Kahneman, /Pensieri lenti e veloci/, Mondadori,
2012.).


    *Correggere i bias delle IA?*


Si dice che anche le IA sono affette da /bias/. A mio parere si tratta
di una strategia retorica per stornare l’attenzione dal fatto, banale ma
poco riconosciuto, che un sistema automatico non può predire il futuro
di singole persone o gruppi. Tuttavia, dal momento che questo diversivo
ha acquisito ampia visibilità, è opportuno metterlo in discussione.
Quando un algoritmo di IA produce risultati sistematicamente erronei a
causa di presupposti errati nel processo di apprendimento automatico, si
parla di /bias /anche nel caso degli algoritmi, cioè delle procedure su
cui si basano le IA. Una simile definizione, che si ritrova ripetuta in
moltissime fonti online più o meno scientifiche, lascia spazio a molti
dubbi. Cosa significa esattamente errore, nel caso dell’apprendimento
automatico?

I /bias /cognitivi non sono errori di per sé, anche se possono condurre
a valutazioni erronee. Inoltre, i presupposti dei /bias /cognitivi non
sono errati di per sé, per quanto possano essere sfruttati per ingannare
un essere umano e manipolarne opinioni e decisioni. Si tratta del
meccanismo all’opera in moltissime frodi online: l’esempio più semplice
è quello delle comunicazioni fraudolente che sembrano provenire da una
fonte fidata (quindi da qualcuno che fa parte del gruppo sociale
percepito: un amico, ad esempio) e invece sono contraffazioni che mirano
a carpire password, account e così via. Eppure, è del tutto ragionevole
tendere a fidarsi dei propri amici e, più in generale, è fondamentale
intessere relazioni di fiducia, perché non sarà certo delegando la
fiducia a una sedicente tecnologia super partes che gli esseri umani
«risolveranno» le dinamiche relazionali. Le relazioni non sono problemi
da risolvere seguendo una procedura algoritmica, ma opportunità da vivere.

Ad ogni modo, la letteratura sulle metodologie di «/debiasing/ delle IA»
e di «/debiasing/ algoritmico» in particolare è ormai enorme. La
questione potrebbe sembrare di interesse specialistico, e invece tocca
le esperienze più comuni di interazione con il digitale di massa, o
potrebbe toccarle a breve.

In realtà la storia di quelli che sono rubricati come pregiudizi
razzisti, sessisti, abilisti degli algoritmi ha già quasi un decennio.
Nel 2015, il servizio Google Photos categorizzava automaticamente enormi
quantità di immagini grazie a un sistema di ML (Machine Learning, cioè
apprendimento automatico). Un utente ritrovò foto sue e dei suoi
familiari etichettate come «gorilla»; lo stesso accadde a immagini di
altre persone di colore. Incalzato da attivisti e ricercatori, il
colosso di Mountain View è corso ai ripari bandendo le foto dei gorilla,
per poi riuscire, oltre tre anni più tardi, a sistemare in qualche modo
l’errore. Ma non c’è limite al peggio. Sistemi di riconoscimento
facciale basati su ML si sono dimostrati molto poco affidabili
nell’identificare persone di colore. Soluzioni di /predictive policing/
si sono dimostrate inclini a ritenere più propensi a delinquere maschi
di colore, e così via discriminando, producendo una mescolanza bigotta
di politiche reazionarie (si veda Robert E. Smith, /Rage Inside the
Machine, /Bloomsbury, 2019).

Di fatto, i sistemi automatici di apprendimento tendono a funzionare
come oracoli, perché favoriscono decisioni nei termini di profezie che
si autorealizzano (cfr. Sun-ha Hong, /Predictions without futures/:
bit.ly/Hong). Le narrazioni messe in campo per giustificare la messa in
commercio di sistemi non funzionanti e anzi pericolosi sono varie, dal
principio di inevitabilità tecnologica, al soluzionismo (per una
panoramica con fonti di approfondimento si veda Daniela Tafani, /Sistemi
fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza
artificiale» e il risveglio del diritto/: bit.ly/dirittoIA).

Nutrire le IA con dati presi online in maniera acritica conduce
inevitabilmente a produrre caratteristiche problematiche. Infatti i
modelli risultanti tendono a categorizzare in maniera dispregiativa
donne, generi non binari, persone non bianche, persone affette da
disabilità e così via, cioè sono pesantemente influenzati dalla visione
dominante, una visione del mondo bianca, maschilista e patriarcale.

Una componente fondamentale sono gli enormi insiemi di dati basati
sull’estrazione dal web. Il web è composto da miliardi di pagine.
Ridotte a informazioni elementari (token), vengono utilizzate per
fornire una base ai sistemi di ML. Ad esempio, il LLM noto come GPT-3 è
basato per il 60% su dati provenienti da Common Crawl, che raccoglie
miliardi di pagine web, anche protette da copyright, e certamente anche
pagine che esprimono posizioni sessiste, razziste, ecc. perciò sistemi
allenati su questi dati sono logicamente inclini a fornire una visione
concorde con il pensiero egemonico e dominante, discriminando le minoranze.

Attenzione: questo li rende problematici nel senso di non adeguati dal
punto di vista dell’ideologia liberale che le finanzia, che ama
presentarsi come progressista, inclusiva e aperta, almeno in Occidente;
ma è importante notare che sarebbero adeguate dal punto di vista di
un’ideologia esplicitamente razzista, o che promuove l’eugenetica. La
situazione è grave, ma potrebbe rapidamente peggiorare a favore di
involuzioni autoritarie.

L’idea del /debiasing/ delle IA, e del /debiasing/ algoritmico in
particolare, si basa sul presupposto che gli errori possano essere
individuati e corretti, a tutti i livelli: nei dati di partenza per
l’allenamento, nelle associazioni, negli effetti imprevisti. Una
correzione «semplice» potrebbe essere la seguente: SE il sistema associa
più facilmente «casalinga» a «donna», e «calciatore» a «uomo», ALLORA
possiamo intervenire bilanciando i pesi che conducono l’algoritmo a
effettuare quelle associazioni.

Anche se questo approccio produce risultati concreti, a mio parere si
fonda su un malinteso di fondo. Ripetiamolo: un /bias /cognitivo non è
un errore, è un’inclinazione che va compresa e tenuta in considerazione
affinché non venga sfruttata per fomentare pregiudizi e nutrire
convinzioni nocive come il sessismo e il razzismo. Ciò significa che
sessismo, razzismo, abilismo, maschilismo, ma anche terrapiattismo e
complottismo, non sono /bias /cognitivi e nemmeno sono errori da un
punto di vista cognitivo: sono concezioni e visioni del mondo, elementi
costitutivi di ideologie politiche, portatori di modelli organizzativi
psicologici e sociali.

Allo stesso modo, se un sistema basato su IA genera risultati rubricati
come razzisti, sessisti, in qualche modo scorretti, ciò non significa
che sia sufficiente correggere gli errori presenti nei dati, nelle
associazioni fra i dati, nelle annotazioni dei revisori che etichettano
tali associazioni e così via. In maniera analoga, una persona che
esprime convinzioni razziste o sessiste non è detto che possa essere
«corretta» spiegando il presunto errore di valutazione: per quella
persona non è affatto un errore, corrisponde a un dato di fatto che
giustifica e corrobora la sua visione del mondo. L’educazione al
riconoscimento delle reciproche libertà nell’uguaglianza, al mutuo
appoggio, alla democrazia non dipendono dalla corretta categorizzazione
dei dati, ma dall’applicazione di convinzioni profonde, anche di
carattere ideologico.

Ritenere che gli esseri umani sono tutti uguali, e ugualmente liberi, è
una convinzione fondata su presupposti ideologici, non su dati di fatto
scientificamente dimostrabili.

Assumere una posizione di relativismo radicale (non assoluto, che
sarebbe una contraddizione in termini) non è una sconfitta, al contrario
(cfr. Tomás Ibáñez, /Il libero pensiero. Elogio del relativismo/,
Elèuthera, 2007). Le libertà non sono mai conquiste definitive, né
possono derivare dall’applicazione di metodologie automatiche, ma sono
frutto di scelte consapevoli da confermare giorno per giorno, sulla base
di convinzioni non computabili, non dimostrabili. Le macchine, i sistemi
di calcolo automatizzati e anche quelle che vengono chiamate nel
marketing tecnologico attuale «IA» possono aiutare gli umani a
co-evolvere in un mondo più giusto e più equo, ma non perché prive di
inclinazioni, bensì perché possono essere programmate per prendersi cura
delle vulnerabilità umane, aiutare gli umani a essere meno arroganti,
più gentili, meno sciatti, più compassionevoli.

*Cambiare il paradigma*

Che tipo di società vogliamo promuovere? Quali forme di partecipazione
alla coabitazione sul pianeta Terra che è l’orizzonte comune? Senz’altro
i contenuti e i metodi con cui le cosiddette IA sono state concepite
finora risentono fortemente del paradigma archico (da /archè/,
“cominciamento” e comando in greco: cfr. Catherine Malabou, /Al ladro!/,
Elèuthera, 2023), che presuppone l’inevitabilità del comando, del
governo, del cominciamento. Si presuppone che le IA, come gli esseri
umani, debbano essere comandate, ovvero debbano obbedire a degli ordini.
Debbano essere governate, ovvero debbano accettare di essere
irreggimentate, condotte, guidate. Debbano essere sottoposte a coloro
che vengono prima, che le hanno costruite: i padroni umani.

Non sto plaudendo a una fantascientifica liberazione delle IA, che,
ricordiamo ancora una volta, al momento non sono né intelligenti né
esclusivamente artificiali. Vorrei invece portare l’attenzione sul fatto
che anche questa dispendiosa, inquinante, sciocca corsa alle IA non
mette minimamente in discussione tale paradigma, anzi, lo assume in
maniera talmente surrettizia che è difficile accorgersene, presi come
siamo a cercare di controllare queste tecnologie. Una volta di più, chi
controllerà i controllori? Non è necessario assumere posizioni
socialiste per comprendere che tecnologie enormemente potenti nelle mani
di pochi padroni, in un mondo sempre più fortemente squilibrato nel
senso del dominio, della rapina indiscriminata di risorse naturali e
umane, dello sfruttamento e dell’oppressione diffusa, faranno gli
interessi di quei padroni, ne saranno i fedeli servi.

Non è certo «colpa» delle IA. Tuttavia, invece di ri-programmare e
ri-condizionare le macchine perché risolvano problemi come il razzismo,
il sessismo e l’abilismo, è importante riconoscere che non si tratta di
problemi da risolvere attraverso l’automazione, ma di questioni sociali,
cioè di faccende relazionali. L’automazione è il livello più basso di
interazione possibile con gli esseri tecnici. Ma è possibile maturare
nuovi tipi di relazione non solo automatici, bensì frutto di scelte
consapevoli e condivise, motivati dalla gioia e dal divertimento di fare
cose insieme. Per questo c’è bisogno di meno finanza e di più politica,
nel senso di capacità di immaginare un mondo comune equo. Serve maggiore
riflessione filosofica (non di quella finanziata dai padroni che
vogliono giustificare lo status quo), perché le IA che ormai popolano il
nostro mondo non sono banali utensili, ma artefatti complessi.

Ci vuole educazione per vivere insieme alle macchine, per imparare a
selezionare i sistemi tecnici con cui vogliamo coabitare, con cui ci
troviamo a nostro agio, capaci di provocare emozioni da coltivare, che
non sono servi al nostro servizio, ma compagni di viaggio.

A questo mirano le attività di pedagogia hacker, per sviluppare
tecnologie conviviali.


info@???

Centro di Documentazione di Pistoia

via Pertini snc, c/o Biblioteca San Giorgio – 51100 Pistoia

p.iva 01271720474 – codice destinatario KRRH6B9

centrodocpistoia.it <http://www.centrodocpistoia.it/>