nota****
https://bitly.com/
__________________
  da: Gli Asini - Rivista <
https://gliasinirivista.org/>
  Nuove intelligenze, vecchi pregiudizi
  *Lo spettro delle IA*
9 Luglio 2023
Carlo Milani <
https://gliasinirivista.org/autore/carlo-milani/>
Uno spettro si aggira per il mondo: è lo spettro delle Intelligenze 
Artificiali (IA). Lo spettro è ormai diventato uno spauracchio, tanto 
che alcuni chiedono una moratoria sullo sviluppo di nuovi modelli più 
potenti di GPT-4 invocando regole pubbliche rispettate da tutti 
(bit.ly/pauseIA)****. I promotori e primi firmatari sono gli stessi 
miliardari che hanno finanziato e sviluppato i sistemi oggi esistenti, 
per cui il dubbio che sussistano secondi fini è più che concreto. Altri, 
come il garante italiano per la privacy, sollevano obiezioni più che 
fondate sulla legittimità di esperimenti recenti dal punto di vista del 
rispetto della riservatezza delle persone, ma senza grande successo.
Le IA sono quindi ormai riconosciute come potenze da tutte le potenze 
del mondo, dagli Stati e dalle loro agenzie così come dalle 
multinazionali e dai gruppi criminali organizzati. Ma questo non è un 
manifesto a favore dell’IA, come potrebbe far pensare il riferimento 
iniziale al manifesto del partito comunista. Questo è un tentativo di 
applicare l’attitudine hacker alla questione dell’IA. Un’attitudine si 
può imparare e insegnare; si assume, non è un fatto naturale, non è per 
nascita, per censo, per genetica, per investitura. Con hacker intendo un 
essere umano che, nelle sue azioni concrete, mira a ridurre 
l’alienazione tecnica. Non si tratta quindi di mercenari al soldo delle 
potenze di cui sopra o di altri deprecabili attori nel panorama della 
cosiddetta sicurezza, ma di persone amanti delle tecnologie, della 
riservatezza (privacy), intenzionate a conoscere e comprendere quelli 
che, sulla scorta del filosofo della tecnica Gilbert Simondon (/Sulla 
tecnica/, Orthotes, 2017), chiamo “esseri tecnici”, esseri cioè che 
mediano la relazione dell’uomo con la natura e che, sebbene creati e 
utilizzati dalla mano umana, non sono riconducibili a meri utensili ma 
sono in grado di evolvere e ristrutturare sé stessi e l’ambiente che li 
circonda. Conoscere e comprendere gli “esseri tecnici” per vivere 
armoniosamente e piacevolmente insieme: a questo mira l’hacker.
Cerchiamo di osservare la questione in pratica, interrogando le 
esperienze concrete con uno spirito curioso, tentando di tradurre in 
maniera condivisibile ciò che accade nella complessità delle interazioni 
tecniche.
Questo modo di procedere è parte integrante della pedagogia hacker, una 
metodologia che sperimentiamo da anni con C.I.R.C.E. (Centro 
Internazionale di Ricerca per le Convivialità Elettriche: 
https://circex.org/it). Di fronte alle difficoltà, alle fatiche, alle 
novità della vita nel mondo tecnologico contemporaneo, cerchiamo di fare 
un passo indietro e di osservarci, di osservare come agiamo e re-agiamo. 
Di imparare dalle nostre vulnerabilità, dalle reazioni emotive, dagli 
entusiasmi e dalle delusioni che spesso punteggiano i nostri rapporti 
con gli esseri tecnici.
Riprendiamo il filo del discorso. Esseri tecnologici intelligenti 
promettono (o minacciano, dipende dalla prospettiva) di sostituire gli 
esseri umani in (quasi) tutte le loro attività, a partire dal lavoro. Le 
Intelligenze Artificiali se ne occuperebbero automaticamente, agendo 
come aiutanti «magici» (poiché «qualsiasi tecnologia sufficientemente 
avanzata è indistinguibile dalla magia», come asseriva lo scrittore di 
fantascienza Artur C. Clarke), capaci di svolgere qualsiasi compito 
assegnato loro.
Negli ultimi anni l’interesse per le IA ha ampiamente travalicato 
l’ambito specialistico, fino a diventare argomento di discussione da 
bar, da social media, da intrattenimento televisivo. Questo 
probabilmente perché la tecnologia attuale sembra poter realizzare sogni 
e incubi della fantascienza.
Ormai non è più possibile distinguere il vero dal falso in maniera 
rapida e al di là di ogni ragionevole dubbio. Dal /deepfake /siamo 
arrivati ai LLM generativi (Large Language Models, Grandi Modelli 
Linguistici, come quelli della famiglia GPT), che permettono a chiunque 
di creare testi, immagini, audio e video a partire da prompt testuali, 
cioè da descrizioni di ciò che si vuole ottenere, che vengono 
interpretate come istruzioni dai LLM. Così, l’input «papa Bergoglio con 
piumino bianco» (un’immagine di sintesi diventata virale nel marzo 2023 
generata grazie a Midjourney) è di fatto un comando rapidamente 
trasformato in un artefatto, ovvero un output generato dal LLM 
generativo. Immagini, testi, audio, video possono essere prodotti di 
sintesi, risultato delle iterazioni di algoritmi in grado di produrre 
risultati straordinari, un pixel alla volta, una parola, una nota, un 
fotogramma dopo l’altro, in maniera probabilistica. Questa invasione di 
artefatti sintetici, indistinguibili da quelli creati dagli esseri 
umani, è forse la materializzazione più concreta della pervasività delle IA.
Le IA promettono, o minacciano, di entrare a far parte anche 
dell’insegnamento e della formazione a tutti i livelli. Attività noiose 
e routinarie come valutare, assegnare i compiti, fornire informazioni 
logistiche e burocratiche saranno svolte da assistenti digitali 
«intelligenti», in modo che gli insegnanti possano dedicarsi a ruoli di 
facilitazione e motivazione dell’apprendimento.
Al di fuori delle classi/gruppi, le IA potranno fornire servizi di 
tutoraggio spacciato come personalizzato, mentre in realtà sono per 
definizione omologanti, poiché trattano il singolo sulla base della sua 
appartenenza a una serie di categorie costruite in maniera non 
trasparente. A partire da questa categorizzazione omologante, 
lavoreranno per identificare i punti deboli della classe. Per esempio, 
potranno individuare quando e con che frequenza determinati gruppi di 
studenti saltano alcune domande, aiutando l’insegnante nel 
riallestimento e adattamento continuo del materiale didattico per 
migliorare le prestazioni individuali e complessive.
Queste IA sono «intelligenze» non intelligenti, dal momento che si 
tratta di programmi automatici che restituiscono risultati 
probabilistici; e non sono esclusivamente «artificiali», poiché 
abbisognano di un’enorme quantità di lavoro umano per controllare a 
monte e a valle il funzionamento dei sistemi, oltre che per monitorare, 
aggiustare, manutenere, migliorare. IA è quindi un’espressione 
accattivante per Automazione Industriale. Una veste appena ritoccata per 
mascherare la domanda di sempre, nelle dinamiche di apprendimento come 
in qualsiasi altro ambito: chi controllerà i controllori, via via che un 
numero sempre maggiore di procedure («creative», di monitoraggio, 
valutazione, ecc.) saranno messe in opera da macchine gestite in maniera 
automatica? Sulla base di quali parametri?
    *Bias, pregiudizi, inclinazioni e vulnerabilità*
Entrano in gioco a questo punto i /bias/, un termine spesso frainteso. 
/Bias /non significa pregiudizio, bensì inclinazione. /Biais /in 
francese significa originariamente «obliquo», così come in inglese. In 
particolare, i /bias /cognitivi tipici degli esseri umani sono basati su 
euristiche sviluppate per ragioni evolutive; sono perciò fondati su 
strategie e procedure per velocizzare la valutazione di situazioni 
concrete e fornire elementi per effettuare decisioni rapide.
Il /bias /di gruppo, ad esempio, è un’inclinazione cognitiva che induce 
a fidarsi maggiormente del gruppo sociale a cui si appartiene, o si 
ritiene di appartenere. La ragione evolutiva più evidente di un tale 
comportamento è che gli individui appartenenti alla propria cerchia 
sociale, le persone note, sono ragionevolmente più «dalla nostra parte» 
rispetto a persone sconosciute. Più che un pregiudizio è un 
post-giudizio, che però può condurre a sopravvalutare le capacità e il 
valore del nostro gruppo sociale, o a considerare i successi del nostro 
gruppo come risultato di qualità del gruppo stesso.
Per converso, si tende a non fidarsi delle opinioni di persone 
considerate parte di gruppi sociali diversi dal nostro, fino ad 
attribuire i successi di un gruppo estraneo a fattori esterni (caso, 
fortuna, congiunture favorevoli, ecc.) non insiti nelle qualità delle 
persone che lo compongono. D’altra parte, il gruppo di cui ci si fida 
«automaticamente» può essere una forzatura veicolata da comportamenti 
gregari e non rispondente a una realtà fattuale al di là dei social 
media, come accade per il gruppo dei follower di un certo marchio o 
persona famosa.
Possiamo grossolanamente distinguere /bias /e pregiudizi ricordando che 
mentre un /bias /può avere una valenza positiva, appunto perché 
l’euristica su cui si basa può giocare un ruolo positivo nell’effettuare 
una decisione in maniera rapida, un pregiudizio è associato a un errore 
di valutazione e quindi ha una valenza negativa (si veda il saggio 
introduttivo di Daniel Kahneman, /Pensieri lenti e veloci/, Mondadori, 
2012.).
    *Correggere i bias delle IA?*
Si dice che anche le IA sono affette da /bias/. A mio parere si tratta 
di una strategia retorica per stornare l’attenzione dal fatto, banale ma 
poco riconosciuto, che un sistema automatico non può predire il futuro 
di singole persone o gruppi. Tuttavia, dal momento che questo diversivo 
ha acquisito ampia visibilità, è opportuno metterlo in discussione. 
Quando un algoritmo di IA produce risultati sistematicamente erronei a 
causa di presupposti errati nel processo di apprendimento automatico, si 
parla di /bias /anche nel caso degli algoritmi, cioè delle procedure su 
cui si basano le IA. Una simile definizione, che si ritrova ripetuta in 
moltissime fonti online più o meno scientifiche, lascia spazio a molti 
dubbi. Cosa significa esattamente errore, nel caso dell’apprendimento 
automatico?
I /bias /cognitivi non sono errori di per sé, anche se possono condurre 
a valutazioni erronee. Inoltre, i presupposti dei /bias /cognitivi non 
sono errati di per sé, per quanto possano essere sfruttati per ingannare 
un essere umano e manipolarne opinioni e decisioni. Si tratta del 
meccanismo all’opera in moltissime frodi online: l’esempio più semplice 
è quello delle comunicazioni fraudolente che sembrano provenire da una 
fonte fidata (quindi da qualcuno che fa parte del gruppo sociale 
percepito: un amico, ad esempio) e invece sono contraffazioni che mirano 
a carpire password, account e così via. Eppure, è del tutto ragionevole 
tendere a fidarsi dei propri amici e, più in generale, è fondamentale 
intessere relazioni di fiducia, perché non sarà certo delegando la 
fiducia a una sedicente tecnologia super partes che gli esseri umani 
«risolveranno» le dinamiche relazionali. Le relazioni non sono problemi 
da risolvere seguendo una procedura algoritmica, ma opportunità da vivere.
Ad ogni modo, la letteratura sulle metodologie di «/debiasing/ delle IA» 
e di «/debiasing/ algoritmico» in particolare è ormai enorme. La 
questione potrebbe sembrare di interesse specialistico, e invece tocca 
le esperienze più comuni di interazione con il digitale di massa, o 
potrebbe toccarle a breve.
In realtà la storia di quelli che sono rubricati come pregiudizi 
razzisti, sessisti, abilisti degli algoritmi ha già quasi un decennio. 
Nel 2015, il servizio Google Photos categorizzava automaticamente enormi 
quantità di immagini grazie a un sistema di ML (Machine Learning, cioè 
apprendimento automatico). Un utente ritrovò foto sue e dei suoi 
familiari etichettate come «gorilla»; lo stesso accadde a immagini di 
altre persone di colore. Incalzato da attivisti e ricercatori, il 
colosso di Mountain View è corso ai ripari bandendo le foto dei gorilla, 
per poi riuscire, oltre tre anni più tardi, a sistemare in qualche modo 
l’errore. Ma non c’è limite al peggio. Sistemi di riconoscimento 
facciale basati su ML si sono dimostrati molto poco affidabili 
nell’identificare persone di colore. Soluzioni di /predictive policing/ 
si sono dimostrate inclini a ritenere più propensi a delinquere maschi 
di colore, e così via discriminando, producendo una mescolanza bigotta 
di politiche reazionarie (si veda Robert E. Smith, /Rage Inside the 
Machine, /Bloomsbury, 2019).
Di fatto, i sistemi automatici di apprendimento tendono a funzionare 
come oracoli, perché favoriscono decisioni nei termini di profezie che 
si autorealizzano (cfr. Sun-ha Hong, /Predictions without futures/: 
bit.ly/Hong). Le narrazioni messe in campo per giustificare la messa in 
commercio di sistemi non funzionanti e anzi pericolosi sono varie, dal 
principio di inevitabilità tecnologica, al soluzionismo (per una 
panoramica con fonti di approfondimento si veda Daniela Tafani, /Sistemi 
fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza 
artificiale» e il risveglio del diritto/: bit.ly/dirittoIA).
Nutrire le IA con dati presi online in maniera acritica conduce 
inevitabilmente a produrre caratteristiche problematiche. Infatti i 
modelli risultanti tendono a categorizzare in maniera dispregiativa 
donne, generi non binari, persone non bianche, persone affette da 
disabilità e così via, cioè sono pesantemente influenzati dalla visione 
dominante, una visione del mondo bianca, maschilista e patriarcale.
Una componente fondamentale sono gli enormi insiemi di dati basati 
sull’estrazione dal web. Il web è composto da miliardi di pagine. 
Ridotte a informazioni elementari (token), vengono utilizzate per 
fornire una base ai sistemi di ML. Ad esempio, il LLM noto come GPT-3 è 
basato per il 60% su dati provenienti da Common Crawl, che raccoglie 
miliardi di pagine web, anche protette da copyright, e certamente anche 
pagine che esprimono posizioni sessiste, razziste, ecc. perciò sistemi 
allenati su questi dati sono logicamente inclini a fornire una visione 
concorde con il pensiero egemonico e dominante, discriminando le minoranze.
Attenzione: questo li rende problematici nel senso di non adeguati dal 
punto di vista dell’ideologia liberale che le finanzia, che ama 
presentarsi come progressista, inclusiva e aperta, almeno in Occidente; 
ma è importante notare che sarebbero adeguate dal punto di vista di 
un’ideologia esplicitamente razzista, o che promuove l’eugenetica. La 
situazione è grave, ma potrebbe rapidamente peggiorare a favore di 
involuzioni autoritarie.
L’idea del /debiasing/ delle IA, e del /debiasing/ algoritmico in 
particolare, si basa sul presupposto che gli errori possano essere 
individuati e corretti, a tutti i livelli: nei dati di partenza per 
l’allenamento, nelle associazioni, negli effetti imprevisti. Una 
correzione «semplice» potrebbe essere la seguente: SE il sistema associa 
più facilmente «casalinga» a «donna», e «calciatore» a «uomo», ALLORA 
possiamo intervenire bilanciando i pesi che conducono l’algoritmo a 
effettuare quelle associazioni.
Anche se questo approccio produce risultati concreti, a mio parere si 
fonda su un malinteso di fondo. Ripetiamolo: un /bias /cognitivo non è 
un errore, è un’inclinazione che va compresa e tenuta in considerazione 
affinché non venga sfruttata per fomentare pregiudizi e nutrire 
convinzioni nocive come il sessismo e il razzismo. Ciò significa che 
sessismo, razzismo, abilismo, maschilismo, ma anche terrapiattismo e 
complottismo, non sono /bias /cognitivi e nemmeno sono errori da un 
punto di vista cognitivo: sono concezioni e visioni del mondo, elementi 
costitutivi di ideologie politiche, portatori di modelli organizzativi 
psicologici e sociali.
Allo stesso modo, se un sistema basato su IA genera risultati rubricati 
come razzisti, sessisti, in qualche modo scorretti, ciò non significa 
che sia sufficiente correggere gli errori presenti nei dati, nelle 
associazioni fra i dati, nelle annotazioni dei revisori che etichettano 
tali associazioni e così via. In maniera analoga, una persona che 
esprime convinzioni razziste o sessiste non è detto che possa essere 
«corretta» spiegando il presunto errore di valutazione: per quella 
persona non è affatto un errore, corrisponde a un dato di fatto che 
giustifica e corrobora la sua visione del mondo. L’educazione al 
riconoscimento delle reciproche libertà nell’uguaglianza, al mutuo 
appoggio, alla democrazia non dipendono dalla corretta categorizzazione 
dei dati, ma dall’applicazione di convinzioni profonde, anche di 
carattere ideologico.
Ritenere che gli esseri umani sono tutti uguali, e ugualmente liberi, è 
una convinzione fondata su presupposti ideologici, non su dati di fatto 
scientificamente dimostrabili.
Assumere una posizione di relativismo radicale (non assoluto, che 
sarebbe una contraddizione in termini) non è una sconfitta, al contrario 
(cfr. Tomás Ibáñez, /Il libero pensiero. Elogio del relativismo/, 
Elèuthera, 2007). Le libertà non sono mai conquiste definitive, né 
possono derivare dall’applicazione di metodologie automatiche, ma sono 
frutto di scelte consapevoli da confermare giorno per giorno, sulla base 
di convinzioni non computabili, non dimostrabili. Le macchine, i sistemi 
di calcolo automatizzati e anche quelle che vengono chiamate nel 
marketing tecnologico attuale «IA» possono aiutare gli umani a 
co-evolvere in un mondo più giusto e più equo, ma non perché prive di 
inclinazioni, bensì perché possono essere programmate per prendersi cura 
delle vulnerabilità umane, aiutare gli umani a essere meno arroganti, 
più gentili, meno sciatti, più compassionevoli.
*Cambiare il paradigma*
Che tipo di società vogliamo promuovere? Quali forme di partecipazione 
alla coabitazione sul pianeta Terra che è l’orizzonte comune? Senz’altro 
i contenuti e i metodi con cui le cosiddette IA sono state concepite 
finora risentono fortemente del paradigma archico (da /archè/, 
“cominciamento” e comando in greco: cfr. Catherine Malabou, /Al ladro!/, 
Elèuthera, 2023), che presuppone l’inevitabilità del comando, del 
governo, del cominciamento. Si presuppone che le IA, come gli esseri 
umani, debbano essere comandate, ovvero debbano obbedire a degli ordini. 
Debbano essere governate, ovvero debbano accettare di essere 
irreggimentate, condotte, guidate. Debbano essere sottoposte a coloro 
che vengono prima, che le hanno costruite: i padroni umani.
Non sto plaudendo a una fantascientifica liberazione delle IA, che, 
ricordiamo ancora una volta, al momento non sono né intelligenti né 
esclusivamente artificiali. Vorrei invece portare l’attenzione sul fatto 
che anche questa dispendiosa, inquinante, sciocca corsa alle IA non 
mette minimamente in discussione tale paradigma, anzi, lo assume in 
maniera talmente surrettizia che è difficile accorgersene, presi come 
siamo a cercare di controllare queste tecnologie. Una volta di più, chi 
controllerà i controllori? Non è necessario assumere posizioni 
socialiste per comprendere che tecnologie enormemente potenti nelle mani 
di pochi padroni, in un mondo sempre più fortemente squilibrato nel 
senso del dominio, della rapina indiscriminata di risorse naturali e 
umane, dello sfruttamento e dell’oppressione diffusa, faranno gli 
interessi di quei padroni, ne saranno i fedeli servi.
Non è certo «colpa» delle IA. Tuttavia, invece di ri-programmare e 
ri-condizionare le macchine perché risolvano problemi come il razzismo, 
il sessismo e l’abilismo, è importante riconoscere che non si tratta di 
problemi da risolvere attraverso l’automazione, ma di questioni sociali, 
cioè di faccende relazionali. L’automazione è il livello più basso di 
interazione possibile con gli esseri tecnici. Ma è possibile maturare 
nuovi tipi di relazione non solo automatici, bensì frutto di scelte 
consapevoli e condivise, motivati dalla gioia e dal divertimento di fare 
cose insieme. Per questo c’è bisogno di meno finanza e di più politica, 
nel senso di capacità di immaginare un mondo comune equo. Serve maggiore 
riflessione filosofica (non di quella finanziata dai padroni che 
vogliono giustificare lo status quo), perché le IA che ormai popolano il 
nostro mondo non sono banali utensili, ma artefatti complessi.
Ci vuole educazione per vivere insieme alle macchine, per imparare a 
selezionare i sistemi tecnici con cui vogliamo coabitare, con cui ci 
troviamo a nostro agio, capaci di provocare emozioni da coltivare, che 
non sono servi al nostro servizio, ma compagni di viaggio.
A questo mirano le attività di pedagogia hacker, per sviluppare 
tecnologie conviviali.
info@???
Centro di Documentazione di Pistoia
via Pertini snc, c/o Biblioteca San Giorgio – 51100 Pistoia
p.iva 01271720474 – codice destinatario KRRH6B9
centrodocpistoia.it <
http://www.centrodocpistoia.it/>