anche a me piacerebbe sapere che se ne pensa dell'IA in lista. E' da un
po' di tempo che sono stata tirata in mezzo a questo dibattito al lavoro
(sono ricercatrice in linguistica) e finora non ho trovato approcci
pratici soddisfacenti alla questione.
> tibi--- via Hackmeeting ha scritto:
> Io non credo che l'intelligenza artificiale sia un male, anzi. E' uno
> strumento molto utile e importante. Ma come tutti gli strumenti
> ovviamente dipende da come viene utilizzato. E se viene gestito solo
> dall'alto è chiaro che il risultato è esattamente quello che la gente
> si aspetta. Volevo allora proporre una riflessione sulle possibilità di
> democratizzazione dell'Ai, per esempio creandone di condivisibili dalla
> gente? Oppure costringendo a usare strumenti trasparenti? O altro? Mi
> piacerebbe sapere che se ne pensa qui dentro :)
Da una parte, devo capire come gestirla nella produzione di esami degli
studenti. Finora la policy della mia universita' e' stata di vietare
totalmente l'uso delle IA generativa nella produzione di esami, pero' mi
sembra una policy che ha creato solo lavoro extra per me e nessun
beneficio agli studenti. Nei miei corsi l'esame finale e' un piccolo
progetto di ricerca: le piattaforme di IA generativa non sanno fare le
analisi necessarie, ma sanno per lo meno vagamente rielaborare una
riflessione sull'argomento in linguaggio tecnico in inglese. Quando
l'intero esame viene prodotto da una piattaforma di IA i risultati sono
disastrosi, ma d'altra parte queste piattaforme stanno chiudendo un gap
linguistico tra madrelingua e non nel mercato della scrittura tecnica, e
non mi sento di dire che questa applicazione e' necessariamente
sbagliata.
Questo e' il primo semestre in cui provero' a non vietare l'uso delle IA
ma a chiedere che venga citato il prompt usato all'interno della
bibliografia del progetto. Il semestre scorso ho passato ore di lavoro a
cercare di dimostrare che dei compiti chiaramente insensati erano stati
scritti con l'IA e mi e' sembrato un processo burocratico inutile. Una
volta che ho dimostrato l'inautenticita' di un compito e lo studente in
questione ha fallito l'esame, mi pare di aver ottenuto poco dal punto di
vista educativo. Mi sembra piu' utile un approccio dove lo studente e'
libero di usare questa piattaforma e viene poi considerato responsabile
di ogni cosa scritta nel compito (allucinazioni, bias, etc). Nella mia
visione forse idealistica, questo sistema richiede allo studente di
ingaggiare in maniera critica col contenuto della IA per farne delle
correzioni. Non ho idea di come possa andare, ad aprile lo scopriro'. Se
andra' bene, mi sembra un buon risultato nel panorama socio-politico
dove lavoro io.
> Sandcat via Hackmeeting ha scritto:
> Ciao, penso che un punto fondamentale del discorso, che nel mainstream
> viene spesso sottovalutato, è la mole, qualità, e lavorazione dei dati
> che rappresentano la vera base di potere dello strumento ai.
> [...]
> penso che la base del potere dei sistemi ai derivi dai dati con cui
> vengono addestrati, ne consegue che una democratizzazione dello stesso
> non possa prescindere dal reclamare il potere sui dati che ne stanno
> alla base. :)
L'altro modo in cui sono costretta ad approcciarmi alla IA e' che
costruisco corpora linguistici di lingue dell'Asia Centrale. Al momento
col mio team stiamo per pubblicare un corpus di kazako. Nel mettere
insieme questo corpus abbiamo fatto un sacco di riflessioni su cosa
volevamo rappresentare della lingua perche' e' un po' un dovere quando
ti proponi di rilasciare al pubblico una collezione che 'rappresenta'
un'intera varieta' linguistica. Quando abbiamo iniziato 4 anni fa non
avremmo mai immaginato che il nostro corpus potesse essere utilizzato
come base dati per fare training a un LLM per IA generativa, pero' ora
non e' piu' cosi' impensabile e mi preoccupa l'idea che le decisioni di
rappresentazione della lingua che abbiamo preso passino come la realta'
oggettiva della lingua kazaka.
Stiamo costruendo un corpus di parlato per la ricerca linguistica, mi
rendo conto che la quantita' di dati che siamo in grado di produrre non
soddisfa il bisogno di chi sviluppa LLM. Ma ogni step del processo di
costruzione di un dataset linguistico e' pieno di implicazioni
socio-politiche e gli esperti di NLP che lavorano con me non mi sembrano
interessati o addestrati a capirle. Che dati raccogliamo? Come li
trascriviamo? (in quale alfabeto?) Lasciamo gli 'errori' grammaticali o
no? Chi sono i parlanti che stiamo rappresentando? che genere
comunicativo stiamo rappresentando e questo genere e' usato ugualmente
dalla popolazione intera? Il mio team di linguisti e antropologi di 30
persone ci ha messo 4 anni a rispondere ad alcune di queste domande e
non siamo completamente soddisfatti delle risposte. Un collega in NLP mi
ha recentemente messo in mano una raccolta di post di Reddit per fargli
una valutazione linguistica e me l'ha descritta come 'la
rappresentazione completa della lingua inglese' con una tranquillita'
d'animo che io non riusciro' mai ad avere.
Mi sembra che finche' non avremo il controllo di cosa va dentro questi
modelli, non abbiamo modo di democratizzare la costruzione della IA.
Magari l'approccio giusto e' prendere un ruolo attivo nel fornire
correttivi ai bias rappresentati. Per esempio, io non riesco a essere
completamente d'accordo con la decisione del Manifesto (e in generale
dei siti di giornali) di sottrarre i propri dati all'addestramento delle
IA. Non riesco a non pensare che se iniziamo a eliminare i dati in cui
possiamo trovare dei correttivi, quello che stiamo lasciando indietro e'
la fogna dell'internet.
Comunque non ho risposte, solo una lista di dubbi sempre piu' lunga.
Un abbraccio,
I-330
--
- Ma, I-330, questo è assurdo. Dal momento che il numero dei numeri è
infinito, quale ultimo numero vuoi da me?
- E tu quale ultima rivoluzione vuoi? Non c'è un'ultima rivoluzione, le
rivoluzioni sono senza fine.