Autor: Sandcat Datum: To: HackMeeting Betreff: Re: [Hackmeeting] intelligenza artificiale
Il 2024-01-22 09:53 I-330 via Hackmeeting ha scritto: > Ciao,
>
> anche a me piacerebbe sapere che se ne pensa dell'IA in lista. E' da un
> po' di tempo che sono stata tirata in mezzo a questo dibattito al
> lavoro (sono ricercatrice in linguistica) e finora non ho trovato
> approcci pratici soddisfacenti alla questione.
>
>> tibi--- via Hackmeeting ha scritto:
>> Io non credo che l'intelligenza artificiale sia un male, anzi. E' uno
>> strumento molto utile e importante. Ma come tutti gli strumenti
>> ovviamente dipende da come viene utilizzato. E se viene gestito solo
>> dall'alto è chiaro che il risultato è esattamente quello che la gente
>> si aspetta. Volevo allora proporre una riflessione sulle possibilità
>> di democratizzazione dell'Ai, per esempio creandone di condivisibili
>> dalla gente? Oppure costringendo a usare strumenti trasparenti? O
>> altro? Mi piacerebbe sapere che se ne pensa qui dentro :)
>
> Da una parte, devo capire come gestirla nella produzione di esami degli
> studenti. Finora la policy della mia universita' e' stata di vietare
> totalmente l'uso delle IA generativa nella produzione di esami, pero'
> mi sembra una policy che ha creato solo lavoro extra per me e nessun
> beneficio agli studenti. Nei miei corsi l'esame finale e' un piccolo
> progetto di ricerca: le piattaforme di IA generativa non sanno fare le
> analisi necessarie, ma sanno per lo meno vagamente rielaborare una
> riflessione sull'argomento in linguaggio tecnico in inglese. Quando
> l'intero esame viene prodotto da una piattaforma di IA i risultati sono
> disastrosi, ma d'altra parte queste piattaforme stanno chiudendo un gap
> linguistico tra madrelingua e non nel mercato della scrittura tecnica,
> e non mi sento di dire che questa applicazione e' necessariamente
> sbagliata.
>
Anzi, parlando di LLM è assolutamente tra gli usi più propri.
Immagino tu lo sappia già, ma a beneficio di tutt*: i modelli
linguistici sono pensati per imitare il linguaggio naturale, dove
"naturale" può anche essere un sottoinsieme come il linguaggio tecnico.
Sarà leggermente meno affidabile che nel linguaggio generale, ma nella
sua applicazione come "traduttore automatico evoluto", ossia che traduce
tenendo conto del contesto dell'intero documento anziché la singola
frase, applicando un registro specifico, farà probabilmente un lavoro
molto migliore che nell'ambito generativo vero e proprio.
> Questo e' il primo semestre in cui provero' a non vietare l'uso delle
> IA ma a chiedere che venga citato il prompt usato all'interno della
> bibliografia del progetto. Il semestre scorso ho passato ore di lavoro
> a cercare di dimostrare che dei compiti chiaramente insensati erano
> stati scritti con l'IA e mi e' sembrato un processo burocratico
> inutile. Una volta che ho dimostrato l'inautenticita' di un compito e
> lo studente in questione ha fallito l'esame, mi pare di aver ottenuto
> poco dal punto di vista educativo. Mi sembra piu' utile un approccio
> dove lo studente e' libero di usare questa piattaforma e viene poi
> considerato responsabile di ogni cosa scritta nel compito
> (allucinazioni, bias, etc). Nella mia visione forse idealistica, questo
> sistema richiede allo studente di ingaggiare in maniera critica col
> contenuto della IA per farne delle correzioni. Non ho idea di come
> possa andare, ad aprile lo scopriro'. Se andra' bene, mi sembra un buon
> risultato nel panorama socio-politico dove lavoro io.
>
Per quel che vale la mia opinione mi sembra un ottimo modo di affrontare
la cosa: critico, dialogante e potenzialmente giocoso. Molto meglio di
una proibizione assoluta dove va a finire che l'ai viene usata come
"assistente" occulto e poi rielaborata. :)
>> Sandcat via Hackmeeting ha scritto:
>> Ciao, penso che un punto fondamentale del discorso, che nel mainstream
>> viene spesso sottovalutato, è la mole, qualità, e lavorazione dei dati
>> che rappresentano la vera base di potere dello strumento ai.
>> [...]
>> penso che la base del potere dei sistemi ai derivi dai dati con cui
>> vengono addestrati, ne consegue che una democratizzazione dello stesso
>> non possa prescindere dal reclamare il potere sui dati che ne stanno
>> alla base. :)
>
> L'altro modo in cui sono costretta ad approcciarmi alla IA e' che
> costruisco corpora linguistici di lingue dell'Asia Centrale. Al momento
> col mio team stiamo per pubblicare un corpus di kazako. Nel mettere
> insieme questo corpus abbiamo fatto un sacco di riflessioni su cosa
> volevamo rappresentare della lingua perche' e' un po' un dovere quando
> ti proponi di rilasciare al pubblico una collezione che 'rappresenta'
> un'intera varieta' linguistica. Quando abbiamo iniziato 4 anni fa non
> avremmo mai immaginato che il nostro corpus potesse essere utilizzato
> come base dati per fare training a un LLM per IA generativa, pero' ora
> non e' piu' cosi' impensabile e mi preoccupa l'idea che le decisioni di
> rappresentazione della lingua che abbiamo preso passino come la realta'
> oggettiva della lingua kazaka.
>
> Stiamo costruendo un corpus di parlato per la ricerca linguistica, mi
> rendo conto che la quantita' di dati che siamo in grado di produrre non
> soddisfa il bisogno di chi sviluppa LLM. Ma ogni step del processo di
> costruzione di un dataset linguistico e' pieno di implicazioni
> socio-politiche e gli esperti di NLP che lavorano con me non mi
> sembrano interessati o addestrati a capirle. Che dati raccogliamo? Come
> li trascriviamo? (in quale alfabeto?) Lasciamo gli 'errori'
> grammaticali o no? Chi sono i parlanti che stiamo rappresentando? che
> genere comunicativo stiamo rappresentando e questo genere e' usato
> ugualmente dalla popolazione intera? Il mio team di linguisti e
> antropologi di 30 persone ci ha messo 4 anni a rispondere ad alcune di
> queste domande e non siamo completamente soddisfatti delle risposte. Un
> collega in NLP mi ha recentemente messo in mano una raccolta di post di
> Reddit per fargli una valutazione linguistica e me l'ha descritta come
> 'la rappresentazione completa della lingua inglese' con una
> tranquillita' d'animo che io non riusciro' mai ad avere.
>
> Mi sembra che finche' non avremo il controllo di cosa va dentro questi
> modelli, non abbiamo modo di democratizzare la costruzione della IA.
> Magari l'approccio giusto e' prendere un ruolo attivo nel fornire
> correttivi ai bias rappresentati. Per esempio, io non riesco a essere
> completamente d'accordo con la decisione del Manifesto (e in generale
> dei siti di giornali) di sottrarre i propri dati all'addestramento
> delle IA. Non riesco a non pensare che se iniziamo a eliminare i dati
> in cui possiamo trovare dei correttivi, quello che stiamo lasciando
> indietro e' la fogna dell'internet.
>
>
> Comunque non ho risposte, solo una lista di dubbi sempre piu' lunga.
>
> Un abbraccio,
> I-330
Questione tanto interessante quanto spinosa, come hai evidenziato è un
problema ricorrente nell'antropologia, dove è impossibile studiare una
cultura altra senza portarsi dietro in qualche modo un punto di vista
viziato dalla propria cultura. Ad oggi l'unico palliativo possibile è
cercare di tenere conto del bias e lasciar esprimere nel modo più
diretto possibile le persone appartenenti alle culture rappresentate.
Che avranno a loro volta dei bias, ma almeno è parte dell'oggetto di
studio.
Non credo esistano soluzioni veloci o definitive, si può solo affrontare
l'argomento con profondità e cautela, come nella precedente ricerca a
cui hai lavorato.
Per quanto sia molto affascinante è una posizione che non ti invidio,
avere tra le mani un problema complesso e allo stesso tempo essere
soggetti alle pressioni dell'hype non deve essere per nulla facile.
Ti ringrazio molto per aver condiviso queste tue esperienze, e se ti va
facci sapere come va a finire.