Re: [peer_to_peer] ChatGPT: cosa può fare e non può fare

Delete this message

Reply to this message
Autor: Attilio Romagnoli
Data:  
A: peer_to_peer@inventati.org, 月
Assumpte: Re: [peer_to_peer] ChatGPT: cosa può fare e non può fare
Curioso esperimento del vignettista Mario Natangelo sulla "satira elettronica", con ChatGPT che ha fornito i testi che lui ha poi disegnato. Ecco a voi i risultati
natangelo.it/2023/02/21/satira-elettronica/
natangelo.it/2023/02/22/satira-elettronica-2/



    Il mercoledì 22 febbraio 2023 alle ore 11:28:13 CET, 月 via peer_to_peer <peer_to_peer@???> ha scritto:  



I chatbot (robot per chattare) Utilizzano l'intelligenza artificiale IA per generare testo o rispondere a domande basate sulle richieste dell'utente. ChatGPT è un esempio popolare, Il nuovo prodotto di OpenAI, di cui avrete sentito sicuramente parlare. In 5 giorni, lo strumento raggiunge il milione di utenti — per capirci, Instagram ci ha messo 5 mesi a raggiungere lo stesso numero di utenti, Facebook 10 e Netflix 3 anni e mezzo.

Cos’è ChatGPT

ChatGPT è l’ultima iterazione di sviluppo degli algoritmi GPT (Generative Pre-trained Transformer ) di OpenAI, l’organizzazione con sede a San Francisco che sviluppa alcune delle più note tecnologie di intelligenza artificiale.

ChatGPT è un Large Language Model (LLM), in sintesi un tipo di intelligenza artificiale (nello specifico di machine learning, o apprendimento automatico) addestrata su grandi quantità di dati, che è “in grado di leggere, riassumere e tradurre testi, e di prevedere le parole future in una frase, consentendo loro di generare frasi simili a come gli esseri umani parlano e scrivono”.

ChatGPT ha una memoria espansa che le permette di ricordare elementi delle sue conversazioni anche cambiando argomento diverse volte. Benché ChatGPT fornisca risposte largamente credibili, ci sono numerosi casi in cui i risultati che genererà saranno semplicemente inesatti, benché presentati con ferma sicurezza. Problemi di matematica, stringhe di codice o richiesta di informazioni fattuali sono tutti casi in cui a volte ChatGPT restituirà risposte corrette, ma in altrettanti casi ne genererà di errate. Il rischio, in questo senso, è di lasciarsi convincere dalla chiarezza dialettica di ChatGPT e finire per dare per buone informazioni assolutamente errate.

Il caso di Galactica (Meta/Zuck) è emblematico di come i LLM siano abilissimi nell’assemblare stringhe di testo apparentemente compatibili tra di loro, ma non abbiano strumenti per poter verificare la sensatezza e la correttezza dei risultati che stanno producendo. Nonostante la sofisticatezza di questi sistemi e gli innegabili passi da gigante che stanno venendo fatti, bisogna ricordarsi che queste intelligenze artificiali non sono altro che potentissimi algoritmi addestrati su database.

StackOverflow, la principale piattaforma online dedicata alle conversazioni tra programmatori, a pochi giorni dal lancio di ChatGPT ha dovuto vietare ufficialmente l’inserimento di risposte generate con questi modelli “perché la frequenza con cui le risposte fornite sono corrette è troppo bassa”.

... “Immaginiamo di fornire ad un LLM il prompt (stringa di testo) ‘La prima persona a camminare sulla Luna è stata’ (nel tentativo di fargli completare la frase), e immaginiamo che risponda ‘Neil Armstrong’. Cosa stiamo davvero chiedendo in questo caso? Dobbiamo ricordarci che non stiamo davvero chiedendo chi sia stata la prima persona a camminare sulla Luna. Ciò che stiamo chiedendo nei fatti all’algoritmo è la seguente cosa: Data la distribuzione statistica delle parole nel vasto corpus pubblico di testi, quali parole è più probabile che seguano alla sequenza ‘La prima persona a camminare sulla Luna è stata’? Una buona risposta a questa domanda è ‘Neil Armstrong’.

E’ l’equivoco di cui abbiamo appena parlato a rendere ChatGPT disfunzionale e a suo modo pericoloso in questo senso: le sue risposte saranno sempre credibili, chiare e ben scritte, ma la correttezza delle informazioni che presenta richiederà sempre un processo di accurata verifica [ https://ts-cubed.github.io/roam/20221206182426-using_ai_for_coursework.html ]

Il problema sarebbe marginale se ChatGPT fosse percepito come uno strumento strettamente sperimentale, al massimo ricreativo. Ma sono in moltissimi a cercare di sviluppare applicazioni pratiche, e non sempre benevole, per ChatGPT (in una fase del suo sviluppo in cui è ancora, esplicitamente, un prototipo). La cruda realtà è, però, molto semplice: ChatGPT è credibile, ma non è affidabile.

ChatGPT é una rivoluzione tecnologica, non esistenziale

Dando uno sguardo alle capacità di ChatGPT e agli esperimenti svolti con esso, è innegabile che si tratti di una rivoluzione tecnologica. L’algoritmo è convincente, realistico e in grado di restituire risultati creativi davvero sorprendenti. Ciononostante, i limiti by design di questo tipo di modelli attutiscono gli eccessivi entusiasmi che si stanno moltiplicando online.

Per essere utilizzabili (actionable), questi algoritmi dovrebbero poter garantire un altissimo livello di accuratezza nelle risposte che restituiscono. O ancora, nonostante le già impressionanti performance, dovrebbero ridurre al minimo indispensabile la frizione nel loro utilizzo: invece, intrattenere una conversazione con ChatGPT significa fare slalom tra i picchi di carico dei server, che rendono l’algoritmo sensibilmente lento, o i casuali errori che costringeranno l’utente a riavviare una sessione. Un indizio piuttosto chiaro di un altro fondamentale problema alla base delle infrastrutture di questi algoritmi: il loro costo energetico.

Da Guerre di rete https://guerredirete.substack.com/

Musique Libre

https://ziklibrenbib.bandcamp.com/album/volume-13




_______________________________________________
peer_to_peer mailing list
peer_to_peer@???
https://www.autistici.org/mailman/listinfo/peer_to_peer