[peer_to_peer] ChatGPT: cosa può fare e non può fare

Supprimer ce message

Répondre à ce message
Auteur: 
Date:  
À: peer_to_peer
Sujet: [peer_to_peer] ChatGPT: cosa può fare e non può fare
I chatbot (ro*bot*per *chat*tare) Utilizzano l'intelligenza artificiale
IA per generare testo o rispondere a domande basate sulle richieste
dell'utente. ChatGPT è un esempio popolare, Il nuovo prodotto di OpenAI,
di cui avrete sentito sicuramente parlare. In 5 giorni, lo strumento
raggiunge il milione di utenti — per capirci, Instagram ci ha messo 5
mesi a raggiungere lo stesso numero di utenti, Facebook 10 e Netflix 3
anni e mezzo.


          Cos’è ChatGPT



          ChatGPT è l’ultima iterazione di sviluppo degli algoritmi GPT
          (Generative Pre-trained Transformer ) di *OpenAI*,
          l’organizzazione con sede a San Francisco che sviluppa alcune
          delle più note tecnologie di intelligenza artificiale.


ChatGPT è un /Large Language Model/ (*LLM)*, in sintesi un tipo di
intelligenza artificiale (nello specifico di machine learning, o
apprendimento automatico) addestrata su grandi quantità di dati, che è
/“in grado di leggere, riassumere e tradurre testi, e di prevedere le
parole future in una frase, consentendo loro di generare frasi simili a
come gli esseri umani parlano e scrivono”./

ChatGPT ha una memoria espansa che le permette di ricordare elementi
delle sue conversazioni anche cambiando argomento diverse volte. Benché
ChatGPT fornisca risposte largamente credibili, ci sono numerosi casi in
cui i risultati che genererà
<https://github.com/sw-yx/ai-notes/blob/main/TEXT.md#fails> saranno
semplicemente inesatti, benché presentati con /ferma sicurezza/.
Problemi di matematica, stringhe di codice o richiesta di informazioni
fattuali sono tutti casi in cui a volte ChatGPT restituirà risposte
corrette, ma in altrettanti casi ne genererà di errate. /*Il rischio, in
questo senso, è di lasciarsi convincere dalla chiarezza dialettica di
ChatGPT e finire per dare per buone informazioni assolutamente errate.*/

Il caso di /Galactica/ (Meta/Zuck) è emblematico di come i *LLM* siano
abilissimi nell’assemblare stringhe di testo apparentemente compatibili
tra di loro, ma non abbiano strumenti per poter verificare la sensatezza
e la correttezza dei risultati che stanno producendo. Nonostante la
sofisticatezza di questi sistemi e gli innegabili passi da gigante che
stanno venendo fatti, bisogna ricordarsi che queste intelligenze
artificiali non sono altro che /*potentissimi algoritmi addestrati su
database*/.

/StackOverflow,/ la principale piattaforma online dedicata alle
conversazioni tra programmatori, a pochi giorni dal lancio di ChatGPT ha
dovuto vietare ufficialmente l’inserimento di risposte generate con
questi modelli “perché la frequenza con cui le risposte fornite sono
corrette è troppo bassa”.

... “Immaginiamo di fornire ad un LLM**il /prompt/ (stringa di testo)
‘/La prima persona a camminare sulla Luna è stata’ (nel tentativo di
fargli completare la frase), e immaginiamo che risponda ‘Neil
Armstrong’. /Cosa stiamo davvero chiedendo in questo caso? Dobbiamo
ricordarci che _non_stiamo davvero chiedendo chi sia stata la prima
persona a camminare sulla Luna. Ciò che stiamo chiedendo nei fatti
all’algoritmo è la seguente cosa:/Data la distribuzione statistica delle
parole nel vasto corpus pubblico di testi, quali parole è più probabile
che seguano alla sequenza ‘La prima persona a camminare sulla Luna è
stata’? Una buona risposta a questa domanda è ‘Neil Armstrong’./

E’ l’equivoco di cui abbiamo appena parlato a rendere ChatGPT
disfunzionale e a suo modo pericoloso in questo senso: le sue risposte
saranno sempre credibili, chiare e ben scritte, ma la correttezza delle
informazioni che presenta richiederà
<https://ts-cubed.github.io/roam/20221206182426-using_ai_for_coursework.html>sempre
un processo di accurata verifica [
https://ts-cubed.github.io/roam/20221206182426-using_ai_for_coursework.html
]

Il problema sarebbe marginale se ChatGPT fosse percepito come uno
strumento strettamente sperimentale, al massimo ricreativo. Ma sono in
moltissimi a cercare di sviluppare applicazioni pratiche, e non sempre
benevole, per ChatGPT (in una fase del suo sviluppo in cui è ancora,
/esplicitamente, un prototipo/). La cruda realtà è, però, molto
semplice: ChatGPT è credibile, ma non è affidabile.


          ChatGPT é una rivoluzione tecnologica, non esistenziale


Dando uno sguardo alle capacità di ChatGPT e agli esperimenti svolti con
esso, è innegabile che si tratti di una rivoluzione tecnologica.
L’algoritmo è convincente, realistico e in grado di restituire risultati
creativi davvero sorprendenti. Ciononostante, i limiti /by design /di
questo tipo di modelli attutiscono gli eccessivi entusiasmi che si
stanno moltiplicando online.

Per essere utilizzabili (/actionable)/, questi algoritmi dovrebbero
poter garantire un altissimo livello di accuratezza nelle risposte che
restituiscono. O ancora, nonostante le già impressionanti performance,
dovrebbero ridurre al minimo indispensabile la frizione nel loro
utilizzo: invece, intrattenere una conversazione con ChatGPT significa
fare slalom tra i picchi di carico dei server, che rendono l’algoritmo
sensibilmente lento, o i casuali errori che costringeranno l’utente a
riavviare una sessione. Un indizio piuttosto chiaro di un altro
fondamentale problema alla base delle infrastrutture di questi
algoritmi: il loro /*costo energetico.*/

Da Guerre di rete https://guerredirete.substack.com/

/*Musique Libre*/

*https://ziklibrenbib.bandcamp.com/album/volume-13*