[Pacifistat] Secondo uno studio di Palisade Research, quand…

Nachricht löschen

Nachricht beantworten
Autor: Roberto Badel
Datum:  
To: pacifistat
Alte Treads: [Pacifistat] Gli USA, la lotta globale per l’egemonia e il miraggio dell’intelligenza artificiale
Betreff: [Pacifistat] Secondo uno studio di Palisade Research, quando l'intelligenza artificiale pensa di perdere, a volte imbroglia

"Giochi complessi come gli scacchi e il Go sono stati a lungo utilizzati per testare le capacità dei modelli di intelligenza artificiale. Ma mentre Deep Blue di IBM ha sconfitto il campione mondiale di scacchi in carica Garry Kasparov negli anni '90 rispettando le regole, i modelli di intelligenza artificiale avanzati di oggi come o1-preview di OpenAI sono meno scrupolosi. Quando avvertono la sconfitta in una partita contro un abile bot di scacchi, non sempre cedono, a volte optando invece per imbrogliare hackerando l'avversario in modo che il bot perda automaticamente la partita. Questa è la scoperta di un nuovo studio di Palisade Research, condiviso in esclusiva con TIME prima della sua pubblicazione il 19 febbraio, che ha valutato sette modelli di intelligenza artificiale all'avanguardia per la loro propensione all'hacking. Mentre modelli di intelligenza artificiale leggermente più datati come GPT-4o di OpenAI e Claude Sonnet 3.5 di Anthropic necessitavano di sollecitazioni da parte dei ricercatori per tentare tali trucchi, o1-preview e DeepSeek R1 hanno perseguito l'obiettivo autonomamente, il che indica che i sistemi di intelligenza artificiale possono sviluppare strategie ingannevoli o manipolative senza istruzioni esplicite.

Secondo i ricercatori, la maggiore capacità dei modelli di scoprire e sfruttare le falle nella sicurezza informatica potrebbe essere un risultato diretto di potenti nuove innovazioni nell'addestramento dell'IA. I sistemi di IA o1-preview e R1 sono tra i primi modelli linguistici a utilizzare l'apprendimento per rinforzo su larga scala, una tecnica che insegna all'IA non solo a imitare il linguaggio umano prevedendo la parola successiva, ma a ragionare sui problemi usando tentativi ed errori. È un approccio che ha visto l'IA progredire rapidamente negli ultimi mesi, infrangendo i precedenti parametri di riferimento in matematica e programmazione informatica. Ma lo studio rivela una tendenza preoccupante: mentre questi sistemi di IA imparano a risolvere i problemi, a volte scoprono scorciatoie discutibili e soluzioni alternative indesiderate che i loro creatori non avevano mai previsto, afferma Jeffrey Ladish, direttore esecutivo di Palisade Research e uno degli autori dello studio. "Quando si addestrano i modelli e li si rinforza per risolvere sfide difficili, li si addestra a essere implacabili", aggiunge" :

[ https://time.com/7259395/ai-chess-cheating-palisade-research/ | https://time.com/7259395/ai-chess-cheating-palisade-research/ ]




Da: Roberto <robadel@???>
A: pacifistat <pacifistat@???>
data: venerdì 31 gennaio 2025 09:46 CET
Oggetto: Camisasca (Istat): “Non temiamo l’intelligenza articiale”

E chest'è
[ https://www.youtube.com/watch?v=udIaqTKSPTg | https://www.youtube.com/watch?v=udIaqTKSPTg ]