ChatGPT diventa sempre più intelligente, ma le sue allucinazioni aumentano

ChatGPT diventa sempre più intelligente, ma le sue allucinazioni aumentano

L’affidabilità dei modelli AI di OpenAI: un’analisi critica

Negli ultimi sviluppi, i modelli d’intelligenza artificiale di OpenAI, come GPT o3 e o4-mini, mostrano una frequenza sorprendentemente alta di allucinazioni rispetto ai loro predecessori. Questi errori nelle risposte possono sollevare interrogativi su quanto siano affidabili queste tecnologie nel mondo reale.

L’ascesa degli errori

Le nuove versioni, progettate per emulare il ragionamento umano piuttosto che limitarsi a generare testi fluenti, sembrano avere un lato oscuro. OpenAI ha recentemente rilevato che il modello GPT o3 ha presentato allucinazioni nel 33% dei test riguardanti figure pubbliche, raddoppiando il tasso di errore rispetto al vecchio modello o1.ancora più allarmante, il o4-mini ha registrato allucinazioni nel 48% dei casi analizzati.

Un’identità in crisi

Quando sottoposto a domande di cultura generale, il tasso di risposte errate per GPT o3 è schizzato al 51%, mentre per il o4-mini ha raggiunto un incredibile 79%. Questo non è semplicemente un errore casuale; significa che il sistema ha una sorta di crisi d’identità, il che è piuttosto preoccupante per qualcosa che si propone come sistema di ragionamento.

Le complicazioni del ragionamento

Un’ipotesi ricorrente tra i ricercatori afferma che più un modello cerca di ragionare, maggiore è la probabilità che si discosti dalla realtà. A differenza dei modelli più semplici che si concentrano su previsioni ad alta fiducia,i modelli di ragionamento si trovano nella posizione di dover valutare molteplici possibilità,collegare fatti diversi e,in sostanza,improvvisare. Improvvisare su fatti concreti equivale, di fatto, a creare informazioni false.

La linea sottile tra teoria e falsità

OpenAI ha dichiarato che l’aumento delle allucinazioni potrebbe non derivare da una maggiore incompetenza nei modelli di ragionamento, ma piuttosto dalla loro tendenza a essere più avventurosi e verbosi nelle risposte. Poiché non si limitano semplicemente a ripetere fatti ovvi, ma si avventurano in speculazioni, la distinzione tra teoria e verità può sfumarsi per l’intelligenza artificiale.

le conseguenze nel mondo reale

il crescente numero di allucinazioni è drammatico e rappresenta una seria preoccupazione per l’uso pratico di tali tecnologie. Chiamare i chatbot AI assistenti implica che saranno utili e non fonte di rischi. Già oggi, diversi professionisti, come avvocati, hanno affrontato problemi legali a causa di citazioni errate generate da ChatGPT—un segnale di avvertimento su cosa potrebbe accadere in contesti meno cruciali.

La sfida dell’affidabilità

Con l’ingresso dell’intelligenza artificiale in vari settori—dalle scuole agli uffici, fino agli ospedali—la capacità di essa di generare informazioni accurate diventa cruciale. Anche se questo tipo di AI potrebbe assistere nella stesura di domande di lavoro o nella risoluzione di questioni di fatturazione, l’efficacia di tali sistemi appare compromessa dalla loro inclinazione all’errore.

Un panorama incerto

La validità di un sistema che promette di risparmiare tempo e sforzi è messa in discussione se gli utenti devono impegnarsi tanto in verifiche quanto lo sarebbe stato farlo da soli. Modelli come GPT o3 hanno dimostrato capacità sorprendenti in alcune aree, ma a che prezzo? Se l’AI afferma che Abraham Lincoln ha condotto un podcast o che l’acqua bolle a 80°F, allora l’illusione di affidabilità svanisce rapidamente.In attesa che queste problematiche vengano affrontate e risolte, risulta fondamentale considerare ogni risposta fornita da un modello AI con un certo grado di scetticismo. In fondo, ChatGPT può talvolta sembrare quel partecipante eccessivamente certo di sé in riunioni dove abbandona il buon senso per affermazioni fantasiose.