Foto: Pixabay
Foto: Pixabay

L’intelligenza artificiale mostra ancora segna evidenti di mancanza di logica e scarsa capacità di mettere in relazione i concetti.
In una fase della storia in cui il futuro sembra destinato a esser dominato dall’uso dei sistemi d’intelligenza artificiale, una frenata giunge da uno studio in via di pubblicazione sulla rivista Royal Society Open Science, realizzato da Olivia Macmillan-Scott, professoressa dell'University College di Londra, e da Mirco Musolesi, professore all'Università di Bologna.
Pur in possesso d’impressionanti capacità di linguaggio, le Intelligenze Artificiali generative come ChatGpt o Bard, secondo la ricerca, tradirebbero ancora una mancanza di razionalità e l’incapacità di superare test di ragionamento.
I due ricercatori hanno sottoposto i più popolari chatbot, da ChatGpt 4 e 3.5, fino a Bard e Llama, ad alcuni classici test logici usati in psicologia cognitiva: i sistemi hanno riportato le stesse percentuali di errore degli umani, ma sbagliando in modo diverso, dimostrando di non essere in grado di cogliere il senso delle parole e del contesto.
“Quando si chatta con le IA –ha detto all'ANSA Macmillan-Scott - è molto facile dimenticare che l'interlocutore è semplicemente un algoritmo e a volte si attribuiscono ai chatbot capacità logiche molto sofisticate”, ma se sottoposti a test differenti, i chatbot hanno spesso fornito risposte diverse quando veniva posta la stessa domanda, hanno commesso errori come sbagliare delle addizioni o scambiare vocali con consonanti. “È difficile – ha spiegato Musolesi - che un umano sbagli perché non sa cosa sia una vocale, come invece accade per molte IA” che avrebbero evidenziato passaggi logici strani, che non considerano il contesto, ma “si basano su schemi di probabilità”.
L’ultima evoluzione di un’IA, ChatGpt 4, ha superato ben il 90 per cento dei test ma, secondo gli autori della ricerca, il modello sarebbe stato già pre-addestrato, in fase di sviluppo, agli stessi test.
Alessandro Martegani