L’IA non capisce che cosa sia un fiore per gli esseri umani - Frontiere - Ansa.it


A study reveals that AI systems like ChatGPT struggle to comprehend the human understanding of concepts like 'flower', highlighting the limitations of AI in capturing sensory experiences.
AI Summary available — skim the key points instantly. Show AI Generated Summary
Show AI Generated Summary

I sistemi basati sull’Intelligenza Artificiale come ChatGpt non riescono a capire davvero che cosa sia un fiore e che cosa rappresenti per un essere umano: il problema è che tutto ciò che i chatbot sanno arriva da parole e in alcuni casi da immagini, e queste informazioni non possono compensare l’assenza di un esperienza diretta, della possibilità di annusare, toccare o passeggiare in un campo pieno di fiori.

Lo indica lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall’Università Statale dell’Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda. I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da ‘fiore’ a ‘umoristico’, e hanno messo alla prova due famiglie di sistemi all’avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google.

Per verificare quanto modelli linguistici ed esseri umani siano allineati nelle loro valutazioni. è stato chiesto a entrambi di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante e poi di valutare quanto sia stretto il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni. 

I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate alla percezione sensoriale hanno fallito. “I grandi modelli linguistici iottengono ciò che sanno assimilando enormi quantità di testo – afferma Xu – e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L'esperienza umana – osserva – è molto più ricca di quanto le parole possano contenere da sole”.

Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che permetteranno loro di avere un esperienza diretta degli oggetti.

Riproduzione riservata © Copyright ANSA

Was this article displayed correctly? Not happy with what you see?

Tabs Reminder: Tabs piling up in your browser? Set a reminder for them, close them and get notified at the right time.

Try our Chrome extension today!


Share this article with your
friends and colleagues.
Earn points from views and
referrals who sign up.
Learn more

Facebook

Save articles to reading lists
and access them on any device


Share this article with your
friends and colleagues.
Earn points from views and
referrals who sign up.
Learn more

Facebook

Save articles to reading lists
and access them on any device