Speaker
Description
I rapidi progressi dei Large Language Models (LLM) come ChatGPT hanno sollevato interrogativi fondamentali sulla loro capacità di approssimare la cognizione umana. Mentre i LLM eccellono nella competenza linguistica formale, la loro competenza linguistica funzionale—che comprende conoscenza del mondo, modellazione delle situazioni e fondamento senso-motorio—rimane oggetto di dibattito. Questo studio esamina criticamente il framework dell'embodied cognition confrontando le valutazioni umane e quelle generate da ChatGPT in merito alle caratteristiche senso-motorie e di dominanza per 959 parole italiane. Basandoci sul presupposto che l'embodied cognition necessiti di esperienze corporee, abbiamo ipotizzato che ChatGPT si sarebbe allineato poco con i giudizi umani per le dimensioni sensoriali e motorie, ma avrebbe dimostrato una migliore corrispondenza per le valutazioni astratte di dominanza. I nostri risultati hanno confermato che le correlazioni tra le valutazioni umane e quelle di ChatGPT erano trascurabili per tutte e sei le modalità sensoriali (vista, udito, tatto, olfatto, gusto, interocezione) e che l'IA non è riuscita a generare valutazioni motorie significative. Tuttavia, è emersa una correlazione significativa per le valutazioni di dominanza, sebbene con una modesta varianza condivisa (1,94%), suggerendo che i LLM possono approssimare dimensioni concettuali meno dipendenti dall'esperienza corporea diretta. Questi risultati sottolineano i limiti dei LLM nel replicare la cognizione umana e evidenziano il ruolo essenziale del grounding senso-motorio nell'elaborazione concettuale. Il nostro studio contribuisce al discorso in corso sui meccanismi cognitivi alla base dell'IA e sulla loro divergenza dalla cognizione umana, riaffermando la centralità dell'embodiment nelle rappresentazioni mentali.