Speaker
Description
I Large Language Models sono spesso impiegati come strumenti di supporto al processo decisionale anche se possono mostrare pregiudizi decisionali simili a quelli degli esseri umani. Visto che le persone tendono ad avere un pregiudizio positivo nei confronti delle nuove tecnologie, è fondamentale esaminare i fattori che influenzano i giudizi di fiducia delle persone nei confronti dell'intelligenza artificiale generativa (IA). Questo studio ha analizzato se gli individui utilizzano la correttezza o la lunghezza delle risposte come indicatore dell'affidabilità delle risposte stesse. La manipolazione della lunghezza è dovuta al fatto che essa viene spesso associata ad un ragionamento di natura più o meno articolata. Abbiamo presentato scenari decisionali tratti dai programmi di ricerca sulle euristiche e i pregiudizi e il test di riflessione cognitiva (CRT) abbinato a una risposta. Inoltre, abbiamo valutato la fiducia degli individui nell'IA attraverso la scala Trust in Automation. La lunghezza e la correttezza delle risposte sono state manipolate in modo che fossero o lunghe (o concise) e corrette (intenzionali) o errate (intuitive). Dai risultati ottenuti, i partecipanti hanno valutato le risposte lunghe come più affidabili di quelle concise e le risposte corrette come più affidabili di quelle errate ma solo per gli item CRT.
La fiducia nell'IA ha mostrato effetti di interazione con la tipologia di scenario e la lunghezza delle risposte. Questi risultati suggeriscono una complessa interazione tra caratteristiche delle risposte nell'influenzare la percezione di affidabilità degli utenti.
| If you're submitting a symposium, or a talk that is part of a symposium, is this a junior symposium? | No |
|---|