Uno studio dell’Università di Padova esplora l’empatia artificiale

un mosaico di volti che mostrano diverse emozioni

Lo studio dell’Università di Padova rivela che l’IA può imitare i giudizi emotivi umani osservando immagini

Una ricerca innovativa, pubblicata sulla rivista Royal Society Open Science, indaga la capacità dei modelli linguistici multimodali di intelligenza artificiale di imitare le reazioni emotive umane di fronte a diverse scene visive. Il lavoro è stato condotto da Zaira Romeo dell’Istituto di Neuroscienze del Cnr e da Alberto Testolin, docente del Dipartimento di Psicologia generale e del Dipartimento di Matematica dell’Università di Padova.

Risultati sorprendenti: le IA mostrano giudizi simili a quelli umani

L’articolo, intitolato Artificial Intelligence Can Emulate Human Normative Judgments on Emotional Visual Scenes, evidenzia come le risposte fornite dall’IA abbiano mostrato una corrispondenza inaspettata con le valutazioni umane, nonostante i sistemi analizzati non fossero stati progettati specificamente per elaborare giudizi emozionali sulle immagini.

Implicazioni future: IA nelle emozioni, tra salute mentale e istruzione

«Questo studio non solo dimostra che il linguaggio può supportare lo sviluppo di concetti emotivi nei moderni sistemi di IA, ma solleva anche importanti interrogativi su come si potranno impiegare queste tecnologie in contesti sensibili, come l’assistenza agli anziani, l’istruzione ed il supporto alla salute mentale», spiegano i due ricercatori.

Test su GPT, Gemini e Claude con immagini a contenuto emotivo

I ricercatori hanno esaminato il comportamento di sistemi generativi di intelligenza artificiale come GPT, Gemini e Claude, interrogandoli con domande mirate sul contenuto emotivo di una selezione di scene visive. Tali sistemi si basano su modelli di deep learning: reti neurali di grandi dimensioni composte da miliardi di connessioni, addestrate su vastissimi set di dati testuali e visivi.

Come l’IA associa emozioni a immagini mai viste prima

L’addestramento di questi modelli ha l’obiettivo di imparare ad associare a ciascuna immagine una descrizione coerente e verosimile, come ad esempio «Un gatto nero che rincorre un topo in un solaio», basandosi su milioni di esempi raccolti online o forniti da esperti. Nel contesto dello studio, l’IA ha ricevuto domande simili a quelle utilizzate negli esperimenti psicologici sugli esseri umani, accompagnate da stimoli visivi standardizzati.

Le immagini: positive, negative o neutre, ma tutte nuove per l’IA

Le immagini utilizzate rappresentavano un ampio ventaglio di contenuti emotivi: positivi (come un volto sorridente, un abbraccio, un campo di fiori), negativi (situazioni di pericolo, animali feriti, ambienti degradati) o neutri (oggetti comuni, paesaggi urbani).

Un database inedito per evitare condizionamenti nei modelli

«È fondamentale notare che in questo studio – continuano Zaira Romeo e Alberto Testolin – abbiamo utilizzato un insieme di immagini appartenenti a un database di ricerca privato, fornitoci dai colleghi del Nencki Institute for Experimental Biology dell’Università di Varsavia, assicurandoci quindi che nessuna IA avesse mai analizzato questo tipo di stimoli visivi durante la fase di addestramento».