La sfiducia nelle fonti umane incide sulla percezione dell’intelligenza artificiale

Uno studio dell’Università Cattolica di Milano indaga il legame tra fiducia nelle fonti umane e atteggiamento verso l’intelligenza artificiale
Il ruolo della sfiducia epistemica nello studio dell’Università Cattolica del Sacro Cuore
Un recente studio condotto dal Centro di Ricerca sulla Teoria della Mente e sulla Competenza Sociale nel Ciclo di Vita (CeRiToM), attivo presso il campus di Milano dell’Università Cattolica del Sacro Cuore, ha indagato la relazione tra sfiducia epistemica e atteggiamento verso l’intelligenza artificiale. La ricerca, coordinata da Antonella Marchetti e realizzata in collaborazione con Davide Massaro, Cinzia Di Dio, Federico Manzi e Federica Sacco, ha coinvolto 121 adulti italiani, con un’età media di 36,57 anni e background scolastici e lavorativi diversificati.
Dallo studio emerge che le persone inclini a una visione critica delle fonti umane tendono a concentrarsi maggiormente sui limiti dell’AI. Al contrario, chi ha una maggiore familiarità con le tecnologie di intelligenza artificiale si mostra più propenso ad accettarne le applicazioni e il potenziale evolutivo.
Fiducia, conoscenza e apertura verso l’intelligenza artificiale
La sfiducia epistemica, cioè la tendenza a considerare le fonti umane di conoscenza come inaffidabili o intenzionalmente fuorvianti, gioca un ruolo centrale nella percezione della tecnologia. I ricercatori evidenziano come la conoscenza diretta dell’IA favorisca atteggiamenti più aperti e meno pregiudizievoli, suggerendo l’importanza di rafforzare le competenze cognitive e critiche della popolazione.
«L’importanza di sviluppare la consapevolezza epistemica, ossia la capacità di valutare criticamente le informazioni, di riflettere su come formiamo le nostre convinzioni e di tollerare l’incertezza», si legge nella nota ufficiale dell’Università Cattolica del Sacro Cuore, rappresenta un passaggio chiave per affrontare in modo costruttivo il futuro tecnologico.
Alfabetizzazione digitale e responsabilità sociale come strumenti di fiducia
Gli studiosi sottolineano la necessità di un’alfabetizzazione globale dell’intelligenza artificiale: comprendere la tecnologia, infatti, ne riduce l’effetto intimidatorio e consente un’analisi più equilibrata dei suoi vantaggi e delle sue criticità. «Conoscere la tecnologia non solo la rende meno spaventosa, ma permette anche di considerarne potenzialità e limiti con maggiore lucidità e promuove una consapevolezza epistemica più inclusiva di tutte le fasce della popolazione», si legge ancora nel comunicato.
Parallelamente, è fondamentale «promuovere un’educazione che stimoli la riflessione etica e la responsabilità sociale», con l’obiettivo di formare cittadini capaci di navigare in modo consapevole nell’attuale ecosistema dell’informazione.
Il futuro dell’intelligenza artificiale dipende anche dalla fiducia collettiva
La riflessione conclusiva dello studio sposta il focus sul piano sociale: «Il futuro dell’IA non dipenderà solo dai progressi ingegneristici, ma dalla nostra capacità collettiva di sviluppare una fiducia riflessiva, consapevole e fondata su conoscenza, trasparenza e responsabilità». La fiducia, quindi, non è soltanto un fattore individuale, ma una risorsa culturale che può determinare l’impatto effettivo delle innovazioni tecnologiche sul tessuto sociale.