Lo studio di Marco Giacalone su Springer Nature svela come il tono e la prospettiva dell’AI influenzano l’informazione. Oltre il fact-checking

PALERMO – Non è solo una questione di vero o falso. Quando interroghiamo un’intelligenza artificiale su temi complessi come il clima, i diritti umani o le migrazioni, la risposta che otteniamo non è mai uno specchio neutro della realtà. È, invece, una costruzione narrativa dotata di un “tono” e di una “prospettiva” ben precisi che influenzano profondamente il modo in cui percepiamo l’informazione.
A fare luce su questo meccanismo è uno studio scientifico firmato dall’informatico Marco Giacalone, pubblicato sulla prestigiosa rivista Discover Artificial Intelligence (Springer Nature) nel febbraio 2026. La ricerca introduce un metodo innovativo e replicabile per misurare il “comportamento discorsivo” dei modelli di AI più diffusi.
La fine della neutralità automatica
Lo studio ha messo a confronto cinque dei principali modelli di AI generativa, sottoponendo loro domande neutre su argomenti sensibili. Il risultato? A parità di domanda, le macchine rispondono in modi drasticamente diversi. Alcune adottano un registro distaccato e tecnico, quasi burocratico; altre preferiscono un approccio empatico, altre ancora si rifugiano in una cornice puramente legale o valoriale.
“La neutralità non è una proprietà automatica del linguaggio generato dall’AI”, emerge dalla ricerca. Questo significa che il modo in cui il contenuto viene “incorniciato” (il cosiddetto framing) può orientare la lettura dei fatti, dando risalto ad aspetti politici piuttosto che umanitari o storici, senza che l’utente se ne renda conto.
Una griglia per “leggere” i robot
Il cuore della ricerca è una griglia metodologica che analizza ogni risposta secondo due assi principali:
- Il Tono Discorsivo: che può variare tra tecnico, empatico, bilanciato o assertivo.
- La Prospettiva di Inquadramento: che definisce se il tema è trattato sotto una lente giornalistica, storica, legale, umanitaria o etica.
Questa mappatura, pubblicata in open data, permette di trasformare l’uso dell’AI da una consultazione passiva a un esercizio critico. Non basta più sapere se il dato è corretto (fact-checking); serve capire quale “postura” comunicativa ha scelto il sistema.
Dalla scuola ai tribunali: perché ci riguarda tutti
Le implicazioni sono enormi. Nel mondo della didattica, studenti e docenti devono imparare a decostruire le risposte dei chatbot per non assorbire passivamente una singola visione del mondo. Nel settore legale e amministrativo, dove l’AI funge sempre più da supporto decisionale, la “forma” del suggerimento incide sulla fiducia e sulla percezione di affidabilità della consulenza automatizzata.
Capire come parla l’AI sta diventando importante quanto capire cosa dice. La sfida del 2026 non è più solo tecnologica, ma culturale: una nuova alfabetizzazione digitale che ci permetta di restare spettatori critici di fronte a macchine che, pur non essendo ideologiche in senso umano, sviluppano stili discorsivi che possono condizionare il nostro pensiero.
