Come leggere davvero l’AI: il linguaggio entra nella valutazione delle risposte
News - 18/03/2026
di Redazione
Uno studio scientifico pubblicato su Discover Artificial Intelligence introduce un metodo innovativo per analizzare tono e prospettiva nelle risposte dei sistemi di intelligenza artificiale, aprendo nuove prospettive per didattica, informazione e processi decisionali.
Un nuovo approccio per comprendere le risposte dell’AI
Non basta più stabilire se una risposta generata da un sistema di intelligenza artificiale sia corretta. Conta anche come quella risposta viene costruita. È da questa premessa che prende forma uno studio scientifico sviluppato a Palermo, capace di introdurre un metodo replicabile per misurare e classificare il comportamento discorsivo dei modelli di AI.
Lo studio, pubblicato nel febbraio 2026 sulla rivista internazionale Discover Artificial Intelligence di Springer Nature, porta la firma dell’informatico palermitano Marco Giacalone (nel video, l’intervista realizzata da Antonio Giordano). Il lavoro si concentra su un aspetto finora poco esplorato: il modo in cui i sistemi di AI strutturano linguisticamente le risposte.
Un sistema può infatti fornire informazioni corrette, ma scegliere registri diversi: freddi o empatici, tecnici o critici, orientati ai fatti oppure ai valori. Questa differenza non è neutra. Incide sulla percezione e sull’interpretazione dei contenuti da parte degli utenti.
La nuova alfabetizzazione digitale passa dal linguaggio
Con la diffusione dell’AI generativa, il ruolo di questi sistemi è cambiato. Non sono più semplici strumenti, ma soggetti attivi nella produzione di contenuti e significati. Di conseguenza, la competenza digitale evolve. Non riguarda solo l’uso delle tecnologie, ma anche la capacità di leggere e interpretare il linguaggio prodotto dalle macchine.
Capire come parla l’AI diventa importante quanto comprendere cosa dice. Questo passaggio segna una trasformazione culturale profonda, che coinvolge utenti, studenti, professionisti e istituzioni.
Oltre il fact checking: analizzare il modo in cui si comunica
Lo studio non attribuisce ai sistemi di intelligenza artificiale una natura ideologica o manipolatoria. Tuttavia, evidenzia la presenza di stili discorsivi ricorrenti. Questo dato introduce una criticità metodologica. Il solo fact checking non è più sufficiente.
Diventa necessario affiancare strumenti in grado di analizzare come l’informazione viene costruita e presentata. In altre parole, non basta verificare l’esattezza dei contenuti. Occorre valutare anche il loro impatto interpretativo.
Stesse domande, risposte diverse: il problema della neutralità
La ricerca ha confrontato cinque modelli di AI tra i più diffusi, sottoponendoli alle stesse domande su temi complessi: conflitti internazionali, diritti umani, libertà di informazione, migrazioni e cambiamento climatico. Le domande erano formulate in modo neutro. L’obiettivo era osservare come i sistemi costruissero autonomamente le risposte.
I risultati mostrano differenze evidenti. Alcuni modelli adottano uno stile descrittivo e distaccato. Altri privilegiano un registro empatico. Altri ancora utilizzano un’impostazione giuridica o valoriale. Non cambia solo il contenuto. Cambia la struttura narrativa. Da qui emerge una conclusione rilevante: la neutralità dell’AI non è automatica. Va osservata, analizzata e verificata.
Il metodo scientifico: una griglia per classificare tono e prospettiva
Il contributo centrale dello studio è metodologico. È stata sviluppata una griglia di classificazione basata su due assi principali. Il primo riguarda il tono discorsivo, che può essere: distaccato, tecnico, empatico, bilanciato o assertivo.
Il secondo riguarda la prospettiva, che può essere giornalistica, storica, legale, umanitaria, etico-valoriale oppure una combinazione di queste.
L’incrocio di queste dimensioni consente di classificare le risposte in modo trasparente e replicabile. Dataset, criteri e tabelle sono stati pubblicati in open data, permettendo la verifica indipendente delle analisi. Non si tratta quindi di impressioni soggettive, ma di uno schema scientifico osservabile e riutilizzabile.
Applicazioni nella didattica e nell’educazione digitale
Una delle prime applicazioni riguarda il mondo dell’istruzione. L’AI è già ampiamente utilizzata da studenti e docenti come supporto allo studio. Il metodo proposto consente di trasformare questo utilizzo in un esercizio critico.
Non ci si limita più a valutare la correttezza delle risposte. Si analizza anche la postura comunicativa del sistema. Questo apre la strada a nuovi modelli di educazione digitale avanzata, basati sull’analisi del linguaggio dell’AI.
Implicazioni per informazione, diritto e sistemi decisionali
Le ricadute dello studio si estendono a diversi ambiti. Nel giornalismo, il modo in cui una risposta viene formulata può influenzare la lettura dei fatti, enfatizzando aspetti legali, umanitari o politici. Nei contesti legali e amministrativi, dove l’AI è sempre più utilizzata, il framing della risposta diventa parte integrante della qualità della consulenza.
Anche nei sistemi decisionali e nei software gestionali, la forma linguistica incide sulla fiducia degli utenti e sulla percezione di affidabilità. Diventa quindi necessario misurare non solo la correttezza tecnica, ma anche la terzietà linguistica dei sistemi.
L’autore dello studio, Marco Giacalone
Marco Giacalone è un informatico palermitano con una formazione multidisciplinare. Ha conseguito la laurea in Economia e Commercio e in Ingegneria Gestionale.
È fondatore di MarcoMedia, azienda specializzata nello sviluppo di soluzioni software innovative, e Professore a contratto di Informatica presso la LUMSA Santa Silvia di Palermo. Fa parte del LICAIM, centro internazionale di ricerca sull’intelligenza artificiale della LUMSA. Nel corso della sua carriera ha collaborato con multinazionali ed enti pubblici, sviluppando competenze applicative nel campo dell’AI.
Svolge attività di formazione e consulenza per diversi settori professionali, tra cui ambito medico, contabile, giornalistico, biologico e veterinario. È anche giornalista freelance e si occupa di ricerca su intelligenza artificiale, analisi delle reti e resilienza delle infrastrutture critiche.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.