Svelare la scatola nera: come Harvard decifra l’intelligenza artificiale

Un gruppo di ricercatori di Harvard si impegna a decifrare i segreti dell’intelligenza artificiale (IA), spesso descritta come una “scatola nera” per la complessità dei suoi processi interni.

Durante la conferenza Upgrade 2025 a San Francisco, la società giapponese NTT Group ha annunciato la creazione del Physics of Artificial Intelligence (PAI) Group, con sede presso il Center for Brain Science di Harvard.

L’obiettivo del gruppo è identificare le leggi fondamentali che governano l’apprendimento e il ragionamento delle IA, simili a quelle della fisica che regolano movimento ed energia.

Un nuovo approccio alla comprensione dell’IA

Hidenori Tanaka, leader del PAI e ricercatore di punta al Center for Brain Science, ha sottolineato l’importanza di un’analisi approfondita. “Per valutare e risolvere il paradosso della scatola nera dell’IA, dobbiamo comprenderla a livello psicologico e architettonico: come percepisce, decide e perché”, ha dichiarato Tanaka a Observer durante l’evento. La sua visione si basa su un’analogia con la fisica teorica, disciplina in cui ha conseguito un dottorato a Harvard, per applicare principi scientifici rigorosi allo studio dell’apprendimento automatico.

I limiti del benchmarking tradizionale

Oggi, le capacità di un’IA si misurano attraverso il benchmarking, un metodo che sottopone i modelli a test standardizzati, come rispondere a quesiti scientifici, riconoscere immagini o giocare. Tuttavia, Tanaka considera questo approccio insufficiente. “Dobbiamo superare il benchmarking. Giudicare i modelli di IA solo in base alla potenza di calcolo o alla risoluzione di problemi complessi è riduttivo. Ignora la profondità cognitiva che questi modelli possono raggiungere”, ha affermato. Il PAI intende, quindi, sviluppare metodi alternativi per valutare l’IA, focalizzandosi sui processi interni piuttosto che sui risultati finali.

Migliorare l’IA attraverso la trasparenza

Comprendere il funzionamento interno di un modello di IA non solo ne chiarisce i meccanismi, ma ne facilita il miglioramento. Kazu Gomi, presidente e CEO di NTT Research, ha evidenziato i benefici pratici di questo approccio. “Scoprire le cause alla base del comportamento iniziale di un modello di IA può ridurre significativamente bias e allucinazioni nei sistemi futuri”, ha dichiarato Gomi all’Observer. Un’IA più trasparente consente, pertanto, agli sviluppatori di identificare e correggere errori, rendendo i sistemi più affidabili e sicuri per applicazioni critiche, come la medicina o la finanza.

Sistemi sperimentali per l’IA

Per raggiungere questi obiettivi, il PAI sviluppa sistemi sperimentali di modelli, ambienti digitali controllati che permettono di osservare l’evoluzione dell’apprendimento e del ragionamento di un’IA. Il team crea dataset multimodali, composti da immagini e testi su temi come fisica, chimica, biologia, matematica e linguaggio. Questi dataset, diversamente dai dati raccolti dal web, presentano punti dati con funzioni predefinite. “Vogliamo offrire ai sistemi di IA un terreno di gioco strutturato. Ogni dato attiva risposte specifiche nei nodi neurali, simile a come i farmaci agiscono sui neuroni umani”, ha spiegato Tanaka. Il PAI collabora con sviluppatori globali per arricchire questi dataset con dati derivati da esperimenti reali.

Una squadra di esperti internazionali

Il team del PAI include ricercatori di Harvard, come il neuroscienziato Venkatesh Murthy, e collabora con esperti di prestigio, tra cui Gautam Reddy, ex scienziato di NTT Research e professore a Princeton, e Surya Ganguli, ricercatore senior presso l’Institute for Human-Centered Artificial Intelligence di Stanford, diretto da Fei-Fei Li.

Ganguli, coautore di diversi studi con Tanaka, porta un contributo significativo grazie alla sua esperienza nell’IA orientata all’uomo. Il PAI, nato come spin-off del Physics and Informatics Lab di NTT Research, fondato nel 2019, vanta oltre 150 pubblicazioni scientifiche e un algoritmo di pruning delle reti neurali citato oltre 750 volte.

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.