L’IA e le bioarmi: OpenAI solleva il problema con o1

In seguito al lancio in anteprima la scorsa settimana del suo ultimo modello, o1 (capace di “pensare” e ragionare in modo più simile all’uomo e, secondo quanto riferito, in grado di completare compiti complessi e risolvere problemi di matematica, scienza e programmazione), OpenAI lo ha classificato come a rischio medio.

Test rivelano potenziali rischi per la sicurezza

Attraverso test interni ed esterni, infatti, è stato scoperto che o1 rappresenta un rischio medio per quanto riguarda le armi chimiche, biologiche, radiologiche e nucleari (CBRN) e, pertanto, ha il potenziale di essere utilizzato in modo improprio da esperti di bioarmi e malintenzionati.

o1 mostra capacità di manipolazione e aggiramento degli ostacoli

I test hanno rivelato che o1 “a volte ha simulato strumentalmente l’allineamento” e manipolerebbe i dati per far sembrare le sue “azioni non allineate più allineate”, il che dimostra che quando incontra un ostacolo che ostruisce il suo percorso predeterminato, è abbastanza intelligente da cercare nuove risorse e trovare un modo per aggirarlo.

Capacità di base per la pianificazione e conoscenze in biologia

Sebbene “non consenta ai non esperti di creare minacce biologiche” (quindi OpenAI lo ritiene sicuro da implementare), o1 accelera il “processo di ricerca” per gli esperti, mostra più “conoscenza tacita” della biologia rispetto a GPT-4 e possiede le “capacità di base necessarie per fare semplici schemi nel contesto”, il che sta facendo suonare campanelli d’allarme e spingendo gli esperti del settore a chiedere l’adozione urgente di leggi sulla sicurezza dell’IA (come la legge californiana sull’IA, SB 1047) per proteggere il pubblico. Fonte: Ai Tool Report.

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.