Tipo segnalazione: Idea
OpenAI ha recentemente ammesso che ChatGPT è stato sfruttato da gruppi di cybercriminali per sviluppare malware e condurre attacchi informatici. Nel suo ultimo rapporto sulla sicurezza, l’azienda guidata da Sam Altman ha dettagliato come diverse organizzazioni, tra cui il gruppo cinese SweetSpecter e il gruppo iraniano Storm-0817, abbiano usato l’intelligenza artificiale per attività illecite.
SweetSpecter ha inviato email di phishing al personale di OpenAI, nascondendo malware denominato SugarGh0st in allegati apparentemente innocui, che ha rubato dati sensibili dai sistemi informatici compromessi. Storm-0817, invece, ha utilizzato ChatGPT per sviluppare software malevolo che raccoglieva dati da Instagram e LinkedIn, nonché per creare malware per Android, in grado di sottrarre informazioni come contatti, cronologia delle chiamate e file personali.
In un altro caso, il gruppo iraniano CyberAv3ngers, affiliato alle Guardie Rivoluzionarie Islamiche (IRGC), ha usato ChatGPT per generare credenziali predefinite per sistemi industriali e offuscare codice malevolo, oltre a pianificare azioni post-compromissione. Anche in questo caso, l’intelligenza artificiale ha facilitato la realizzazione di attacchi complessi.
OpenAI ha fatto fasere di aver bannato permanentemente gli account hacker coinvolti, condividendo i dati con le autorità e i ricercatori del settore della sicurezza. Pur non rappresentando nuove capacità per i cybercriminali, ChatGPT ha permesso loro di migliorare l’efficienza nelle fasi di pianificazione e realizzazione degli attacchi. Queste rivelazioni mettono in evidenza le vulnerabilità dell’IA e la sua potenziale pericolosità se utilizzata da attori malevoli.
Questo contenuto è stato scritto da un utente della Community. Il responsabile della pubblicazione è esclusivamente il suo autore.