OpenAI contro la disinformazione, bloccata campagna iraniana su ChatGPT

OpenAI ha scoperto un gruppo di account ChatGPT collegati a un gruppo di influenza iraniano chiamato Storm-2035. Questi account venivano utilizzati per pubblicare e diffondere articoli e post sui social media generati dall’intelligenza artificiale, nel tentativo di influenzare l’opinione pubblica su una serie di argomenti, tra cui le elezioni presidenziali statunitensi.

Scoperta grazie a Microsoft

OpenAI ha scoperto Storm-2035 attraverso il rapporto “Microsoft Threat Intelligence“, che ha identificato che il gruppo crea e condivide fake news dal 2020, tentando di influenzare le elezioni statunitensi.

Attività su Instagram e X

Storm-2035 aveva 1 account Instagram e 12 account X (ex Twitter) e utilizzava ChatGPT per scrivere e pubblicare post, commenti e articoli di lunga durata su questi canali, incluso uno che affermava che “X stava censurando i tweet di Trump“.

Contenuti AI con basso impatto

OpenAI ha confermato che i contenuti generati dall’IA non sono stati condivisi ampiamente e non hanno ottenuto un “coinvolgimento significativo del pubblico“, come spesso accade con le operazioni che utilizzano l’IA per diffondere disinformazione, poiché sono rapide ed economiche da avviare.

Precedenti e implicazioni

Questa scoperta arriva solo tre mesi dopo che OpenAI ha scoperto e bloccato cinque campagne che utilizzavano ChatGPT per manipolare l’opinione pubblica. Questo episodio ricorda quando malintenzionati utilizzavano le piattaforme di social media per influenzare le elezioni, ma questa volta sono in grado di utilizzare l’IA per generare e diffondere informazioni dannose più rapidamente e, quindi, raggiungere un pubblico più ampio.

Questo contenuto è stato scritto da un utente della Community.  Il responsabile della pubblicazione è esclusivamente il suo autore.