AI e Cybersicurezza, arriva il protocollo delle agenzie di intelligence

Anche l’Italia ha aderito al protocollo internazionale per la cybersicurezza applicata all’intelligenza artificiale. Il documento – le “Linee guida per uno sviluppo sicuro dell’Intelligenza Artificiale” – è stato sviluppato oltre Manica dal National Cyber Security Centre del Regno Unito. Al paper, reso pubblico oggi 27 novembre, è stato sottoscritto da 23 Agenzie di 18 Paesi. E’ la prima volta che viene siglato un documento congiunto internazionale per un uso sicuro dell’Intelligenza Artificiale. L’obiettivo è far sì che le linee guida contenute nel documento aiutino gli sviluppatori a creare un’IA responsabile, etica e sicura.

La genesi del documento

Dopo la prima conferenza internazionale sull’Intelligenza Artificiale, il cosiddetto “AI Safety Summit” del 1-2 novembre che si è tenuto nel Regno Unito, esperti governativi e del settore privato, provenienti da 18 Paesi, hanno elaborato una linea di indirizzo comune per supportare gli sviluppatori di qualsiasi sistema basato sull’IA.

Le linee guida e i Paesi coinvolti

I Paesi che hanno contribuito alle linee guida sono: Australia, Canada, Cile, Corea del Sud, Estonia, Francia, Germania, Giappone, Israele, Italia, Nigeria, Norvegia, Nuova Zelanda, Polonia, Regno Unito, Repubblica Ceca, Singapore e Stati Uniti.

L’obiettivo del documento

L’obiettivo è innalzare i livelli di cybersecurity dell’Intelligenza Artificiale per assicurare che sia progettata, sviluppata e impiegata in maniera sicura. La cybersicurezza è una pre-condizione essenziale dell’IA e serve per garantire resilienza, privacy, correttezza ed affidabilità, ovvero un cyberspazio più sicuro.

Per il direttore dell’Agenzia per la cybersecurity nazionale, il prefetto Bruno Frattasi,  “L’Intelligenza Artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi. Per questo abbiamo aderito con convinzione a questa iniziativa. È una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità”. Lo sviluppo delle linee guida del documento è stato portato avanti con il contributo di questecompagnie: Alan Turing Institute, Amazon, Anthropic, Databricks, Georgetown University’s Center for Security and Emerging Technology, Google, Google DeepMind, Hugging Face, IBM, Imbue, Inflection, Microsoft, OpenAI,  Palantir, RAND, Scale AI, Software Engineering Institute at Carnegie Mellon University, Stanford Center for AI Safety, Stanford Program on Geopolitics, Technology and Governance.

https://www.ncsc.gov.uk/files/Guidelines-for-secure-AI-system-development.pdf