AI Act, l’Europa approva il primo regolamento al mondo sull’Intelligenza Artificiale: i punti-chiave

Non si può dire sia stato semplice ma, dopo 36 ore di negoziati, Parlamento e Consiglio Europeo hanno raggiunto un accordo per la regolamentazione dell’intelligenza artificiale. L’AI Act è realtà. Sebbene la normativa prenderà una forma compiuta solo nei prossimi mesi, la filosofia di fondo rimane la stessa scelta fin dal principio: quella della tutela.

Il ragionamento, infatti, verte sulla valutazione delle applicazioni dell’intelligenza artificiale sulla base dei potenziali “pericoli” sui diritti fondamentali del cittadino. Uno degli argomenti più controversi, in tal senso, è stato quello relativo agli usi dell’intelligenza artificiale ammessi e vietati da parte delle forze dell’ordine (dal riconoscimento biometrico in tempo reale, alla polizia predittiva).

Come è facile intuire, anche sulla base dell’acceso dibattito dei mesi scorsi, non è stata questa l’unica questione spinosa, considerata la sempre maggiore importanza assunta dai modelli di AI generativa.

Iniziamo proprio dalle applicazioni da parte delle forze dell’ordine. I negoziatori hanno concordato una serie di eccezioni limitate per l’uso dei sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico per scopi di contrasto, soggetti a previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. L’RBI “post-remoto” – spiega una nota del Parlamento Europeo – verrebbe utilizzata rigorosamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.

L’RBI “in tempo reale” rispetterebbe condizioni rigorose e il suo utilizzo sarebbe limitato nel tempo e nel luogo, allo scopo di:

  • ricerche mirate delle vittime (sequestro, tratta, sfruttamento sessuale),
  • prevenzione di una minaccia terroristica specifica e attuale, o localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nella norma (es. terrorismo, tratta, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).

Applicazioni vietate

Questione molto delicata è indubbiamente quella dei limiti imposti all’applicazione dell’AI. I colegislatori hanno convenuto di vietare:

  • sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (es. convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);
  • raccolta non mirata di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale;
  • riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;
  • punteggio sociale basato sul comportamento sociale o sulle caratteristiche personali;
  • sistemi di intelligenza artificiale che manipolano il comportamento umano per aggirare il loro libero arbitrio;
  • gli usi dell’intelligenza artificiale che sfruttano le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Obblighi per i sistemi ad alto rischio

Per i sistemi di IA classificati come ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), sono stati concordati obblighi chiari. Tra gli altri requisiti è stata inclusa una valutazione d’impatto obbligatoria sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario.

Anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati ad alto rischio. Dal canto loro, i cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che incidono sui loro diritti.

Modelli fondativi

Altro punto importante approvato dal regolamento riguarda l’AI generativa dei modelli fondativi – per intenderci, quella che svolge compiti come creare testi e immagini – alla base ad esempio di ChatGPT. Questi sistemi verranno classificati in base alla potenza di calcolo che utilizzano e se verranno identificati come strumenti ad alto impatto, dovranno rispettare regole molto stingenti in termini di trasparenza e sicurezza informatica.

In questi casi, dovranno essere accessibili gli elenchi dei materiali che vengono utilizzati per addestrare i modelli, in modo da verificare che siano leciti e che non violino eventuali diritti d’autore. Inoltre, se un contenuto verrà generato dall’intelligenza artificiale, dovrà essere chiaramente evidenziato usando una filigrana digitale.

“Abbiamo scelto un indicatore non di fatturato che non identifica solo le aziende più grandi, ma riconosce dall’ampio impatto i modelli che possono essere porre i maggiori i rischi”, ha detto Carmen Artigas, segretaria di Stato all’innovazione del governo spagnolo. Da queste previsioni sono esclusi i modelli destinati alla ricerca.

Andando al copyright e alla trasparenza sui contenuti generati dagli algoritmi, gli strumenti per rafforzare questi aspetti avranno 24 mesi di tempo per il pieno dispiegamento delle funzioni, ma solo sei per proibire gli usi vietati. Ci sarà una conformità volontaria, il cosiddetto AI Pact, che permetterà alle aziende di adeguarsi all’AI Act prima che diventi pienamente operativo. È stato creato un ufficio europeo dedicato all’intelligenza artificiale, incardinato presso la direzione generale Connect della Commissione (preposta al digitale) per sovrintendere all’applicazione della legge. E sono previste eccezioni per le piccole e medie imprese e la creazione di ambienti di test esenti dalla regole (i cosiddetti regulatory sandbox) per favorire l’innovazione.

Sostegno dell’innovazione e delle PMI

Relativamente a questi argomenti, i deputati volevano garantire che le imprese, in particolare le PMI, potessero sviluppare soluzioni di intelligenza artificiale senza pressioni da parte dei giganti del settore che controllano la catena del valore. L’accordo promuove i cosiddetti sandbox normativi e test nel mondo reale, istituiti dalle autorità nazionali per sviluppare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato.

A seguito dell’accordo, il correlatore Brando Benifei (S&D, Italia) ha detto: “È stato lungo e intenso, ma ne è valsa la pena. Grazie alla resilienza del Parlamento europeo, la prima legislazione orizzontale al mondo sull’intelligenza artificiale manterrà la promessa europea: garantire che i diritti e le libertà siano al centro dello sviluppo di questa tecnologia innovativa. La corretta attuazione sarà fondamentale: il Parlamento continuerà a vigilare per garantire il sostegno a nuove idee imprenditoriali con sandbox e regole efficaci per i modelli più potenti”.

Il correlatore Dragos Tudorache (Renew, Romania) ha dichiarato: “L’UE è la prima al mondo a mettere in atto una solida regolamentazione sull’intelligenza artificiale, guidandone lo sviluppo e l’evoluzione in una direzione incentrata sull’uomo. La legge sull’intelligenza artificiale stabilisce norme per modelli di intelligenza artificiale grandi e potenti, garantendo che non presentino rischi sistemici per l’Unione e offre solide garanzie per i nostri cittadini e le nostre democrazie contro eventuali abusi della tecnologia da parte delle autorità pubbliche. Protegge le nostre PMI, rafforza la nostra capacità di innovare e guidare nel campo dell’intelligenza artificiale e protegge i settori vulnerabili della nostra economia. L’Unione Europea ha dato un contributo impressionante al mondo; l’AI Act è un altro atto che avrà un impatto significativo sul nostro futuro digitale”.

Cosa succede ora?

Il testo concordato dovrà ora essere adottato formalmente sia dal Parlamento che dal Consiglio per diventare legge dell’UE. Le commissioni Mercato interno e Libertà civili del Parlamento voteranno sull’accordo in una prossima riunione.