Normativa UE sull’AI
Intelligenza artificiale: approvata da parte dell’Ue la prima normativa al mondo.
Il testo legislativo introduce norme vincolanti sulla trasparenza e la sicurezza, particolarmente applicabili ai giganti dell’IA come Google e OpenAI. Inoltre, stabilisce che il riconoscimento facciale sarà consentito solo in caso di reati gravi e previa autorizzazione del giudice. Nonostante l’entrata in vigore graduale nel corso di due anni, permane una certa incertezza riguardo all’efficacia effettiva della normativa.
L’Unione europea è prossima a implementare una legislazione all’avanguardia sull’Intelligenza Artificiale, che sarà la più completa e organica al mondo. Dopo un negoziato di 36 ore esteso su tre giorni, il Parlamento europeo, la Commissione e il Consiglio hanno raggiunto un accordo politico sull’AI Act durante la notte di sabato. Sebbene il testo finale debba ancora essere perfezionato nelle prossime settimane, l’intesa assicura l’approvazione entro la fine della legislatura europea, con l’entrata in vigore graduale nei successivi due anni.
Questo risultato è stato tutt’altro che scontato, date le divergenze tra il Parlamento, focalizzato sulla protezione dei diritti, e i governi, orientati verso lo sviluppo economico e l’ordine pubblico. Un importante passo avanti è stato compiuto giovedì con il superamento delle difficoltà sulla regolamentazione delle Intelligenze Artificiali più potenti, come quelle sviluppate da giganti come OpenAI, Meta e Google. Tali IA saranno soggette a regole vincolanti riguardanti trasparenza e sicurezza, anziché meri codici di condotta volontari.
Inoltre, è stato raggiunto un compromesso su un altro tema spinoso, ovvero l’utilizzo delle applicazioni di AI nei contesti di polizia. Sebbene il riconoscimento biometrico sia ammesso, esso sarà consentito solo per reati gravi e previa autorizzazione di un giudice. Il Commissario europeo Thierry Breton ha celebrato questo momento come storico, definendo l’AI Act una rampa di lancio che permetterà a ricercatori e aziende europee di guidare la corsa globale all’IA. Tuttavia, restano ancora molte incognite riguardo all’equilibrio finale, all’applicazione e all’efficacia dell’AI Act.
Il principio cardine sotteso all’AI Act è la categorizzazione delle applicazioni di Intelligenza Artificiale in base al livello di rischio che comportano per i diritti fondamentali. Questa normativa vieta esplicitamente diverse pratiche giudicate ad alto rischio, come ad esempio i sistemi di “social scoring” (analoghi a quelli sperimentati in Cina) e quelli che manipolano comportamenti e decisioni. Gli algoritmi di riconoscimento delle emozioni sono vietati in ambito scolastico e lavorativo, ma sembrerebbero essere ancora utilizzabili in contesti legati all’immigrazione e alla sicurezza, rispondendo alle richieste dei governi.
Il Parlamento ha ottenuto un successo significativo riguardo ai sistemi di categorizzazione basati su informazioni sensibili, come la razza, la religione e l’orientamento sessuale: saranno vietati. Questa mossa riflette l’attenzione verso la protezione da discriminazioni indebite e sottolinea l’impegno a garantire che l’Intelligenza Artificiale rispetti i diritti fondamentali in tutti i contesti.
Il campo delle applicazioni giudicate ad “alto rischio” dall’AI Act abbraccia settori cruciali che influenzano direttamente i diritti fondamentali, come la salute, il lavoro, l’educazione, l’immigrazione e la giustizia. In risposta a ciò, la legislazione impone una serie di prescrizioni sia per chi sviluppa che per chi utilizza tali applicazioni. Queste includono una valutazione preliminare dell’impatto, volta a prevenire i documentati rischi di errori o discriminazioni, la necessità di supervisione umana e l’obbligo di informare l’utente quando interagisce con una macchina.
La questione del riconoscimento facciale è stata oggetto di accesi dibattiti. Il Parlamento, sostenuto da varie organizzazioni per i diritti civili, proponeva un bando completo, mentre i governi desideravano ampie eccezioni per i contesti di sicurezza. Il compromesso raggiunto stabilisce che tali sistemi potranno essere utilizzati solo previa autorizzazione di un giudice e in circostanze ben definite. Gli utilizzi “ex post”, limitati alle immagini registrate solo per la ricerca di persone sospettate di crimini gravi, e quelli in tempo reale, consentiti solo in situazioni di emergenza terroristiche, ricerca di vittime o sospettati di crimini gravi, sono stati specificati. Le eccezioni per la polizia si estendono anche all’utilizzo di applicazioni ad alto rischio, che potranno essere impiegate anche prima di aver ricevuto l’attestazione di conformità, su autorizzazione di un giudice.
Rispetto al testo originario della Commissione, datato due anni fa, l’accordo attuale introduce una serie di regolamentazioni specifiche per le cosiddette General purpose AI, ovvero i grandi modelli così potenti da prestarsi a molteplici utilizzi, come quello alla base di ChatGPT e quelli sviluppati da colossi della Silicon Valley come Google o Meta. Queste prescrizioni saranno vincolanti, rappresentando una vittoria del Parlamento europeo, che ha spinto per regolamentazioni più stringenti rispetto alle richieste governative di limitarsi a semplici codici di condotta. Questi ultimi temevano che una regolamentazione eccessiva potesse soffocare l’innovazione in Europa.
Le norme relative a questi grandi modelli prevedono due livelli. Il primo, applicabile a tutti, richiede la pubblicazione di una lista dei materiali utilizzati per l’addestramento degli algoritmi, facilitando la difesa dei diritti d’autore e l’identificazione dei contenuti generati dall’IA. Inoltre, impone l’obbligo di rendere riconoscibili tutti i contenuti prodotti dall’IA per contrastare frodi e disinformazione. Il secondo livello si applica ai sistemi più potenti che presentano “rischi sistemici” e impone valutazioni di tali rischi, strategie di mitigazione e la notifica alla Commissione, che istituirà un apposito AI Office, di eventuali incidenti. Le sanzioni per il mancato rispetto delle regole prevedono multe che variano dall’1,5 al 7% del fatturato globale delle aziende coinvolte.
Le disposizioni dell’AI Act entreranno in vigore progressivamente: dopo sei mesi per le applicazioni proibite, dopo dodici per i sistemi ad alto rischio e i modelli più potenti, e infine dopo due anni per le ultime. Questi periodi di implementazione permetteranno alla Commissione di definire dettagli tecnici e alle aziende di adattarsi, con un incoraggiamento preliminare all’aderenza volontaria. Tuttavia, persistono dubbi riguardo alla capacità di una legislazione di tenere il passo con un’evoluzione tecnologica esponenziale, con il rischio che una normativa troppo dettagliata diventi inefficace. L’alternativa di non avere regole o affidarsi ai codici di condotta autoregolamentati dalle aziende è considerata dalla Commissione europea insufficiente.
Un’altra incognita riguarda il possibile impatto negativo di questa normativa sull’innovazione in Europa. Alcuni sostengono che, in questo caso, l’arbitro (la UE) non possa vincere, ma altri ritengono che, considerati i rischi e le opportunità dell’Intelligenza Artificiale, la presenza di un arbitro sia necessaria. La speranza è che una regolamentazione chiara del campo di gioco possa favorire la crescita di talenti capaci di competere con quelli provenienti dagli Stati Uniti.