Ci siamo, arriva il via libera dal Consiglio Europeo all’AI Act, la prima legge al mondo a regolamentare l’utilizzo dell’intelligenza artificiale nella società, con una serie di obblighi per fornitori e sviluppatori di sistemi AI, basati su diversi livelli di rischio identificati. E anche su potenziali sanzioni.
AI Act, il Consiglio dà il via libera definitivo
Con il via libera di oggi da parte dell’Council of the European Union (Consiglio dell’Unione Europea), dopo l’approvazione da parte del Parlamento Europeo avvenuta lo scorso marzo, questa normativa pionieristica mira a garantire che lo sviluppo e l’uso dell’intelligenza artificiale nell’UE siano sicuri e rispettino i diritti fondamentali dei cittadini, stabilendo un quadro chiaro e coerente per tutte le parti coinvolte.
Dopo la firma dei presidenti del Parlamento Europeo e del Consiglio, l’atto legislativo sarà pubblicato nella Gazzetta Ufficiale dell’UE nei prossimi giorni ed entrerà in vigore venti giorni dopo la pubblicazione.
Per saperne di più: Intelligenza artificiale: cos’è e come funziona, tutto sulla AI
Riporta il comunicato ufficiale, per garantire un’applicazione corretta, sono stati inoltre istituiti diversi organismi di governance:
- un Ufficio AI all’interno della Commissione per far rispettare le regole comuni nell’UE;
- un panel scientifico di esperti indipendenti per supportare le attività di applicazione;
- un Consiglio con rappresentanti degli stati membri per assistere sull’applicazione coerente ed efficace dell’AI Act;
- un forum consultivo per i portatori di interesse per fornire competenze tecniche al Consiglio e alla Commissione.
Cos’è l’AI Act, il testo approvato dall’EU Council
Riassumendo, la nuova legge sull’AI classifica i vari tipi di intelligenza artificiale in base al rischio:
- i sistemi a basso rischio saranno soggetti a obblighi di trasparenza molto leggeri;
- i sistemi ad alto rischio saranno autorizzati ma soggetti a una serie di requisiti e obblighi per accedere al mercato dell’UE.
Nel caso dei sistemi ad alto rischio, prima che venga utilizzato dagli enti pubblici dovrà essere valutato il suo impatto sui diritti fondamentali. Inoltre, tali sistemi dovranno essere registrati nel database dell’UE per i sistemi ad alto rischio.
L’AI Act affronta anche l’uso di modelli AI ad uso generale (GPAI). I modelli GPAI che non presentano rischi sistemici saranno soggetti a requisiti limitati, ad esempio in materia di trasparenza, mentre quelli con rischi sistemici dovranno conformarsi a regole più rigorose.
I limiti dell’AI Act
Le nuove regole entreranno in vigore due anni dopo l’adozione ufficiale, con alcuni limiti d’adozione:
- i divieti saranno attivi sei mesi dopo l’entrata in vigore;
- i controlli sui sistemi AI per finalità generali (governance inclusa) saranno implementati dopo 12 mesi;
- gli obblighi per i Sistemi ad Alto Rischio saranno applicati dopo 36 mesi.
Altri limiti dell’AI Act nell’utilizzo dell’intelligenza artificiale riguardano ad esempio i Sistemi AI come la manipolazione comportamentale cognitiva e la valutazione sociale, che saranno vietati nell’UE perché considerati a rischio inaccettabile.
La legge proibisce anche l’uso dell’AI per la polizia predittiva basata su profilazione e sistemi che utilizzano dati biometrici per categorizzare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.
Le multe per le violazioni dell’AI Act condotte dalle aziende sviluppatrici sono fissate come percentuale del fatturato annuale globale nell’anno finanziario precedente o un importo predeterminato, a seconda di quale sia maggiore. Le PMI e le start-up sono invece soggette a multe amministrative proporzionali.