A Dicembre, i rappresentanti dell’Unione Europea hanno concordato su un rivoluzionario atto sull’intelligenza artificiale, l’EU AI Act, che ha recentemente superato l’ultimo grande ostacolo ricevendo l’approvazione del Parlamento Europeo.
Con il via libera definitivo da parte dei legislatori dell’UE, questa vasta normativa entrerà ufficialmente in vigore in circa due anni. Il Parlamento Europeo ha annunciato che il testo dell’atto è attualmente sottoposto a revisione finale da parte di giuristi-linguisti, con l’obiettivo di completare le procedure necessarie prima della chiusura della sessione legislativa attuale.
L’AI Act, proposto inizialmente nel 2021, in un periodo in cui l’intelligenza artificiale non aveva ancora raggiunto il picco del suo sviluppo né era così diffusa nelle attività quotidiane, ha rappresentato una svolta eliminando numerosi ostacoli burocratici. Malgrado la lentezza burocratica, l’UE ha preceduto altre nazioni e regioni nel regolamentare l’IA, inclusi gli Stati Uniti che finora non hanno intrapreso azioni concrete in questo ambito.
Il regolamento, concordato dopo trattative con gli stati membri a dicembre, ha ottenuto l’approvazione con 523 voti a favore, 46 contrari e 49 astensioni. L’Unione Europea sostiene che questa legislazione mira a tutelare i diritti fondamentali, la democrazia, lo stato di diritto e la sostenibilità ambientale di fronte ai rischi associati all’intelligenza artificiale ad alto rischio, promuovendo al contempo l’innovazione e posizionando l’Europa come leader globale nel campo.
Che cos’è la normativa europea sull’intelligenza artificiale?
La normativa europea sull’intelligenza artificiale stabilisce divieti su determinate applicazioni di IA che si ritiene possano compromettere i diritti dei cittadini. Tra queste applicazioni figurano i sistemi di identificazione biometrica, il monitoraggio delle emozioni sul lavoro e nelle istituzioni scolastiche, i sistemi di valutazione sociale guidati dall’IA, le tecniche di polizia predittiva basate sulla profilazione individuale, e qualsiasi uso di IA che influenzi il comportamento umano o sfrutti le vulnerabilità delle persone.
Data la vasta portata e l’ambiguità di queste applicazioni proibite, sorge la questione su come l’IA verrà effettivamente regolata e se sarà possibile per i legislatori concordare su ciò che costituisce una violazione una volta che la normativa sarà attuata. La legge prevede procedure specifiche per gestire eventuali disaccordi.
Nonostante ciò, esistono alcune eccezioni ben definite alla legge, in particolare per quanto riguarda l’uso dell’IA nell’ambito dell’applicazione della legge. L’UE ha anche identificato specifici ambiti ad alto rischio per l’IA, inclusi l’utilizzo nelle infrastrutture critiche, nell’educazione, nella formazione professionale, nella salute, nel settore finanziario, nella gestione delle frontiere e nei processi democratici. L’impiego dell’IA in questi contesti ad alto rischio richiede valutazioni e monitoraggi continui, nonché il coinvolgimento della supervisione umana. Ai cittadini è garantito il diritto di presentare reclami riguardanti i sistemi di IA e di ottenere spiegazioni sulle decisioni relative all’IA che li riguardano.
Inoltre, è richiesto che i sistemi di IA generale e i loro modelli siano conformi a criteri specifici di trasparenza. L’UE si riserva il diritto di imporre normative più stringenti ai sistemi considerati più pericolosi.
“Abbiamo finalmente introdotto la prima normativa vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi, creare opportunità, combattere la discriminazione e assicurare trasparenza. Grazie al Parlamento, le pratiche inaccettabili di IA saranno proibite in Europa, proteggendo i diritti dei lavoratori e dei cittadini. Verrà ora creato l’Ufficio AI per assistere le imprese nell’adeguarsi alle norme prima della loro entrata in vigore. Ci siamo assicurati che gli esseri umani e i valori europei siano al centro dello sviluppo dell’intelligenza artificiale”, dichiara Brando Benifei, co-relatore della commissione per il mercato interno (S&D, Italia). “L’UE ha ottenuto risultati significativi. Abbiamo legato il concetto di intelligenza artificiale ai valori fondamentali che sono alla base delle nostre società. Ma il lavoro da fare è ancora molto e va oltre la legge sull’AI”, aggiunge Dragos Tudorache, co-relatore della commissione per le libertà civili (Renew, Romania). “Ci spingeremo a riconsiderare il contratto sociale al cuore delle nostre democrazie, dei nostri sistemi educativi, dei mercati del lavoro e del modo in cui conduciamo la guerra. L’AI Act è solo il punto di partenza per un nuovo modello di governance incentrato sulla tecnologia. Ora dobbiamo concentrarci sull’attuazione di questa legge”.
Dopo la revisione finale dei giuristi-linguisti, si prevede che la normativa sull’intelligenza artificiale sarà formalmente adottata dal Consiglio dell’UE. Diverrà efficace 20 giorni dopo la sua pubblicazione nella Gazzetta ufficiale dell’UE e sarà completamente applicabile dopo 24 mesi. Tuttavia, i divieti riguardanti le pratiche proibite, come delineato dalla normativa sull’IA, saranno applicati sei mesi dopo l’entrata in vigore della legge.
La legge fondamentale dell’UE sull’intelligenza artificiale è un modello per altre nazioni e regioni
La normativa europea sull’intelligenza artificiale stabilisce un precedente per il mondo
La legge europea sull’intelligenza artificiale si propone come esempio per altre nazioni e aree geografiche in materia di regolamentazione dell’IA. Negli Stati Uniti, il dibattito sull’IA è vivace in vari ambiti. Nell’ottobre scorso, il presidente Biden ha firmato il primo ordine esecutivo dedicato all’intelligenza artificiale, che però funge più da iniziativa che da norma con potere coercitivo.
Pochi giorni dopo, la vicepresidente Kamala Harris ha presentato l’AI Safety Institute, ponendo le basi per futuri standard tecnici e normative sull’IA.
Tuttavia, l’efficacia di queste iniziative potrebbe essere messa in discussione se il presidente Biden non dovesse essere rieletto a novembre.