Regolamentare l’IA: il tentativo europeo e quello USA

Con 523 voti favorevoli, 46 contrari e 49 astensioni, lo scorso marzo il Parlamento europeo ha approvato la legge sull’intelligenza artificiale (IA), il cosiddetto AI Act.

Composto da oltre 450 pagine, la legge si propone di, stando alla nota che ha accompagnato l’adozione della normativa, «proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione e assicurando all'Europa un ruolo guida nel settore». L’AI Act rappresenta uno dei primi provvedimenti normativi al mondo che mirano a tutelare i diritti della persona, imponendo un approccio umano-centrico a chi sviluppa o a chi utilizza sistemi di intelligenza artificiale. In particolare, l’AI Act si pone l’obiettivo di assicurare un’adeguata regolamentazione per quanto riguarda l’introduzione, la messa in funzione e l’impiego dei sistemi di IA mediante un approccio basato sul rischio, valutando il possibile impatto per la sicurezza e i diritti fondamentali delle persone fisiche. Il Regolamento prevede infatti tre classi di rischio – rischio inaccettabile, alto e minimo – che comportano diversi adempimenti e obblighi normativi per fornitori, utilizzatori, distributori e importatori di sistemi basati su tecnologie di IA. La norma va a rendere quindi illegali alcuni degli utilizzi e degli impieghi dell’IA che si sono dimostrati troppo rischiosi, come, per esempio: i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da Internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare basi dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Un intervento legislativo importante, dall’ampia portata e che contribuisce a caratterizzare l’approccio regolatorio europeo nei confronti dell’innovazione tecnologica, sottolineandone la distanza rispetto alle posizioni di altri attori internazionali, come gli Stati Uniti. Nelle scorse settimane il Congresso americano ha discusso la proposta di legge del deputato Adam Schiff, conosciuta come Generative IA Copyright Disclosure Act. La proposta di legge in questione – dal focus molto più circoscritto, dall’impatto molto più limitato e dalla minore organicità rispetto alla legislazione europea – propone di richiedere alle aziende che sviluppano sistemi di intelligenza artificiale generativa di rivelare quali materiali protetti da copyright abbiano utilizzato nell’addestramento dei loro modelli. Queste aziende, in particolare, sarebbero semplicemente tenute a presentare una notifica al Register of Copyrights degli Stati Uniti almeno 30 giorni prima del rilascio di un nuovo sistema di intelligenza artificiale generativa, pena una sanzione di almeno 5.000 dollari.

Guardando alle conseguenze economiche dei due esempi di regolamentazione citati, è difficile prevederne l’impatto. Uno dei principali punti critici riguarda proprio il rapporto tra la necessità di sostenere l’innovazione e l’impegno per evitare i principali rischi conosciuti e potenziali di queste tecnologie. Una delle critiche che hanno accompagnato il percorso dell’AI Act riguarda proprio il confronto – inevitabile – con i modelli che caratterizzano altri paesi, Stati Uniti tra tutti: nel settore tecnologico l’Europa sembra sempre più propensa a definire un quadro normativo globale, mentre negli Stati Uniti prevale la propensione a lasciare molto più campo libero all’innovazione. Il confronto con altri Paesi probabilmente non rende giustizia alla complessità dell’impatto dell’intelligenza artificiale nelle nostre società, ma è evidente il rischio che l’attenzione e le risorse finanziarie possano spostarsi sempre di più verso quei paesi dove l’innovazione riesce ad esprimersi con maggiori gradi di libertà. L’impressione, soprattutto oltreoceano, è che negli Stati Uniti si faccia innovazione, mentre in Europa regolazione. Abbiamo sicuramente bisogno di regolare l’innovazione, ma forse potrebbe anche essere utile – vista anche l’incredibile velocità di diffusione delle tecnologie a cui stiamo assistendo oggi – provare anche a innovare la regolazione, rendendola più flessibile e adattabile ai rapidi cambiamenti tecnologici.

Una delle maggiori criticità, a mio avviso, è relativa alla diversa velocità della regolazione rispetto alla velocità delle tecnologie digitali – soprattutto dell’intelligenza artificiale. L’AI Act, per esempio, è stato presentato dalla Commissione Europea nell’aprile 2021; il testo è stato poi approvato dal Parlamento Europeo a marzo 2024, ma non è ancora stato pubblicato nella Gazzetta Ufficiale dell’Unione Europea: sarà quindi applicabile integralmente soltanto a partire dal 2026. In questi cinque anni le trasformazioni sono state numerosissime, soprattutto sul versante dell’IA generativa (come ChatGPT, i large language model e i foundation model), e l’AI Act sembra aver avuto non poche difficoltà a stare al passo con la velocità incredibile di queste innovazioni tecnologiche. I processi di regolazione richiedono anni, come è giusto che sia, mentre oggi le tecnologie digitali viaggiano con velocità nettamente superiori: ChatGPT ha impiegato poco più di un mese a raggiungere 50 milioni di utenti, mentre Threads ha raggiunto 50 milioni di utenti in solo due giorni. Cosa succederà nel settore dell’intelligenza artificiale nei prossimi due anni, quando potrà essere finalmente applicato integralmente l’AI Act? È evidente il rischio che, al momento della sua entrata in vigore, la normativa possa risultare già “obsoleta” e non in linea con le esigenze concrete del momento, che saranno probabilmente molto diverse da quelle di oggi o addirittura da quelle del 2021. Tutto questo nonostante gli enormi sforzi, a livello politico, istituzionale e diplomatico, che sono stati necessari all’approvazione dell’AI Act.

 

Italiano_profilepicGiuseppe F. Italiano, Ph.D. in Computer Science presso Columbia University, ha lavorato presso il T. J. Watson Research Center dell’IBM a Yorktown Heights, ed è poi rientrato in Italia come professore ordinario. Attualmente è Professore di ingegneria informatica presso la Luiss Guido Carli, dove è Direttore della Laurea Magistrale in Data Science and Management e Co-direttore del Master in Artificial Intelligence.

 

Transizione verde, sostenibilità, applicazioni tecnologiche innovative: sono stati questi alcuni dei temi al centro di The Exchange, l’Annual Conference di ManpowerGroup promossa per disegnare assieme il futuro del lavoro, che si è svolta il 30 maggio. 

Leggi qui! 

 

 

Articoli Correlati