13/03/2024
di Caterina Varpi

Il Parlamento UE approva l'AI Act, prima legge al mondo sull'intelligenza artificiale

Il Parlamento Europeo, a 9 mesi dall'approvazione del testo, ha dato il via libera all'Ai Act, insieme di normative che hanno il compito di regolamentare l'utilizzo dell'intelligenza artificiale. Con questa iniziativa, l'Unione Europea è la prima istituzione politica al mondo a dotarsi di regole sull'AI. Il regolamento dovrà essere sottoposto ora alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura. La legge entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell'UE e inizierà ad applicarsi 24 mesi dopo l'entrata in vigore.

Obiettivo principale dell'Ai Act è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione e assicurando all'Europa un ruolo guida nel settore. 

Tra le applicazioni che diventano fuorilegge, definite a rischio "inaccettabile", ci sono sistemi di categorizzazione biometrica basati su caratteristiche sensibili, sistemi di estrapolazione indiscriminata di immagini facciali per creare banche dati di riconoscimento, sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, sistemi di credito sociale, pratiche di polizia predittiva basate sulla profilazione o sulla valutazione delle caratteristiche di una persona, sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Ci sono poi obblighi per i sistemi definiti "ad alto rischio", che potrebbero arrecare danni significativi a diversi aspetti della nostra vita: trasparenza, riduzione dei rischi, sorveglianza umana. In questa categoria, rientrano i sistemi di intelligenza artificiale per finalità generali, tra cui ChatGPT, Gemini e CoPilot, che dovranno essere trasparenti e conformi alle norme europee sul diritto d'autore. In questo caso, i cittadini avranno il diritto di sapere come funzionano queste piattaforme e come sono state sviluppate. I contenuti artificiali o manipolati dovranno essere chiaramente etichettati come tali. 

I paesi dell'UE dovranno rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali, per consentire alle aziende lo sviluppo di sistemi di IA e addestrarli prima di immetterli sul mercato.

scopri altri contenuti su

ARTICOLI CORRELATI