Intelligenza artificiale, il Parlamento Ue mette fuori legge il Grande Fratello: sì all’AI Act. Ecco cosa prevede
La plenaria del Parlamento europeo ha approvato, a larghissima maggioranza e in anticipo sui tempi previsti, l’AI Act, la prima legge al mondo che regolamenta l’uso dell’intelligenza artificiale. Gli eurodeputati si sono espressi con 523 voti a favore, 46 contrari e 49 astensioni, dando il via libera definitivo al testo. Ora mancano solo passaggi “tecnici”: la procedura di verifica dai parte dei giuristi e l’approvazione formale in Consiglio, affinché la legge possa essere pubblicata in Gazzetta ufficiale ed entrare quindi in vigore.
In Europa la prima legge al mondo sull’intelligenza artificiale
L’AI Act, fortemente voluto anche dall’Italia, che sul tema dell’intelligenza artificiale è così impegnata da farne uno dei punti centrali del G7, si prefigge lo scopo, da un lato, di difendere i diritti fondamentali dei cittadini e le dinamiche democratiche dai rischi connessi a un uso distorto dell’intelligenza artificiale e, dall’altro, di creare le condizioni per cogliere a pieno le enormi opportunità che questa nuova frontiera offre, “promuovendo l’innovazione e assicurando all’Europa un ruolo guida nel settore”, si legge in una nota dell’Europarlamento.
La sfida di conciliare tutele e opportunità
Sul primo fronte, quello dei rischi, la legge interviene vietando l’utilizzo indiscriminato della biometrica e dei riconoscimenti facciali, con una specifica attenzione alla costruzione di banche dati. Vietati anche i sistemi che consentono di riconoscere le emozioni sul luogo di lavoro e a scuola, i sistemi di credito sociale, vale a dire la classificazione dei cittadini in base alla reputazione, e le pratiche di polizia predittiva, nonché qualsiasi tipo di strumento che consenta la manipolazione o possa sfruttare le vulnerabilità delle persone.
Limitazioni all’utilizzo dei dati biometrici anche per le forze dell’ordine
Su alcuni di questi punti sono previste deroghe per le forze dell’ordine, che comunque non avranno mano totalmente libera. Nello specifico le maglie più larghe riguardano in particolare l’utilizzo di sistemi di identificazione biometrica, che a determinate condizioni, come la breve durata e l’autorizzazione giudiziaria, e in determinate circostanze, come la ricerca di persone scomparse o minacce terroristiche, potranno essere usati per l’identificazione in tempo reale. Per quanto riguarda, invece, l’uso a posteriori, la legge lo considera “ad alto rischio” e lo prevede solo dietro autorizzazione giudiziaria collegata a un reato.
L’obbligo di trasparenza e il diritto al reclamo dei cittadini
Particolare attenzione è stata posta anche a tutti i sistemi di intelligenza artificiale considerati ad alto rischio, fra i quali rientrano quelli che possono “potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto”. Si va dagli usi per le infrastrutture critiche all’istruzione, dall’occupazione ai servizi pubblici, dalla giustizia ai processi democratici, elezioni in testa. “Per questi sistemi – chiarisce ancora Bruxelles – vige l’obbligo di valutare e ridurre i rischi, mantenere registri d’uso, essere trasparenti e accurati e garantire la sorveglianza umana”. I cittadini, inoltre, “avranno diritto a presentare reclami sui sistemi di IA e a ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti”.
Stop ai “deepfake”: obbligo di bollino sulle foto e i video manipolati
Dunque, la legge prevede anche un obbligo di trasparenza, che si estende anche al diritto d’autore nelle fasi di addestramento dei sistemi, e che prevede monitoraggi e valutazioni costanti, oltre a interventi correttivi e report sugli incidenti. Inoltre, le immagini e i contenuti audio o video artificiali o manipolati, i cosiddetti “deepfake” come le ormai famosissime foto finte dell’arresto di Donald Trump, dovranno essere chiaramente etichettati come tali.
Le misure per favorire l’innovazione di Pmi e start-up
Dal punto di vista delle opportunità, invece, tra le misure previste dalla legge c’è la disposizione per i Paesi membri di istituire e rendere accessibili “spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (in inglese sandbox), in modo che Pmi e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato”.