Intelligenza artificiale, nasce la prima legge al mondo: ecco i paletti imposti dal Consiglio europeo
Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue. La legge, la prima al mondo in materia, detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati. Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).
L’ambizione della legge europea sull’Intelligenza artificiale: creare uno standard globale
La legislazione segue un approccio basato sul rischio: maggiore è il rischio di causare danni alla società, più severe saranno le regole. È il primo del suo genere al mondo ed ambisce a stabilire uno standard globale per la regolamentazione dell’Ia, un ambito tecnologico nel quale l’Ue è rimasta indietro rispetto a Usa e Cina. La nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di Ia sicuri e affidabili nel mercato unico dell’Ue da parte di attori pubblici e privati. Nello stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’Ue e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa. La legge sull’Ia si applica solo ad ambiti soggetti al diritto dell’Ue e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.
La nuova legge, ricorda il Consiglio, classifica i diversi tipi di intelligenza artificiale, suddividendoli in base ai rischi che comportano. I sistemi di Ia che presentano solo un rischio limitato sono soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di Ia ad alto rischio sono autorizzati, ma devono rispettare una serie di requisiti e di obblighi per ottenere l’accesso al mercato dell’Ue. I sistemi di intelligenza artificiale come, ad esempio, la manipolazione cognitivo-comportamentale e il punteggio sociale saranno banditi dall’Ue, perché il loro rischio è ritenuto inaccettabile.
La legge vieta le previsioni poliziesche alla “Minority report”
La legge vieta inoltre l’uso dell’intelligenza artificiale per la polizia predittiva basata sulla profilazione. Proibisce anche i sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale. La legge sull’Ia affronta anche l’uso di modelli di intelligenza artificiale per scopi generali (Gpai, General Purpose Artificial Intelligence). I modelli Gpai che non comportano rischi sistemici saranno soggetti ad alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe. Per garantire una corretta applicazione delle norme, vengono istituiti diversi organi di governo: un ufficio per l’Ia all’interno della Commissione per far rispettare le regole comuni in tutta l’Ue; un panel scientifico di esperti indipendenti a supporto delle attività di contrasto; un comitato per l’Ia con rappresentanti degli Stati membri per consigliare e assistere la Commissione e gli Stati membri nell’applicazione coerente ed efficace della legge sull’Ia; un forum consultivo per le parti interessate per fornire competenze tecniche al comitato Ia e alla Commissione. Le sanzioni per le violazioni della legge sull’Ia vengono fissate in percentuale del fatturato annuo globale dell’azienda colpevole nell’anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Le Pmi e le start up sono soggette a sanzioni amministrative proporzionali.
Intelligenza artificiale: trasparenza è la parola chiave della legge
Prima che un sistema di Ia ad alto rischio venga utilizzato da enti che forniscono servizi pubblici, dovrà esserne valutato l’impatto sui diritti fondamentali. Il regolamento prevede inoltre una maggiore trasparenza per quanto riguarda lo sviluppo e l’uso di sistemi di Ia ad alto rischio. I sistemi di Ia ad alto rischio, così come gli utilizzatori di un sistema di Ia ad alto rischio che sono enti pubblici, dovranno essere registrati nell’apposita banca dati dell’Ue. Chi utilizza un sistema di riconoscimento delle emozioni dovrà informare le persone, quando sono esposte a un sistema simile.
La legge sull’intelligenza artificiale mira a promuovere l’apprendimento normativo basato su dati concreti. La nuova legge prevede che le sandbox regolamentari sull’Ia, che consentono un ambiente controllato per lo sviluppo, il test e la convalida di sistemi di Ia innovativi, dovrebbero anche consentire la sperimentazione di sistemi di Ia innovativi in condizioni reali. Dopo essere stato firmato dai presidenti del Parlamento Europeo e del Consiglio, l’atto legislativo sarà pubblicato nei prossimi giorni sulla Gazzetta Ufficiale dell’Ue ed entrerà in vigore venti giorni dopo la pubblicazione.
Il nuovo regolamento si applicherà due anni dopo l’entrata in vigore, con alcune eccezioni per disposizioni specifiche. La legge sull’intelligenza artificiale, spiega il Consiglio, è un elemento fondante della politica dell’Ue volta a promuovere lo sviluppo e l’adozione nel mercato unico di un’intelligenza artificiale che rispetti i diritti fondamentali. La Commissione (Thierry Breton, commissario per il mercato interno) ha presentato la proposta per la legge sull’Ia nell’aprile 2021. Brando Benifei (S&D, Italia) e Dragoş Tudorache (Renew Europe, Romania) sono stati i relatori del Parlamento Europeo su questo dossier e un accordo provvisorio tra i colegislatori è stato raggiunto l’8 dicembre 2023.