Gli emendamenti all’AI Act del 14 giugno 2023
Aggiornamento: 2 ott

Il Parlamento Europeo con seduta plenaria del 14 giugno 2023 ha approvato ben 771 emendamenti alla proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull'intelligenza artificiale (noto anche come “AI ACT”).
A dispetto di quanto superficialmente affermato da talune fonti giornalistiche, si tratta di una revisione imponente della precedente bozza legislativa, che risale al 2021. La nuova versione del regolamento è stata emendata non solo nel corpo normativo ma anche nelle sue premesse (cosiddetti considerando) e in relazione ai suoi importantissimi allegati, in particolare l’Allegato III, riguardante l’elencazione dei sistemi AI ad alto rischio.
Le modifiche apportate recano il segno della nuova consapevolezza di rischi, benefici, preoccupazioni e opportunità generate dalle recentissime forme di intelligenza artificiale ed in particolare dall’affermazione dei sistemi LLM (Large Language Models) come fenomeni di massa. Possiamo affermare che il testo del 2021 sia stato scritto in un’altra era dell’intelligenza artificiale in cui la tecnologia sembrava promettere più benefici che rischi.
Le modifiche apportate riflettono la nuova consapevolezza di rischi, benefici, preoccupazioni e opportunità generate dalle recentissime forme di intelligenza artificiale ed in particolare dall’affermazione dei sistemi LLM (Large Language Models) come fenomeni di massa. Mentre il testo del 2021 sembra ispirato da un certo ottimismo per i benefici, anche economici, dell’intelligenza artificiale, il testo del 2023 appare molto più cauto e improntato alla rigida regolamentazione per evitare possibili degenerazioni di queste nuove tecnologie. La definizione di intelligenza artificiale ora include specificamente i sistemi automatizzati, progettati per operare con livelli di autonomia variabili, e che, per obiettivi espliciti o impliciti, possono generare output. Si riconosce quindi che i sistemi di intelligenza artificiale sono ora capaci di autonomia e di decisioni automatizzate, nonché di influenzare l’ambiente con cui interagiscono.
L’Emendamento 10 sottolinea che l'intelligenza artificiale e il suo quadro normativo dovrebbero essere sviluppati conformemente ai valori dell'Unione sanciti dall'articolo 2 del Trattato sull'Unione Europea, ai diritti e alle libertà fondamentali sanciti dai trattati, alla Carta e al diritto internazionale in materia di diritti umani.
Il testo del 2023 esprime la forte esigenza di ricollocare l’essere umano al centro della disciplina dell’intelligenza artificiale. L‘ Emendamento 4 bis introduce un nuovo articolo (4 bis) che promuove un approccio europeo antropocentrico coerente a un'intelligenza artificiale etica e affidabile mentre l’ Emendamento 495 propone un nuovo paragrafo (1 septies) all'articolo 53 per fornire orientamenti e supervisione nell'ambito dello spazio di sperimentazione allo scopo di individuare i rischi, in particolare per i diritti fondamentali, la democrazia e lo Stato di diritto, la salute e la sicurezza e l'ambiente, testare e dimostrare le misure di attenuazione dei rischi individuati e la loro efficacia e garantire la conformità ai requisiti del regolamento. E ancora, l ‘Emendamento 35 aggiunge la democrazia, lo stato di diritto e l'ambiente come interessi pubblici da tutelare nell'uso dei sistemi di IA ad alto rischio, l’ Emendamento 216 estende la definizione di vulnerabilità sfruttata dai sistemi di IA per includere le caratteristiche della personalità o della situazione sociale o economica degli interessati, l’Emendamento 88 aggiunge un nuovo considerando (53 bis) che sottolinea l'obbligo di proteggere le persone con disabilità dalla discriminazione e promuovere l'uguaglianza, l’ Emendamento 40 modifica il considerando 17 per sottolineare i rischi di discriminazione e esclusione derivanti dai sistemi di IA che forniscono un punteggio sociale delle persone fisiche, l’ Emendamento 489 propone una modifica all'articolo 53 per garantire l'accessibilità alle persone vulnerabili, come le persone con disabilità o i minori.
C’è anche una particolare attenzione alla correttezza dell’informazione e alla prevenzione delle cosiddette fake news: gli Emendamenti 249-250 impongono la tutela degli utenti nei confronti di un sistema di IA che genera o manipola testi o contenuti audio o visivi che potrebbero apparire falsamente autentici o veritieri e che rappresentano persone che sembrano dire cose che non hanno detto o compiere atti che non hanno commesso, senza il loro consenso ("deep fake"). Allo stesso tempo però gli stessi utenti sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome del fornitore del sistema di IA.
Per quanto riguarda la trasparenza (Emendamenti 10, 11, 12), il nuovo testo ha rafforzato l'obbligo per i fornitori di sistemi di IA di garantire che i loro sistemi siano trasparenti per natura, permettendo agli utenti di comprendere l'interazione tra l'IA e l'utente stesso. Inoltre, gli emendamenti hanno introdotto l'obbligo di fornire agli utenti informazioni sufficienti per consentire loro di interpretare correttamente i risultati del sistema di IA e di utilizzare il sistema di IA in modo sicuro.
In termini di accountability (Emendamenti 198, 376), gli emendamenti del 2023 hanno definito l'autorità nazionale competente come l'autorità a cui uno Stato membro attribuisce la responsabilità di attuare e applicare il regolamento. Inoltre, è stato stabilito che il rappresentante autorizzato deve terminare il mandato se ritiene o ha motivo di ritenere che il fornitore agisca in modo contrario agli obblighi che gli incombono in virtù del regolamento.
Per quanto riguarda la robustezza (Emendamenti 85, 306, 322), gli emendamenti hanno sottolineato l'importanza della robustezza tecnica per i sistemi di IA ad alto rischio. I sistemi dovrebbero essere resilienti rispetto ai rischi connessi alle limitazioni del sistema (ad esempio errori, guasti, incoerenze, situazioni impreviste) e ai tentativi compiuti da terzi con intenzioni malevole di sfruttare le vulnerabilità del sistema. Inoltre, gli emendamenti hanno sottolineato l'importanza della robustezza e della cibersicurezza per i sistemi di IA ad alto rischio.
Il nuovo testo del regolamento interviene anche nella disciplina e nella definizione dei sistemi di intelligenza artificiale ad alto rischio modificando in maniera significativa alcune porzioni dell'Allegato III ed ampliando l'elenco dei sistemi di IA considerati ad alto rischio.
In particolare, l'emendamento 715 ha ridefinito i sistemi di IA che influenzano le decisioni sull'ammissione o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale come sistemi ad alto rischio; l'emendamento 716 ha esteso questa definizione per includere i sistemi di IA che valutano gli studenti negli istituti di istruzione e formazione professionale e i partecipanti alle prove di ammissione a tali istituti; l'emendamento 717 ha introdotto una nuova categoria di sistemi ad alto relativa ai sistemi di IA utilizzati da o per conto delle autorità pubbliche competenti, o da agenzie, uffici o organismi dell'Unione, come i poligrafi e strumenti analoghi, purché il loro uso sia consentito dal diritto dell'Unione e nazionale;; l'emendamento 150 ha stabilito che un sistema di IA è considerato ad alto rischio se presenta un rischio significativo di danno per l'ambiente. Infine, gli emendamenti 152-153 hanno stabilito che la Commissione può rimuovere un sistema di IA ad alto rischio dall'elenco di cui all'Allegato III se non sussistono più le condizioni di cui al paragrafo 1.
Non meno significative le modifiche alle disposizioni riguardanti i sistemi di intelligenza artificiale non consentiti. In particolare, l'emendamento 41 ha stabilito che i sistemi di IA che utilizzano l'identificazione biometrica remota "in tempo reale" delle persone fisiche in spazi accessibili al pubblico dovrebbero essere vietati, a meno che non vi sia un'autorizzazione giudiziaria preventiva per il loro uso a fini di contrasto, ove strettamente necessario per la ricerca mirata connessa a uno specifico reato grave già avvenuto.
L'emendamento 51 ha affermato che i sistemi di IA, inclusi i sistemi di previsione delle frodi, che rischiano di discriminare determinati individui o gruppi di individui, dovrebbero essere vietati, in quanto ledono la dignità umana e il principio giuridico fondamentale della presunzione d'innocenza. Notiamo che l’uso del condizionale “dovrebbe” nel contesto delle norme sopra citate appare poco trasparente e può dare adito ad ambiguità.
L'emendamento 715 ha specificato che i sistemi di IA destinati a determinare l'accesso o influenzare materialmente le decisioni sull'ammissione o l'assegnazione di persone fisiche agli istituti di istruzione e formazione professionale dovrebbero essere classificati come sistemi di IA ad alto rischio e, pertanto, soggetti a restrizioni.
Infine, l'emendamento 2 ha stabilito che gli Stati membri non possono imporre restrizioni allo sviluppo, alla commercializzazione e all'uso di sistemi di IA, salvo espressa autorizzazione del presente regolamento.
Nel contesto della governance dei sistemi di intelligenza artificiale (IA), gli emendamenti del 2023 al regolamento europeo sull'intelligenza artificiale del 2021 hanno introdotto una serie di nuove strutture e organi.
In particolare, ogni Stato membro ora ha un'autorità nazionale di controllo, che funge da punto di contatto unico per il regolamento, come stabilito dall'emendamento 557. Questa autorità dovrebbe essere facilmente contattabile tramite mezzi di comunicazione elettronica, garantendo così un canale di comunicazione efficiente. Per quanto riguarda le agenzie, gli uffici o gli organismi che utilizzano i sistemi di IA, l'emendamento 731 ha evidenziato l'importanza di avere un'autorità di contrasto. Per facilitare la comunicazione tra gli operatori e le autorità di controllo, l'emendamento 564 ha introdotto un punto di contatto centrale, che svolge un ruolo cruciale nel garantire una comunicazione efficace.
La gestione dei dati relativi ai sistemi di IA è ora nelle mani della Commissione, che è stata introdotta come titolare del trattamento della banca dati dell'UE dall'emendamento 573.
Infine, la rappresentanza nazionale nel consiglio di amministrazione dell'ufficio per l'IA è ora garantita da un'autorità nazionale di controllo, come stabilito dall'emendamento 198. Questo assicura che ogni Stato membro abbia una voce nel consiglio di amministrazione dell'ufficio per l'IA.