skip to Main Content

Commissione europea accoglie l’accordo politico sull’AI Act

La Commissione accoglie con favore l’accordo politico raggiunto tra il Parlamento Europeo e il Consiglio sull’Atto sull’Intelligenza Artificiale (AI Act), proposto dalla Commissione nell’aprile 2021.

Ursula von der Leyen, Presidente della Commissione Europea, ha dichiarato: “L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Utilizzata saggiamente e diffusamente, l’IA promette enormi vantaggi per la nostra economia e la società. Pertanto, accolgo con grande favore l’accordo politico odierno tra il Parlamento Europeo e il Consiglio sull’Atto sull’Intelligenza Artificiale. L’AI Act dell’UE è il primo quadro giuridico completo sull’Intelligenza Artificiale a livello mondiale. Questo è un momento storico. L’AI Act trasforma i valori europei in una nuova era. Concentrandosi sulla regolamentazione dei rischi identificabili, l’accordo odierno favorirà l’innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese, supporterà lo sviluppo, la distribuzione e l’adozione di IA affidabili nell’UE. Il nostro AI Act contribuirà in modo sostanziale allo sviluppo di regole e principi globali per un’IA centrata sull’essere umano.”

L’Approccio Europeo all’Intelligenza Artificiale Affidabile

Le nuove regole saranno applicate direttamente allo stesso modo in tutti gli Stati membri, basandosi su una definizione di IA futuristica. Seguono un approccio basato sul rischio:

Rischio Minimo:

La stragrande maggioranza dei sistemi di IA rientra nella categoria di rischio minimo. Applicazioni a rischio minimo come i sistemi di raccomandazione basati su IA o i filtri anti-spam beneficeranno di un passaggio gratuito e dell’assenza di obblighi, poiché questi sistemi presentano rischi minimi o nulli per i diritti o la sicurezza dei cittadini. A titolo volontario, le aziende potrebbero comunque impegnarsi a seguire codici di condotta aggiuntivi per questi sistemi di IA.

Rischio Elevato:

I sistemi di IA identificati come a rischio elevato dovranno conformarsi a requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare per gli utenti, supervisione umana e un alto livello di solidità, accuratezza e sicurezza informatica. Le aree di test regolamentate faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di IA conformi.

Esempi di tali sistemi di IA ad alto rischio includono determinate infrastrutture critiche nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso a istituzioni educative o per la selezione di persone; o alcuni sistemi utilizzati nei settori dell’applicazione della legge, controllo delle frontiere, amministrazione della giustizia e processi democratici. Inoltre, l’identificazione biometrica, la categorizzazione e i sistemi di riconoscimento delle emozioni sono considerati anch’essi a rischio elevato.

Rischio Inaccettabile:

I sistemi di IA considerati una chiara minaccia ai diritti fondamentali delle persone saranno proibiti. Ciò include sistemi di IA o applicazioni che manipolano il comportamento umano per aggirare la libera volontà degli utenti, come giocattoli con assistenza vocale che incoraggiano comportamenti pericolosi dei minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, alcuni utilizzi di sistemi biometrici saranno vietati, ad esempio sistemi di riconoscimento delle emozioni utilizzati sul luogo di lavoro e alcuni sistemi per la categorizzazione delle persone o il riconoscimento biometrico in tempo reale a fini di applicazione della legge in spazi pubblicamente accessibili (con ristrette eccezioni).

Rischio Specifico di Trasparenza:

Nell’impiego di sistemi di IA come chatbot, gli utenti devono essere consapevoli che stanno interagendo con una macchina. I deepfake e altri contenuti generati da IA dovranno essere etichettati come tali, e gli utenti devono essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare i sistemi in modo che i contenuti audio, video, testo e immagini sintetici siano contrassegnati in un formato leggibile dalle macchine e rilevabili come generati o manipolati artificialmente.

Sanzioni

Le aziende non conformi alle regole saranno soggette a sanzioni. Le multe varieranno da 35 milioni di euro o il 7% del fatturato annuale globale (il valore maggiore) per violazioni di applicazioni di IA proibite, a 15 milioni di euro o il 3% per violazioni di altre obbligazioni e 7,5 milioni di euro o l’1,5% per fornire informazioni errate. Sono previsti limiti più proporzionati per le sanzioni amministrative per le PMI e le start-up in caso di violazioni dell’AI Act.

Intelligenza Artificiale a Scopo Generale

L’AI Act introduce regole dedicate per modelli di intelligenza artificiale a scopo generale che garantiranno la trasparenza lungo tutta la catena del valore. Per modelli molto potenti che potrebbero rappresentare rischi sistemici, saranno previsti obblighi vincolanti relativi alla gestione dei rischi e al monitoraggio di incidenti gravi, esecuzione di valutazioni dei modelli e test avversari. Questi nuovi obblighi saranno operativizzati attraverso codici di pratica sviluppati dall’industria, dalla comunità scientifica, dalla società civile e da altri stakeholder insieme alla Commissione.

Prossimi Passi

L’accordo politico è ora soggetto all’approvazione formale del Parlamento Europeo e del Consiglio e entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta Ufficiale. L’AI Act diventerà quindi applicabile due anni dopo la sua entrata in vigore, ad eccezione di alcune disposizioni specifiche: le proibizioni si applicheranno già dopo 6 mesi, mentre le regole sull’Intelligenza Artificiale a Scopo Generale si applicheranno dopo 12 mesi.

Per colmare il periodo transitorio prima che il Regolamento diventi generalmente applicabile, la Commissione lancerà un Patto sull’IA. Riunirà sviluppatori di IA da Europa e da tutto il mondo che si impegnano volontariamente ad attuare le principali obbligazioni dell’AI Act prima delle scadenze legali.

Per promuovere regole sull’IA affidabile a livello internazionale, l’Unione Europea continuerà a lavorare in forum come il G7, l’OCSE, il Consiglio d’Europa, il G20 e l’ONU. Recentemente, abbiamo sostenuto l’accordo dei leader del G7 nell’ambito del processo sull’IA di Hiroshima su Principi Guida Internazionali e un Codice di Condotta volontario per sistemi di IA avanzati.

Contesto

Per anni, la Commissione ha facilitato e potenziato la cooperazione sull’IA in tutta l’UE per aumentare la sua competitività e garantire la fiducia basata sui valori dell’UE.

In seguito alla pubblicazione della Strategia Europea sull’IA nel 2018 e dopo un’ampia consultazione degli stakeholder, l’High-Level Expert Group sull’Intelligenza Artificiale (HLEG) ha sviluppato Linee Guida per un’IA Affidabile nel 2019 e una Lista di Valutazione per un’IA Affidabile nel 2020. Parallelamente, il primo Piano Coordinato sull’IA è stato pubblicato nel dicembre 2018 come impegno congiunto con gli Stati membri.

Il Libro Bianco sull’IA della Commissione, pubblicato nel 2020, ha delineato una chiara visione per l’IA in Europa: un ecosistema di eccellenza e fiducia, preparando il terreno per l’accordo politico odierno. La consultazione pubblica sul Libro Bianco sull’IA ha suscitato una partecipazione diffusa proveniente da tutto il mondo. Il Libro Bianco è stato accompagnato da un “Rapporto sulle implicazioni di sicurezza e responsabilità dell’Intelligenza Artificiale, dell’Internet delle cose e della robotica”, che concludeva che la legislazione attuale sulla sicurezza dei prodotti conteneva alcune lacune che dovevano essere affrontate, in particolare nella Direttiva sulle Macchine.

Ricerche indipendenti basate su evidenze prodotte dal Joint Research Centre (JRC) sono state fondamentali nella definizione delle politiche sull’IA dell’UE e nell’assicurare la loro efficace attuazione. Attraverso ricerche e analisi rigorose, il JRC ha sostenuto lo sviluppo dell’AI Act, informando la terminologia dell’IA, la classificazione dei rischi, i requisiti tecnici e contribuendo allo sviluppo in corso di standard armonizzati.

 

 

Approfondimenti:

Back To Top