>  Diritto Digitale   >  Regolamento Europeo per l’intelligenza artificiale (AI act)

Regolamento Europeo per l’intelligenza artificiale (AI act)

A cura dell’Avv Chiara Parasiliti

 

intelligenza artificiale

(CCO)

 

Il Parlamento Europeo, in data 13 marzo 2024, ha approvato la legge sull’intelligenza artificiale (IA), che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l’innovazione.

E’ già leggeNO.

Infatti, il testo deve ancora essere approvato dal Consiglio Europeo.

L’analisi della bozza, però, permette di fare alcune considerazioni utili per orientare gli operatori del settore.

E’ importante sottolineare, come primo aspetto, che per consentire agli stakeholders di adeguarsi, il Regolamento prevede che le disposizioni diventino pienamente applicabili dopo 24 mesi dalla sua entrata in vigore, ad eccezione di alcune disposizioni specifiche, come  i sistemi di IA vietati, che saranno applicabili a partire da 6 mesi dopo l’entrata in vigore, o le norme sui sistemi di IA per finalità generali, che saranno applicabili a decorrere da 12 mesi dopo l’entrata in vigore dell’IA Act.

L’obiettivo dichiarato è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la protezione dell’ambiente dai sistemi di IA, promuovendo però l’innovazione.

Definizioni

Il Regolamento definisce:

sistema di IA” come “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”;

“rischio” come “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso;

Classificazione dei sistemi di IA

Il Regolamento vieta alcune applicazioni di IA e stabilisce, per le altre, obblighi per fornitori e operatori dei sistemi di IA sulla base dei rischi che l’IA può generare e del livello d’impatto.

I livelli del rischio sono così determinati:

  1. rischio inaccettabile;
  2. rischio alto;
  3. rischio limitato.

IA vietate in quanto a rischio inaccettabile

Il Regolamento ha vietato alcune applicazioni dell’intelligenza artificiale che rappresentano una minaccia per i diritti dei cittadini, tra le quali i sistemi che utilizzano caratteristiche sensibili per la categorizzazione biometrica e quelli che estraggono immagini facciali da fonti pubbliche (scraping), come internet o le registrazioni delle telecamere circuito chiuso per creare ampie banche dati di riconoscimento facciale. Saranno proibiti anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, quelli che valutano il “punteggio sociale” (social scoring), determinate applicazioni di polizia predittiva (basate sulla profilazione o sulla valutazione delle caratteristiche di una persona) e quelli che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

IA ad alto rischio

Il Regolamento, nell’Allegato III, individua un numero limitato di sistemi di IA ad alto rischio che possono potenzialmente avere ripercussioni negative sulla sicurezza delle persone o sui loro diritti fondamentali

Tra i sistemi ad alto rischio rientrano, in particolare, quelli:

  • di identificazione biometrica remota, categorizzazione biometrica e riconoscimento delle emozioni (al di fuori delle categorie vietate);
  • utilizzati come componenti di sicurezza nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale e della fornitura di acqua, gas, riscaldamento ed elettricità;
  • finalizzati a determinare l’accesso, l’ammissione o l’assegnazione agli istituti di istruzione e formazione professionale (es. per valutare i risultati dell’apprendimento e orientare il processo di apprendimento e il monitoraggio dei comportamenti vietati);
  • relativi alla valutazione dell’occupazione, alla gestione dei lavoratori e all’accesso al lavoro autonomo (es. per pubblicare annunci di lavoro mirati, analizzare e filtrare le candidature e valutare i candidati);
  • usati per determinare l’accesso a servizi e a prestazioni pubblici e privati essenziali (es. l’assistenza sanitaria);
  • finalizzati alla valutazione dell’affidabilità creditizia delle persone fisiche, alla valutazione dei rischi finanziari, nonché alla determinazione dei prezzi in relazione ad assicurazioni sulla vita e assicurazioni sanitarie;
  • utilizzati nelle attività di contrasto, di gestione della migrazione, dell’asilo e del controllo delle frontiere, di amministrazione della giustizia e dello svolgimento dei processi democratici

Prima di lanciare sul mercato o utilizzare nell’Unione Europea un sistema di intelligenza artificiale considerato ad alto rischio, le aziende devono condurre una valutazione preliminare per assicurarsi che il sistema sia conforme a una serie di requisiti mirati a garantirne la sicurezza. Inoltre, per aumentare la trasparenza, il regolamento stabilisce che la Commissione europea istituirà e manterrà un database pubblico in cui i fornitori dovranno fornire informazioni dettagliate sui loro sistemi di intelligenza artificiale ad alto rischio. Questa misura permette a tutte le parti coinvolte di avere accesso ai dati necessari per valutare i rischi e garantire la conformità alle normative.

IA a rischio limitato

A determinati sistemi di IA sono imposti specifici obblighi di trasparenza quando esista un evidente rischio di manipolazione.

Gli utenti dovranno essere consapevoli del fatto che stanno interagendo con una macchina (chatbot).

Inoltre, i fornitori di sistemi di IA che generano contenuti audio, immagini, video o di testo sintetici, dovranno garantire che i risultati siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.

Anche i deep fake dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni.

Ai sensi dell’art 50 i fornitori garantiscono che le loro soluzioni tecniche siano efficaci, interoperabili, solide e affidabili nella misura in cui ciò sia tecnicamente possibile, tenendo conto delle specificità e dei limiti dei vari tipi di contenuti, dei costi di attuazione e dello stato dell’arte generalmente riconosciuto, come eventualmente indicato nelle pertinenti norme tecniche.

Principali obblighi

L’Artificial Intelligence Act ha introdotto una serie di obblighi che saranno a carico dei “fornitori” di sistemi di IA nonché a carico deployers, importatori e distributori, tra cui

  • garantire la conformità ai requisiti tecnici specifici indicati dal Regolamento;
  • indicare informazioni essenziali sul sistema AI;
  • disporre di un sistema di gestione della qualità;
  • elaborare una dichiarazione di conformità UE;
  • adottare misure correttive se necessario e fornire tutte le informazioni richieste alle Autorità competenti.
Disclaimer
L’elaborazione del presente contenuto è effettuata al solo scopo divulgativo ed informativo e senza pretesa di completezza. Il contenuto, anche se curato con scrupolosa attenzione, non può comportare specifiche responsabilità per eventuali involontari errori ed omissioni, inesattezze o uso scorretto degli stessi. Si precisa, inoltre, che le informazioni non costituiscono un parere legale o altro tipo di consulenza professionale. ll presente contenuto è di proprietà esclusiva dell’avvocato Chiara Parasiliti. Ne è vietata la diffusione, distribuzione e riproduzione senza autorizzazione e ogni utilizzo per l’addestramento di sistemi di intelligenza artificiale generativa e di mezzi automatizzati di data scraping. Qualsiasi violazione sarà punita come per legge e comporterà il risarcimento del relativo danno.

Non puoi copiare il contenuto di questa pagina