Parlamento europeo: approvato Ai Act
Se ti piace l'articolo, condividilo

AI Act, il Parlamento UE approva la prima legge al mondo sull’intelligenza artificiale

Con 523 voti favorevoli, 46 contrari e 49 astensioni, a distanza di 9 mesi dall’approvazione del testoil Parlamento europeo ha approvato l’Ai Act, l’insieme di normative che hanno il compito di regolamentare l’utilizzo dell’Intelligenza Artificiale.
L’Unione Europea è la prima istituzione politica al mondo a dotarsi di regole sull’AI.

Applicazioni vietate

Le nuove norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini.
Tra queste:

  • Sistemi di categorizzazione biometrica basati su caratteristiche sensibili: Questi sistemi possono essere utilizzati per discriminare le persone in base alla razza, all’etnia, al sesso, alla religione o ad altri fattori sensibili.
  • Estrapolazione indiscriminata di immagini facciali da internet o da sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale: Questa tecnologia può essere utilizzata per tracciare le persone senza il loro consenso e violare la loro privacy.
  • Sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole: Questi sistemi possono essere utilizzati per monitorare le persone e discriminarle in base alle loro emozioni.
  • Sistemi di credito sociale: Questi sistemi possono essere utilizzati per controllare le persone e limitare la loro libertà.
  • Pratiche di polizia predittiva basate sulla profilazione o sulla valutazione delle caratteristiche di una persona: Queste pratiche possono essere utilizzate per discriminare le persone e privarle dei loro diritti.
  • Sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone: Questi sistemi possono essere utilizzati per danneggiare le persone e privarle del loro libero arbitrio.

È importante sottolineare che non tutte le applicazioni di IA sono vietate.
L’Ai Act distingue tra diversi livelli di rischio, consentendo lo sviluppo e l’utilizzo di IA a basso o minimo rischio, che offrono numerosi benefici per la società. Solo le applicazioni di IA a rischio “inaccettabile” sono vietate.

Eccezioni in situazioni specifiche

In linea di principio, secondo la normativa approvata, le forze dell’ordine “non potranno fare ricorso ai sistemi di identificazione biometrica”, tranne in alcune situazioni specifiche espressamente previste dalla legge. Tra queste, ad esempio, la ricerca di una persona scomparsa, la prevenzione di un attacco terroristico l’investigazione di un reato grave.

L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa.

Obblighi per sistemi ad alto rischio

L’Unione Europea ha previsto obblighi chiari per i sistemi di intelligenza artificiale (IA) considerati ad alto rischio, ovvero quelli che potrebbero arrecare danni significativi a diversi aspetti della nostra vita, tra cui salute, sicurezza, diritti fondamentali, ambiente, democrazia e stato di diritto. Rientrano in questa categoria sistemi utilizzati in una varietà di settori, come infrastrutture critiche, istruzione, formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche), contrasto al crimine, migrazione, gestione delle frontiere, giustizia e processi democratici.

Per questi sistemi di IA ad alto rischio, sono previsti diversi obblighi:

  • Valutare e ridurre i rischi
  • Mantenere registri d’uso
  • Essere trasparenti e accurati
  • Garantire la sorveglianza umana

Inoltre, i cittadini avranno il diritto di:

  • Presentare reclami sui sistemi di IA
  • Ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti

Obblighi di trasparenza

I sistemi di intelligenza artificiale (IA) per finalità generali (tipo ChatGPT, Gemini e CoPilot) e i modelli su cui si basano dovranno essere trasparenti e conformi alle norme europee sul diritto d’autore.
Questo significa che i cittadini avranno il diritto di sapere come funzionano questi sistemi e come sono stati sviluppati. Inoltre, i modelli più potenti, che potrebbero comportare rischi sistemici, dovranno essere sottoposti a ulteriori controlli.

Le aziende che sviluppano sistemi di IA dovranno effettuare valutazioni dei rischi per identificare e mitigare eventuali rischi sistemici.
Dovranno inoltre riferire alle autorità competenti in caso di incidenti. Infine, i contenuti artificiali o manipolati, come i “deepfake”, dovranno essere chiaramente etichettati come tali.
Questo per evitare che le persone vengano ingannate da questi contenuti.

I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa meccanismi di prova in condizioni reali (in inglese sandbox), in modo che PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.

Prossime tappe

Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (procedura di rettifica).
Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.

Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE e inizierà ad applicarsi 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda: i divieti relativi a pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).

FONTE: HDblog

Parlamento europeo: approvato Ai Act