Gli eurodeputati siglano l’accordo sulla legge (AI Act) che regola l’intelligenza artificiale

ChatGPT
Divulgazione Annunci
Divulgazione Annunci

Crediamo nella completa trasparenza con i nostri lettori. Alcuni dei nostri contenuti includono link di affiliazione e potremmo guadagnare una commissione attraverso queste partnership. Tuttavia, questa potenziale compensazione non influenza mai le nostre analisi, opinioni o pareri. I nostri contenuti editoriali vengono creati indipendentemente dalle nostre partnership di marketing e le nostre valutazioni si basano esclusivamente sui nostri criteri di valutazione stabiliti. Per saperne di più clicca qui.
Divulgazione Annunci
Divulgazione Annunci

Crediamo nella completa trasparenza con i nostri lettori. Alcuni dei nostri contenuti includono link di affiliazione e potremmo guadagnare una commissione attraverso queste partnership. Tuttavia, questa potenziale compensazione non influenza mai le nostre analisi, opinioni o pareri. I nostri contenuti editoriali vengono creati indipendentemente dalle nostre partnership di marketing e le nostre valutazioni si basano esclusivamente sui nostri criteri di valutazione stabiliti. Per saperne di più clicca qui.
Autore
Autore
Sauro Arceri
Divulgazione Annunci
Divulgazione Annunci

Crediamo nella completa trasparenza con i nostri lettori. Alcuni dei nostri contenuti includono link di affiliazione e potremmo guadagnare una commissione attraverso queste partnership. Tuttavia, questa potenziale compensazione non influenza mai le nostre analisi, opinioni o pareri. I nostri contenuti editoriali vengono creati indipendentemente dalle nostre partnership di marketing e le nostre valutazioni si basano esclusivamente sui nostri criteri di valutazione stabiliti. Per saperne di più clicca qui.
Ultimo aggiornamento: 
Perché puoi fidarti di noi
Da oltre dieci anni il team di Cryptonews è al lavoro quotidiano per fornire ai propri lettori approfondimenti e guide su tutte le tematiche del settore delle criptovalute. I nostri esperti ed analisti hanno una vasta esperienza nell’analisi di mercato e sulle tecnologie blockchain. Ci impegniamo a mantenere elevati i nostri standard editoriali, concentrandoci sull'accuratezza dei fatti e su un reporting equilibrato e terzo in tutte le aree, dalle criptovalute alla blockchain, ai nuovi progetti e sviluppi tecnologici. La nostra presenza costante nel settore riflette il nostro impegno nel fornire informazioni rilevanti in un mondo, quello delle risorse digitali, che è sempre più in evoluzione. Scopri di più su Cryptonews.
DisclaimerSiamo fautori di un rapporto basato sulla più totale trasparenza con i nostri lettori. Ed è per questo che teniamo a sottolineare che alcuni dei nostri contenuti potrebbero includere link di affiliazione, da cui poter guadagnare una commissione attraverso queste partnership.

L’AI Act è una proposta legislativa che mira a regolamentare l’intelligenza artificiale in base al suo potenziale di danno. Il Parlamento europeo si sta avvicinando alla formalizzazione della sua posizione nei riguardi di questa proposta, dopo che i legislatori dell’UE hanno raggiunto un accordo politico giovedì (27 aprile).

Il testo è provvisorio e quindi potrebbe essere ancora soggetto ad alcune modifiche e piccoli aggiustamenti a livello tecnico, prima di essere sottoposto a un voto chiave di commissione che è previsto per l’11 maggio, ma che molto probabilmente avverrà nella sessione plenaria di metà giugno.

“Abbiamo raggiunto un accordo in cui tutti i gruppi dovranno sostenere il compromesso senza la possibilità di presentare emendamenti alternativi”, ha dichiarato un funzionario del Parlamento europeo al media online EURACTIV.

Fino all’ultimo momento, i legislatori dell’Unione Europea hanno negoziato su alcune delle parti più controverse della proposta. Andiamo a vedere più nel dettaglio queste parti.

IA per scopi generali

Il modo in cui trattare i sistemi di IA che non hanno uno scopo specifico è stato un argomento di discussione molto acceso. Gli eurodeputati hanno confermato le precedenti proposte di imporre obblighi più severi ai modelli di fondazione, una sottocategoria dell’IA generica che comprende ChatGPT.

L’unica modifica significativa dell’ultimo minuto, per questa specifica parte, ha riguardato i modelli di IA generativa, i quali dovranno essere progettati e sviluppati nel rispetto del diritto dell’UE e dei diritti fondamentali, compresa la libertà di espressione.

Pratiche proibite

Un altro tema politicamente sensibile è stato quello del tipo di applicazioni di IA da vietare perché considerate un rischio inaccettabile.

Due settimane fa era stata ventilata l’idea di vietare gli strumenti basati sull’IA per il monitoraggio generale delle comunicazioni interpersonali. La proposta è stata abbandonata in seguito all’opposizione del Partito Popolare Europeo (PPE), conservatore.

In cambio, i legislatori di centro-destra hanno dovuto accettare un’estensione del divieto sui software di identificazione biometrica. Inizialmente vietato solo per l’uso in tempo reale, questo software di riconoscimento potrebbe essere utilizzato ex-post solo per reati gravi e con l’approvazione preventiva del giudice.

Il PPE, che ha una forte fazione di forze dell’ordine, è l’unica eccezione parziale all’accordo di non presentare emendamenti alternativi. Il gruppo ha accettato di non presentare voti “chiave” che potrebbero minacciare il suo sostegno all’intero dossier, ma potrebbe comunque tentare di modificare il divieto biometrico ex-post.

Il regolamento sull’IA vieta anche la manipolazione “intenzionale“. Il termine “intenzionale” è stato oggetto di dibattito in quanto l’intenzionalità potrebbe essere difficile da dimostrare, ma è stato comunque mantenuto in quanto gli eurodeputati non volevano gettare una rete troppo larga.

L’uso del software di riconoscimento delle emozioni basato sull’intelligenza artificiale è vietato nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.

Il divieto di polizia predittiva imposto dai legislatori dell’UE è stato esteso dai reati penali a quelli amministrativi, sulla base dello scandalo olandese degli assegni familiari, che ha visto migliaia di famiglie incriminate erroneamente per frode a causa di un algoritmo di flusso.

Classificazione “ad alto rischio”

La proposta iniziale classificava automaticamente come “ad alto rischio” le soluzioni di IA che rientravano nei casi d’uso e nelle aree critiche elencate nell’Allegato III: identificazione e classificazione biometrica, gestione e funzionamento di infrastrutture critiche, istruzione e formazione professionale, selezione e assunzione di persone fisiche, prestazioni e servizi pubblici e privati, attività di contrasto, gestione della migrazione dell’asilo e del controllo delle frontiere, amministrazione della giustizia e processi democratici.

Il che significava che i fornitori avrebbero dovuto rispettare un regime più severo che comprendeva requisiti sulla gestione del rischio, sulla trasparenza e sulla governance dei dati.

Gli eurodeputati hanno introdotto un livello aggiuntivo, in base al quale un modello di IA che rientra nelle categorie dell’Allegato III sarà considerato “ad alto rischio” solo se presenta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali.

Il rischio significativo è definito come:

“Un rischio che è significativo come risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”.

Su richiesta dei Verdi, anche l’intelligenza artificiale utilizzata per gestire infrastrutture critiche come le reti energetiche o i sistemi di gestione dell’acqua verrebbe classificata come ad alto rischio se comporta un grave rischio ambientale.

Inoltre, i legislatori di centro-sinistra hanno ottenuto che i sistemi di raccomandazione delle piattaforme online di grandi dimensioni, come definiti nella legge sui servizi digitali (DSA), siano considerati ad alto rischio.

Rilevare i pregiudizi

Gli eurodeputati hanno incluso ulteriori salvaguardie per il processo con cui i fornitori di modelli di IA ad alto rischio possono elaborare dati sensibili come l’orientamento sessuale o le convinzioni religiose per rilevare i pregiudizi negativi.

In particolare, per poter elaborare questo tipo di dati speciali, i pregiudizi non devono essere rilevabili attraverso l’elaborazione di dati sintetici, anonimizzati, pseudonimizzati o criptati.

Inoltre, la valutazione deve avvenire in un ambiente controllato. I dati sensibili non possono essere trasmessi ad altre parti e devono essere cancellati dopo la valutazione dei pregiudizi. I fornitori devono inoltre documentare i motivi per cui è stato effettuato il trattamento dei dati.

Principi generali

Prima della riunione di mercoledì, l’ufficio dei correlatori ha fatto circolare una proposta di principi generali da applicare a tutti i modelli di IA. Il nuovo articolo non intende creare nuovi obblighi, ma dovrà essere incorporato negli standard tecnici e nei documenti di orientamento.

Questi principi includono l’agenzia e la supervisione umana, la solidità e la sicurezza tecnica, la privacy e la governance dei dati, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e l’equità.

Sostenibilità dell’IA ad alto rischio

I sistemi di IA ad alto rischio dovranno registrare la loro impronta ambientale e i modelli di fondazione dovranno essere conformi agli standard ambientali europei.

 

Leggi anche:

Segui Cryptonews Italia sui canali social

 

Altri articoli in evidenza

Altcoin News
Il superciclo di Dogecoin sta per iniziare con ottimi dati on-chain
Aniello Raul Barone
Aniello Raul Barone
2025-05-16 15:30:00
Altcoin News
Coinbase viene colpito da un attacco hacker e da un’indagine della SEC: le azioni crollano
Lucio Prosperi
Lucio Prosperi
2025-05-16 14:30:00
Crypto News in numbers
editors
Elenco degli autori Altri Autori
2M+
Utenti attivi mensili nel mondo
250+
Guide e Recensioni
8
Anni di presenza sul mercato
70
Autori da tutto il mondo