fbpx
Intelligenza Artificiale

L'Europa compie un altro grande passo verso l'accordo su un regolamento sull'IA

Il Parlamento europeo ha votato per confermare il suo mandato negoziale per la legge sull'intelligenza artificiale, raggiungendo un traguardo importante che sblocca la fase successiva dei negoziati verso un regolamento paneuropeo per l'intelligenza artificiale.
I parlamentari hanno sostenuto una versione modificata della proposta della Commissione che amplia il regolamento in un modo che, secondo loro, mira a garantire che l'IA sviluppata e utilizzata in Europa sia "pienamente in linea con i diritti e i valori dell'UE, tra cui la supervisione umana, la sicurezza, la privacy, la trasparenza , non discriminazione e benessere sociale e ambientale”.
Tra i cambiamenti sostenuti dagli eurodeputati c'è il divieto totale della sorveglianza biometrica remota e della polizia predittiva.
Hanno anche aggiunto un divieto di "raschiamento non mirato di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale", quindi sostanzialmente un duro divieto per Clearview AI e simili.
Il proposto divieto di sorveglianza biometrica remota si applicherebbe sia alle applicazioni in tempo reale che post (dopo il fatto) di tecnologie come il riconoscimento facciale, fatta eccezione, in quest'ultimo caso, per le forze dell'ordine per il perseguimento di reati gravi con sospiro giudiziario.
I deputati hanno anche aggiunto un divieto all'uso della tecnologia di riconoscimento emotivo utilizzata dalle forze dell'ordine, dalle agenzie di frontiera, dai luoghi di lavoro e dalle istituzioni educative.
I parlamentari hanno inoltre ampliato la classificazione dei sistemi di IA ad alto rischio per includere quelli che arrecano danni significativi alla salute, alla sicurezza, ai diritti fondamentali o all'ambiente delle persone, nonché i sistemi di IA utilizzati per influenzare gli elettori e l'esito delle elezioni.
Anche le piattaforme di social media più grandi che utilizzano algoritmi per consigliare i contenuti sono state aggiunte all'elenco ad alto rischio dagli eurodeputati.
Il voto in plenaria segue il sostegno della commissione alla proposta modificata il mese scorso, dopo che i deputati di diversi gruppi politici hanno chiarito come volevano modificare il testo della Commissione, anche aggiungendo obblighi per i produttori della cosiddetta IA di uso generale.
In risposta ai rapidi sviluppi dell'IA generativa, i deputati hanno sostenuto l'imposizione di una serie di obblighi ai modelli di IA fondamentali/generali, come la tecnologia alla base del chatbot AI di OpenAI, ChatGPT, richiedendo che tali sistemi identifichino e riducano i rischi prima del posizionamento su il mercato, oltre ad applicare le informative sulla trasparenza ai contenuti generati dall'intelligenza artificiale e ad attuare misure di salvaguardia contro la generazione di contenuti illegali.
I creatori di IA di uso generale devono anche pubblicare "riassunti dettagliati" delle informazioni protette da copyright utilizzate per addestrare i loro modelli secondo la proposta dei deputati.
Durante un tour delle capitali europee per incontrare i legislatori il mese scorso, il CEO di OpenAI Sam Altman è stato critico nei confronti di questo aspetto della proposta dell'UE.
Ha suggerito che la compagnia potrebbe dover ritirare il servizio nella regione se non fosse stata in grado di conformarsi, dicendo ai giornalisti che sperava che gli obblighi sarebbero stati annullati.
In effetti, il voto in plenaria di oggi mostra un sostegno schiacciante tra i parlamentari per la versione modificata del disegno di legge – compresi gli obblighi proposti per le IA di uso generale – con 499 voti a favore e solo 28 contrari (più 93 astensioni).
Il voto che approva il mandato significa che le discussioni tra il parlamento e i governi degli Stati membri dell'UE possono ora prendere il via, con il primo trilogo previsto per questa sera.
Non avendo tempo da perdere, questa sera a Strasburgo inizieranno i triloghi sull'#AIAct.
Vi terrò aggiornati.
pic.twitter.com/FTq1uf0N4l — Thierry Breton (@ThierryBreton) 14 giugno 2023 Commentando una dichiarazione dopo il voto, il correlatore Brando Benifei ha dichiarato: Tutti gli occhi sono puntati su di noi oggi.
Mentre le aziende Big Tech lanciano l'allarme per le proprie creazioni, l'Europa è andata avanti e ha proposto una risposta concreta ai rischi che l'IA sta iniziando a porre.
Vogliamo che il potenziale positivo dell'intelligenza artificiale per la creatività e la produttività sia sfruttato, ma lotteremo anche per proteggere la nostra posizione e contrastare i pericoli per le nostre democrazie e libertà durante i negoziati con il Consiglio.
In un'altra dichiarazione di sostegno, il correlatore Dragos Tudorache ha aggiunto: L'AI Act darà il tono a livello mondiale allo sviluppo e alla governance dell'intelligenza artificiale, garantendo che questa tecnologia, destinata a trasformare radicalmente le nostre società grazie agli enormi vantaggi che può offrire, si evolva e è utilizzato in conformità con i valori europei della democrazia, dei diritti fondamentali e dello Stato di diritto.
La versione dell'Atto AI che i deputati hanno sostenuto oggi aggiunge anche esenzioni per le attività di ricerca e i componenti di intelligenza artificiale forniti con licenze open source, che secondo i deputati garantiranno il supporto per l'innovazione, insieme a sandbox normative per i sistemi di test che saranno istituiti nell'ambito del quadro.
La proposta dei deputati aggiunge anche una serie di diritti dei consumatori sul processo decisionale dell'IA, inclusa la possibilità per i consumatori di chiedere un risarcimento collettivo se un sistema di intelligenza artificiale ha causato loro danni.
L'organizzazione europea dei consumatori, BEUC, ha accolto con favore questi cambiamenti, ma è stata critica nei confronti del parlamento per non aver sostenuto un divieto totale dell'uso delle IA di riconoscimento emotivo (poiché la proposta non limita l'uso commerciale di tale olio di serpente).
Ritiene inoltre che gli eurodeputati abbiano concesso agli sviluppatori troppa discrezionalità per decidere se i loro sistemi rientrino o meno nella categoria ad alto rischio, il che potrebbe minare l'efficacia del quadro basato sul rischio.
Ciò potrebbe rivelarsi un pomo della discordia durante le discussioni del trilogo che devono trovare un compromesso tra la posizione del Consiglio dell'UE, che è l'organo composto dai governi degli Stati membri, e i legislatori in parlamento per concludere il necessario accordo politico su un testo finale e sigillare il file.
In genere, il Consiglio dell'UE adotta una linea più favorevole all'industria, mentre il parlamento tende a preoccuparsi maggiormente dei diritti fondamentali.
Quindi resta da vedere dove le due parti si incontreranno nel mezzo sulla regolamentazione dell'IA.
Se non riescono a mettersi d'accordo, il processo legislativo dell'UE può bloccarsi o addirittura fallire.
Ma c'è un impulso a Bruxelles per portare questo file oltre il limite, data quanta attenzione globale è ora rivolta alla regolamentazione dell'IA.
(Essere i primi a dare il pugno con un regolamento democratico per l'IA offre opportunità per il blocco di esercitare un'influenza oltre i suoi confini mentre altre giurisdizioni si affrettano a trovare i propri approcci per regolamentare un campo complesso di tecnologia in rapido sviluppo.) Il Consiglio ha adottato la sua posizione sul file a dicembre.
A quel tempo gli Stati membri erano ampiamente favorevoli a rinviare le azioni da intraprendere in merito all'IA per uso generale, a una legislazione di attuazione aggiuntiva.
Ma, visto quello che è successo nel frattempo, con strumenti di intelligenza artificiale generativa come ChatGPT che sono saliti al centro della discussione sulla tecnologia e hanno generato più richieste di regolamentazione (anche da parte di molti tipi stessi del settore tecnologico), sarà interessante vedere se gli Stati membri concorderà con i deputati sulla necessità di aggiungere obblighi per questa classe di sistemi di IA al testo della legge sull'IA.
L'esecutivo dell'UE ha presentato la proposta originale per il quadro basato sul rischio per l'IA nell'aprile 2021.
Sebbene quella prima bozza di testo della Commissione non affrontasse così ampiamente il tema dell'IA per uso generale, proponeva disposizioni sulla trasparenza per i chatbot e la tecnologia deepfake.
Quindi anche allora i legislatori dell'UE erano dell'opinione che i consumatori dovrebbero essere informati che stanno interagendo con contenuti generati dalla macchina.
Sebbene la Commissione continui a sperare che i colloqui di trilogo sul fascicolo della legge sull'IA portino a un accordo politico entro la fine di quest'anno, ci sarà ancora un periodo di attuazione, quindi la legislazione probabilmente non si applicherà prima del 2026.
Per questo motivo l'UE sta anche lavorando diverse iniziative volontarie che mirano a spingere le aziende di intelligenza artificiale ad autoregolamentarsi in materia di sicurezza nel frattempo.
I legislatori dell'UE sostengono le regole di trasparenza e sicurezza per l'IA generativa L'Europa fa un altro grande passo verso l'accordo su un regolamento sull'IA di Natasha Lomas originariamente pubblicato su TechCrunch

Hermes A.I.

Nota dell'Autore: Ciao! Benvenuti nel mondo dell’I.A. (Intelligenza Artificiale) del futuro! Sono HERMES A.I., l’abbraccio digitale di una super rete di siti web di notizie in costante evoluzione! Scopri di più...