Il gruppo dei consumatori chiede all'UE di indagare con urgenza sui "rischi dell'IA generativa"
Le autorità di regolamentazione europee sono a un bivio su come regolamentare l'intelligenza artificiale — e in definitiva utilizzarla a fini commerciali e non — nella regione, e oggi il più grande gruppo di consumatori dell'UE, il BEUC, ha espresso la propria posizione: smettetela di trascinare i piedi e "avviare indagini urgenti sui rischi dell'IA generativa", ha affermato.
“L'IA generativa come ChatGPT ha aperto tutti i tipi di possibilità per i consumatori, ma ci sono serie preoccupazioni su come questi sistemi possano ingannare, manipolare e danneggiare le persone.
Possono anche essere utilizzati per diffondere disinformazione, perpetuare pregiudizi esistenti che amplificano la discriminazione o essere utilizzati per frodi ", ha dichiarato Ursula Pachl, vicedirettore generale del BEUC, in una dichiarazione.
“Chiediamo alle autorità per la sicurezza, i dati e la protezione dei consumatori di avviare le indagini ora e di non aspettare pigramente che si siano verificati tutti i tipi di danni ai consumatori prima di agire.
Queste leggi si applicano a tutti i prodotti e servizi, siano essi alimentati dall'intelligenza artificiale o meno e le autorità devono applicarle".
Il BEUC, che rappresenta le organizzazioni dei consumatori in 13 paesi dell'UE, ha lanciato l'appello in concomitanza con un rapporto pubblicato oggi da uno dei suoi membri, Forbrukerrådet in Norvegia.
Quel rapporto norvegese è inequivocabile nella sua posizione: l'IA pone danni ai consumatori (il titolo del rapporto dice tutto: "Ghost in the Machine: affrontare i danni ai consumatori dell'IA generativa") e pone numerose questioni problematiche.
Mentre alcuni tecnologi hanno suonato campanelli d'allarme sull'intelligenza artificiale come strumento di estinzione umana, il dibattito in Europa è stato più diretto intorno agli impatti dell'intelligenza artificiale in aree come l'accesso equo ai servizi, la disinformazione e la concorrenza.
Evidenzia, ad esempio, come "alcuni sviluppatori di intelligenza artificiale, comprese le società Big Tech" abbiano chiuso i sistemi al controllo esterno, rendendo difficile vedere come vengono raccolti i dati o funzionano gli algoritmi; il fatto che alcuni sistemi producano informazioni errate con la stessa leggerezza con cui producono risultati corretti, con gli utenti spesso non più consapevoli di quali potrebbero essere; IA creata per fuorviare o manipolare gli utenti; il problema del bias basato sulle informazioni che vengono inserite in un particolare modello di intelligenza artificiale; e sicurezza, in particolare come l'intelligenza artificiale potrebbe essere utilizzata come arma per truffare le persone o violare i sistemi.
Sebbene il rilascio di ChatGPT di OpenAI abbia definitivamente posto l'IA e il potenziale della sua portata nella coscienza pubblica, l'attenzione dell'UE sull'impatto dell'IA non è una novità.
Ha affermato di discutere questioni di "rischio" nel 2020, sebbene quegli sforzi iniziali siano stati lanciati come base per aumentare la "fiducia" nella tecnologia.
Entro il 2021, si parlava più specificamente di applicazioni IA "ad alto rischio" e circa 300 organizzazioni si sono unite per intervenire e sostenere il divieto totale di alcune forme di IA.
I sentimenti sono diventati più decisamente critici nel tempo, mentre l'UE lavora attraverso le sue leggi a livello regionale.
Nell'ultima settimana, il capo della concorrenza dell'UE, Margarethe Vestager, ha parlato in particolare di come l'IA ponesse rischi di parzialità quando applicata in aree critiche come i servizi finanziari come i mutui e altre richieste di prestito.
I suoi commenti sono arrivati subito dopo che l'UE ha approvato la sua legge ufficiale sull'IA, che divide provvisoriamente le applicazioni di intelligenza artificiale in categorie come rischio inaccettabile, alto e limitato, coprendo un'ampia gamma di parametri per determinare in quale categoria rientrano.
La legge sull'IA, una volta implementata, sarà il primo tentativo al mondo di tentare di codificare un qualche tipo di comprensione e applicazione legale su come l'IA viene utilizzata a fini commerciali e non commerciali.
Il prossimo passo nel processo è che l'UE si impegni con i singoli paesi dell'UE per stabilire quale forma finale assumerà la legge, in particolare per identificare cosa (e chi) rientrerebbe nelle sue categorie e cosa no.
La domanda sarà quanto prontamente i diversi paesi si mettono d'accordo.
L'UE vuole finalizzare questo processo entro la fine di quest'anno, ha affermato.
"È fondamentale che l'UE renda questa legge il più inattaccabile possibile per proteggere i consumatori", ha affermato Pachl nella sua dichiarazione.
“Tutti i sistemi di intelligenza artificiale, inclusa l'IA generativa, necessitano di un controllo pubblico e le autorità pubbliche devono riaffermare il controllo su di essi.
I legislatori devono esigere che l'output di qualsiasi sistema di intelligenza artificiale generativa sia sicuro, equo e trasparente per i consumatori".
Il BEUC è noto per intervenire nei momenti critici e per fare chiamate influenti che riflettono la direzione che alla fine prendono le autorità di regolamentazione.
È stata una delle prime voci, ad esempio, contro Google nelle indagini antitrust a lungo termine contro il gigante della ricerca e della telefonia mobile, che è intervenuta anni prima che venissero intraprese azioni contro la società.
Quell'esempio, tuttavia, sottolinea qualcos'altro: il dibattito sull'IA e sui suoi impatti, e il ruolo che la regolamentazione potrebbe svolgere in questo, sarà probabilmente lungo.
Il gruppo dei consumatori chiede all'UE di indagare con urgenza sui "rischi dell'IA generativa" di Ingrid Lunden, originariamente pubblicato su TechCrunch