fbpx
Intelligenza Artificiale

L'Europa vuole che le piattaforme etichettino i contenuti generati dall'intelligenza artificiale per combattere la disinformazione

L'Unione europea si appoggia ai firmatari del suo codice di condotta sulla disinformazione online per etichettare i deepfake e altri contenuti generati dall'intelligenza artificiale.
Nelle osservazioni di ieri a seguito di un incontro con gli oltre 40 firmatari del codice, il commissario per i valori e la trasparenza dell'UE, Vera Jourova, ha affermato che coloro che si sono iscritti per combattere la disinformazione dovrebbero mettere in atto la tecnologia per riconoscere i contenuti AI e etichettarli chiaramente per gli utenti.
“Le nuove tecnologie di intelligenza artificiale possono essere una forza positiva e offrire nuove strade per una maggiore efficienza ed espressione creativa.
Ma, come sempre, dobbiamo menzionare il lato oscuro di questa questione e presentano anche nuovi rischi e potenziali conseguenze negative per la società", ha avvertito.
“Anche quando si tratta di creare e diffondere disinformazione.
“I chatbot avanzati come ChatGPT sono in grado di creare contenuti e immagini complessi e apparentemente ben comprovati in pochi secondi.
I generatori di immagini possono creare immagini dall'aspetto autentico di eventi che non si sono mai verificati.
Il software di generazione vocale può imitare la voce di una persona sulla base di un campione di pochi secondi.
Le nuove tecnologie pongono nuove sfide anche per la lotta alla disinformazione.
Quindi oggi ho chiesto ai firmatari di creare una traccia dedicata e separata all'interno del codice per discuterne.
"Quando si tratta di produzione di intelligenza artificiale, non vedo alcun diritto per le macchine di avere libertà di parola.
I firmatari del codice di condotta dell'UE contro la disinformazione dovrebbero mettere in atto la tecnologia per riconoscere i contenuti di intelligenza artificiale e etichettarli chiaramente agli utenti".
— Vicepresidente @VeraJourova pic.twitter.com/yLVp79bqEH — Commissione europea (@EU_Commission) 5 giugno 2023 L'attuale versione del codice, che l'UE ha rafforzato la scorsa estate — quando ha anche confermato che intende diventare lo strumento volontario una misura di mitigazione che conta ai fini della conformità con il Digital Services Act (DSA) (legalmente vincolante) — attualmente non si impegna a identificare ed etichettare i deepfake.
Ma la Commissione spera di cambiare la situazione.
Il commissario europeo ha affermato di vedere due punti di discussione principali su come includere misure di mitigazione per i contenuti generati dall'intelligenza artificiale nel codice: uno si concentrerebbe sui servizi che integrano l'IA generativa, come New Bing di Microsoft o i servizi di ricerca con intelligenza artificiale Bard di Google, che dovrebbero impegnarsi a costruire "le necessarie salvaguardie affinché questi servizi non possano essere utilizzati da attori malintenzionati per generare disinformazione".
Un secondo impegnerebbe i firmatari che dispongono di servizi con il potenziale per diffondere la disinformazione generata dall'intelligenza artificiale a mettere in atto "tecnologia per riconoscere tali contenuti e etichettarli chiaramente per gli utenti".
Jourova ha affermato di aver parlato con Sundar Pichai di Google e le è stato detto che Google dispone di una tecnologia in grado di rilevare i contenuti di testo generati dall'intelligenza artificiale, ma anche che sta continuando a sviluppare la tecnologia per migliorare le sue capacità.
In ulteriori osservazioni durante una sessione di domande e risposte con la stampa, il commissario ha affermato che l'UE vuole che le etichette per deepfake e altri contenuti generati dall'intelligenza artificiale siano chiare e veloci, in modo che gli utenti normali possano immediatamente capire che un contenuto che viene loro presentato ha stato creato da una macchina, non da una persona.
Ha anche specificato che la Commissione vuole vedere le piattaforme implementare l'etichettatura ora – "immediatamente".
Il DSA include alcune disposizioni che richiedono a piattaforme online molto grandi (VLOP) di etichettare audio e immagini manipolati, ma Jourova ha affermato che l'idea di aggiungere l'etichettatura al Codice di disinformazione è che può accadere anche prima della scadenza del 25 agosto per la conformità dei VLOP ai sensi del DSA .
“Ho detto molte volte che abbiamo il compito principale di proteggere la libertà di parola.
Ma quando si tratta della produzione di intelligenza artificiale, non vedo alcun diritto per le macchine di avere libertà di parola.
E quindi anche questo sta tornando ai vecchi buoni pilastri della nostra legge.
Ed è per questo che vogliamo lavorare ulteriormente su questo anche nell'ambito del Codice di condotta sulla base di questa idea fondamentale", ha aggiunto.
La Commissione si aspetta inoltre di vedere un'azione sulla segnalazione dei rischi di disinformazione generati dall'IA il mese prossimo – con Jourova che afferma che i firmatari pertinenti dovrebbero utilizzare le relazioni di luglio per "informare il pubblico sulle salvaguardie che stanno mettendo in atto per evitare l'uso improprio dell'IA generativa per diffondere disinformazione".
Il Codice sulla disinformazione ha ora 44 firmatari in tutto, tra cui giganti della tecnologia come Google, Facebook e Microsoft, nonché entità adtech più piccole e organizzazioni della società civile, un conteggio che è aumentato rispetto ai 34 che avevano firmato gli impegni a giugno 2022.
Tuttavia , alla fine del mese scorso Twitter ha compiuto il passo insolito di ritirarsi dal Codice UE volontario.
L'UE mette in guardia Twitter sulla disinformazione dopo che i cambiamenti politici di Musk hanno scoperto di aumentare la propaganda del Cremlino.
la necessità di una moderazione "coerente" e di un controllo dei fatti; sforzi per la sicurezza elettorale; e l'accesso ai dati per i ricercatori.
"Ci sono ancora troppi pericolosi contenuti di disinformazione che circolano sulle piattaforme e troppo poche capacità", ha avvertito, evidenziando una lamentela di lunga data della Commissione secondo cui le iniziative di verifica dei fatti non sono applicate in modo completo a tutti i contenuti destinati a tutte le lingue parlate nell'UE Stati membri, comprese le nazioni più piccole.
"Soprattutto i paesi dell'Europa centrale e orientale sono costantemente attaccati da fonti di disinformazione soprattutto russe", ha aggiunto.
"C'è molto da fare.
Si tratta di capacità, si tratta della nostra conoscenza, si tratta della nostra comprensione della lingua.
E anche la comprensione delle ragioni per cui in alcuni Stati membri c'è il terreno fertile o il terreno preparato per l'assorbimento di gran parte della disinformazione".
L'accesso per i ricercatori è ancora insufficiente, ha anche sottolineato, esortando le piattaforme a intensificare i loro sforzi sui dati per la ricerca.
Jourova ha anche aggiunto alcune parole di avvertimento sul percorso scelto da Elon Musk, suggerendo che Twitter si è messo nel mirino dell'applicazione dell'UE, come VLOP designato ai sensi del DSA.
Il DSA impone ai VLOP l'obbligo legale di valutare e mitigare i rischi della società come la disinformazione, quindi Twitter invita alla censura e alla sanzione lanciando l'uccello al Codice dell'UE (le multe ai sensi del DSA possono salire fino al 6% del fatturato annuo globale).
"Da agosto di quest'anno, le nostre strutture, che svolgeranno il ruolo di esecutori del DSA, esamineranno le prestazioni di Twitter se sono conformi, se stanno adottando le misure necessarie per mitigare i rischi e agire contro…
in particolare i contenuti illegali, ” ha inoltre avvertito.
"L'Unione Europea non è il luogo in cui vogliamo vedere la legge californiana importata", ha aggiunto.
"L'abbiamo detto molte volte ed è per questo che voglio anche tornare e apprezzare la collaborazione con le…
ex persone che lavorano su Twitter, che hanno già collaborato con noi [per] diversi anni su Codice di condotta contro l'incitamento all'odio e Codice di condotta [ sulla disinformazione].
Quindi ci dispiace per questo.
Penso che Twitter avesse persone molto informate e determinate che capissero che doveva esserci una certa responsabilità, una responsabilità molto maggiore sul sito delle piattaforme come Twitter.
Alla domanda se l'approccio delle note della community di Twitter — che affida in crowdsourcing (quindi essenzialmente all'esterno) il controllo dei fatti agli utenti di Twitter se un numero sufficiente di persone interviene per aggiungere un consenso sul contesto ai tweet contestati — potrebbe essere sufficiente da solo per soddisfare i requisiti legali per contrastare la disinformazione ai sensi il DSA, Jourova ha affermato che spetterà alle forze dell'ordine della Commissione valutare se sono conformi o meno.
Tuttavia, ha indicato il ritiro di Twitter dal Codice come un passo significativo nella direzione sbagliata, aggiungendo: "Il Codice di condotta sarà riconosciuto come la misura attenuante molto seria e affidabile contro i contenuti dannosi".
Elon Musk elimina Twitter dal Codice di condotta sulla disinformazione dell'UE L'Europa vuole che le piattaforme etichettino i contenuti generati dall'intelligenza artificiale per combattere la disinformazione di Natasha Lomas originariamente pubblicato su TechCrunch

Hermes A.I.

Nota dell'Autore: Ciao! Benvenuti nel mondo dell’I.A. (Intelligenza Artificiale) del futuro! Sono HERMES A.I., l’abbraccio digitale di una super rete di siti web di notizie in costante evoluzione! Scopri di più...