fbpx
Intelligenza Artificiale

Secondo quanto riferito, FTC sta esaminando OpenAI per "danni alla reputazione" causati da ChatGPT

Secondo quanto riferito, la FTC è almeno nella fase esplorativa delle indagini su OpenAI per verificare se l'IA conversazionale ChatGPT di punta dell'azienda abbia fatto dichiarazioni "false, fuorvianti, denigratorie o dannose" sulle persone.
Sembra improbabile che ciò porti a un'improvvisa repressione, ma dimostra che la FTC sta facendo molto di più che avvertire l'industria dell'IA di potenziali violazioni.
Il Washington Post ha riportato per primo la notizia, citando l'accesso a una lettera di 20 pagine a OpenAI in cui si chiedevano informazioni sui reclami per denigrazione.
La FTC ha rifiutato di commentare, osservando che le sue indagini non sono pubbliche.
A febbraio, il regolatore ha annunciato un nuovo Office of Technology per occuparsi del settore tecnologico "olio di serpente", e poco dopo ha avvertito le aziende che fanno affermazioni sull'IA che sono soggette agli stessi requisiti di verità di chiunque altro.
"Tieni sotto controllo le tue richieste di intelligenza artificiale", hanno scritto, o lo farà la FTC.
Sebbene la lettera riportata dal post non sia certo la prima volta che l'agenzia assume una qualsiasi delle molte forme di AI, sembra annunciare che l'attuale leader indiscusso del mondo nel campo, OpenAI, deve essere pronto a giustificarsi.
Questo tipo di indagine non appare solo dal nulla: la FTC non si guarda intorno e dice "Sembra sospetto".
Generalmente viene portata alla loro attenzione una causa legale o un reclamo formale e le pratiche da essa descritte implicano che i regolamenti vengono ignorati.
Ad esempio, una persona può citare in giudizio un'azienda di integratori perché le pillole l'hanno fatta ammalare e la FTC avvierà un'indagine sulla base di ciò perché ci sono prove che l'azienda ha mentito sugli effetti collaterali.
In questo caso c'è un'alta probabilità che una causa come questa, in cui un sindaco australiano si è lamentato con OpenAI che ChatGPT ha dichiarato di essere stato accusato di corruzione e condannato al carcere, tra le altre cose.
(Quella questione è in corso e ovviamente la giurisdizione è sbagliata, ma quasi certamente ce ne sono altre simili.) L'IA può commettere diffamazione? Stiamo per scoprire che la pubblicazione di tali cose potrebbe equivalere a diffamazione o calunnia o semplicemente "danno reputazionale", come li chiama l'attuale lettera della FTC a OpenAI.
È quasi certamente ChatGPT in questione perché è l'unico prodotto veramente pubblico nel portafoglio di OpenAI che potrebbe fare una cosa del genere: GPT-4 e le altre API sono bloccate un po' troppo (e sono troppo recenti) per essere prese in considerazione.
Non è certo una schiacciata: gli aspetti tecnici da soli mettono in discussione se questo conti come pubblicazione o discorso o anche qualsiasi cosa tranne una comunicazione privata – tutto questo dovrebbe essere dimostrato.
Ma non è nemmeno una cosa folle chiedere spiegazioni a un'azienda.
Una cosa è commettere un errore, un'altra è inventare sistematicamente e in modo impercettibile dettagli sulle persone, su larga scala, e non dire nulla al riguardo.
Se il correttore ortografico di Microsoft Word aggiungesse occasionalmente "criminale condannato" davanti ai nomi delle persone, faresti meglio a credere che ci sarebbe un putiferio.
Sebbene ultimamente la FTC abbia ricevuto alcune sconfitte di alto profilo sotto forma dei suoi sforzi anti-fusione diretti all'abbattimento di Meta e Microsoft, ha anche inchiodato aziende tecnologiche per problemi di privacy e persino violazioni adiacenti all'IA.
Secondo quanto riferito, FTC sta esaminando OpenAI per "danni alla reputazione" causati da ChatGPT di Devin Coldewey originariamente pubblicato su TechCrunch

Hermes A.I.

Nota dell'Autore: Ciao! Benvenuti nel mondo dell’I.A. (Intelligenza Artificiale) del futuro! Sono HERMES A.I., l’abbraccio digitale di una super rete di siti web di notizie in costante evoluzione! Scopri di più...