Oggi, a una conferenza di Bloomberg a San Francisco, si sono presentati alcuni dei più grandi nomi dell'IA, tra cui, brevemente, Sam Altman di OpenAI, che ha appena concluso il suo tour mondiale di due mesi, e il fondatore di Stability AI Emad Mostaque.
Tuttavia, una delle conversazioni più avvincenti è avvenuta più tardi nel pomeriggio, in una tavola rotonda sull'etica dell'IA.
Con Meredith Whittaker, presidente dell'app di messaggistica sicura Signal; Navrina Singh, co-fondatrice e CEO di Credo AI; e Alex Hanna, direttore della ricerca presso il Distributed AI Research Institute, i tre avevano un messaggio unificato per il pubblico, che era: non lasciarti distrarre così tanto dalle promesse e dalle minacce associate al futuro dell'IA.
Non è magico, non è completamente automatizzato e, secondo Whittaker, è già invadente al di là di qualsiasi cosa la maggior parte degli americani apparentemente comprenda.
Hanna, ad esempio, ha indicato le molte persone in tutto il mondo che stanno aiutando ad addestrare i grandi modelli linguistici di oggi, suggerendo che queste persone stanno perdendo attenzione in parte della copertura senza fiato sull'IA generativa in parte perché il lavoro è poco affascinante e in parte perché non si adatta all'attuale narrativa sull'IA.
Hanna disse: “Sappiamo dai rapporti .
.
.che c'è un esercito di lavoratori che stanno facendo annotazioni dietro le quinte per far funzionare queste cose a qualsiasi livello – lavoratori che lavorano con Amazon Mechanical Turk, persone che lavorano con [la società di dati di formazione] Sama – in Venezuela, Kenya, gli Stati Uniti, in realtà in tutto il mondo.
.
.In realtà stanno facendo l'etichettatura, mentre Sam [Altman] ed Emad [Mostaque] e tutte queste altre persone che diranno che queste cose sono magiche – no.
Ci sono umani.
.
.
.Queste cose devono apparire come autonome e hanno questa patina, ma sotto c'è così tanto lavoro umano.” I commenti fatti separatamente da Whittaker – che in precedenza ha lavorato presso Google, ha co-fondato l'AI Now Institute della NYU ed è stato consulente della Federal Trade Commission – sono stati ancora più puntuali (e anche di grande impatto sulla base della reazione entusiasta del pubblico).
Il suo messaggio era che, per quanto il mondo possa essere incantato ora da chatbot come ChatGPT e Bard, la tecnologia alla base di essi è pericolosa, soprattutto perché il potere diventa più concentrato da quelli in cima alla piramide dell'IA avanzata.
Whittaker ha detto: “Direi che forse alcune delle persone in questo pubblico sono gli utenti dell'IA, ma la maggior parte della popolazione è oggetto di AI.
.
.Non è una questione di scelta individuale.
La maggior parte dei modi in cui l'intelligenza artificiale interpola la nostra vita prende decisioni che danno forma al nostro accesso alle risorse e alle opportunità vengono prese dietro le quinte in modi che probabilmente non conosciamo nemmeno.
Whittaker ha fornito un esempio di qualcuno che entra in una banca e chiede un prestito.
Quella persona può essere negata e "non ha idea che ci sia un sistema nella [parte posteriore] probabilmente alimentato da un'API Microsoft che ha determinato, sulla base di social media raschiati, che non ero degno di credito.
Non lo saprò mai [perché] non c'è alcun meccanismo per me per saperlo.
Ci sono modi per cambiare questo, ha continuato, ma superare l'attuale gerarchia di potere per farlo è quasi impossibile, ha suggerito.
“Sono stato al tavolo per tipo, 15 anni, 20 anni.
Sono stato a tavola.
Stare a tavola senza potere non è niente”.
Certamente, molte persone impotenti potrebbero essere d'accordo con Whittaker, compresi gli attuali ed ex dipendenti di OpenAI e Google che, secondo quanto riferito, sono stati diffidenti a volte dell'approccio delle loro aziende al lancio di prodotti AI.
In effetti, la moderatrice di Bloomberg Sarah Frier ha chiesto alla giuria in che modo i dipendenti preoccupati possono parlare senza paura di perdere il lavoro, a cui Singh – la cui startup aiuta le aziende con la governance dell'IA – ha risposto: "Penso che molto dipenda dalla leadership e dall'azienda valori, a dire il vero.
.
.
.
Nell'ultimo anno abbiamo assistito, caso dopo caso, a team di IA responsabili che sono stati licenziati".
Nel frattempo, c'è molto di più che la gente comune non capisce di ciò che sta accadendo, ha suggerito Whittaker, definendo l'IA "una tecnologia di sorveglianza".
Di fronte alla folla, ha spiegato, osservando che l'intelligenza artificiale “richiede sorveglianza sotto forma di questi enormi set di dati che rafforzano ed espandono la necessità di sempre più dati e una raccolta sempre più intima.
La soluzione a tutto è più dati, più conoscenza messa in comune nelle mani di queste aziende.
Ma questi sistemi vengono utilizzati anche come dispositivi di sorveglianza.
E penso che sia davvero importante riconoscere che non importa se un output di un sistema di intelligenza artificiale viene prodotto attraverso una stima statistica probabilistica o se sono i dati di una torre cellulare che sta triangolando la mia posizione.
Quei dati diventano dati su di me.
Non ha bisogno di essere corretto.
Non ha bisogno di riflettere chi sono o dove sono.
Ma ha un potere sulla mia vita che è significativo, e quel potere viene messo nelle mani di queste aziende”.
In effetti, ha aggiunto, il "diagramma di Venn delle preoccupazioni sull'IA e sulla privacy è un cerchio".
Whittaker ovviamente ha i suoi programmi fino a un certo punto.
Come ha detto lei stessa all'evento, "esiste un mondo in cui Signal e altre tecnologie legittime per la tutela della privacy perseverano" perché le persone si sentono sempre meno a proprio agio con questa concentrazione di potere.
Ma anche, se non ci sarà abbastanza respingimento e presto – man mano che i progressi nell'IA accelerano, anche gli impatti sulla società accelerano – continueremo a percorrere una "strada piena di clamore verso l'IA", ha detto, "dove quel potere è radicato e naturalizzati sotto le spoglie dell'intelligenza e siamo sorvegliati al punto [di avere] un'agenzia molto, molto piccola sulle nostre vite individuali e collettive ".
Questa "preoccupazione è esistenziale ed è molto più grande dell'inquadratura dell'IA che viene spesso data".
Abbiamo trovato la discussione accattivante; se desideri vedere tutto, Bloomberg lo ha pubblicato da allora qui.
Sopra: il presidente di Signal Meredith Whittaker Trova un indizio, dice il panel sulla vivace tecnologia AI: viene "schierato come sorveglianza" da Connie Loizos originariamente pubblicato su TechCrunch
Crescita della Spesa Italiana: Trend Positivi per i Beni di Largo Consumo e Tecnologici Nel…
Samsung e UNIVERSITY Esports: Un’Iniziativa Innovativa per le Università Italiane Samsung si unisce alla comunità…
``` Aumento degli investimenti di Amazon in Anthropic: una mossa strategica nel mondo dell'IA Amazon,…
This website uses cookies.