I leader dell'IA avvertono il Senato dei rischi gemelli: muoversi troppo lentamente e muoversi troppo velocemente
I leader del mondo della ricerca sull'IA sono comparsi davanti alla commissione giudiziaria del Senato per discutere e rispondere alle domande sulla nascente tecnologia.
Le loro opinioni ampiamente unanimi generalmente rientravano in due categorie: dobbiamo agire presto, ma con un tocco leggero, rischiando l'abuso dell'IA se non andiamo avanti, o un'industria ostacolata se ci affrettiamo.
Il gruppo di esperti all'udienza di oggi comprendeva il co-fondatore di Anthropic Dario Amodei, Stuart Russell di UC Berkeley e Yoshua Bengio, ricercatore di lunga data sull'IA.
L'udienza di due ore è stata in gran parte priva dell'acrimonia e della superbia che si vedono più spesso nelle udienze della Camera, anche se non del tutto.
Puoi guardare tutto qui, ma di seguito ho riassunto i punti principali di ciascun relatore.
Dario Amodei Cosa possiamo fare adesso? (Ad ogni esperto è stato chiesto prima quali fossero, secondo loro, i passaggi più importanti a breve termine.) 1.
Mettere in sicurezza la catena di approvvigionamento.
Esistono colli di bottiglia e vulnerabilità nell'hardware su cui facciamo affidamento per la ricerca e la fornitura di intelligenza artificiale, e alcuni sono a rischio a causa di fattori geopolitici (ad esempio TSMC a Taiwan) e problemi di proprietà intellettuale o di sicurezza.
2.
Creare un processo di verifica e verifica come quello che abbiamo per i veicoli e l'elettronica.
E sviluppare una "rigorosa batteria di test di sicurezza".
Ha notato, tuttavia, che la scienza per stabilire queste cose è "nella sua infanzia".
Rischi e pericoli devono essere definiti al fine di sviluppare standard, e tali standard necessitano di una forte applicazione.
Ha paragonato l'attuale industria dell'intelligenza artificiale agli aeroplani pochi anni dopo il volo dei fratelli Wright.
C'è un'ovvia necessità di regolamentazione, ma deve essere un regolatore vivente e adattivo in grado di rispondere ai nuovi sviluppi.
Tra i rischi immediati, ha evidenziato la disinformazione, i deepfake e la propaganda durante una stagione elettorale come i più preoccupanti.
Amodei è riuscito a non abboccare all'esca del senatore Josh Hawley (R-MO) sull'investimento di Google in Anthropic e su come l'aggiunta dei modelli di Anthropic all'attività di attenzione di Google potrebbe essere disastrosa.
Amodei ha esitato, forse lasciando che il fatto ovvio che Google stia sviluppando i propri modelli di questo tipo parli da solo.
Age of AI: tutto quello che c'è da sapere sull'intelligenza artificiale Yoshua Bengio Cosa possiamo fare adesso? 1.
Limitare chi ha accesso a modelli di IA su larga scala e creare incentivi per la sicurezza.
2.
Allineamento: assicurarsi che i modelli agiscano come previsto.
3.
Tieni traccia della potenza grezza e di chi ha accesso alla scala di hardware necessaria per produrre questi modelli.
Bengio ha ripetutamente sottolineato la necessità di finanziare la ricerca sulla sicurezza dell'IA su scala globale.
Non sappiamo davvero cosa stiamo facendo, ha detto, e per eseguire cose come audit indipendenti delle capacità e dell'allineamento dell'IA, abbiamo bisogno non solo di più conoscenza, ma anche di un'ampia cooperazione (piuttosto che competizione) tra le nazioni.
Ha suggerito che gli account dei social media dovrebbero essere "limitati a esseri umani reali che si sono identificati, idealmente di persona".
Questo è con ogni probabilità un fallimento totale, per ragioni che abbiamo osservato per molti anni.
Sebbene in questo momento ci si concentri su organizzazioni più grandi e dotate di risorse adeguate, ha sottolineato che i modelli di grandi dimensioni pre-addestrati possono essere facilmente messi a punto.
I malintenzionati non hanno bisogno di un enorme data center o di molta esperienza per causare danni reali.
Nelle sue osservazioni conclusive, ha affermato che gli Stati Uniti e altri paesi devono concentrarsi sulla creazione di un'unica entità di regolamentazione ciascuno al fine di coordinarsi meglio ed evitare rallentamenti burocratici.
Le migliori aziende di intelligenza artificiale visitano la Casa Bianca per assumere impegni "volontari" sulla sicurezza Stuart Russell Cosa possiamo fare ora? 1.
Creare un diritto assoluto di sapere se si sta interagendo con una persona o con una macchina.
2.
Algoritmi fuorilegge che possono decidere di uccidere esseri umani, su qualsiasi scala.
3.
Obbligare un kill switch se i sistemi di intelligenza artificiale irrompono in altri computer o si replicano.
4.
Richiedere che i sistemi che infrangono le regole vengano ritirati dal mercato, come un richiamo involontario.
La sua idea del rischio più urgente sono le "campagne di impatto esterno" che utilizzano l'intelligenza artificiale personalizzata.
Come ha detto: possiamo presentare al sistema una grande quantità di informazioni su un individuo, tutto ciò che ha scritto o pubblicato su Twitter o Facebook…
addestrare il sistema e chiedergli di generare una campagna di disinformazione in particolare per quella persona.
E possiamo farlo per un milione di persone prima di pranzo.
Ciò ha un effetto molto maggiore rispetto allo spamming e alla trasmissione di informazioni false che non sono personalizzate per l'individuo.
Russell e gli altri hanno convenuto che mentre ci sono molte attività interessanti sull'etichettatura, la filigrana e il rilevamento dell'IA, questi sforzi sono frammentati e rudimentali.
In altre parole, non aspettarti molto – e certamente non in tempo per le elezioni, di cui il Comitato stava chiedendo.
Ha sottolineato che la quantità di denaro destinata alle startup di intelligenza artificiale è dell'ordine di 10 miliardi al mese, sebbene non abbia citato la sua fonte su questo numero.
Il professor Russell è ben informato, ma sembra avere un debole per i numeri strabilianti, come il "valore in contanti di almeno 14 quadrilioni di dollari" di AI.
In ogni caso, anche pochi miliardi al mese lo metterebbero ben al di là di quanto gli Stati Uniti spendono in una dozzina di campi della ricerca di base attraverso la National Science Foundations, per non parlare della sicurezza dell'IA.
Apri i cordoni della borsa, disse quasi.
Alla domanda sulla Cina, ha osservato che l'esperienza del paese in generale nell'IA è stata "leggermente sopravvalutata" e che "hanno un settore accademico piuttosto buono che stanno rovinando".
I loro LLM imitatori non rappresentano una minaccia per artisti del calibro di OpenAI e Anthropic, ma la Cina è prevedibilmente molto avanti in termini di sorveglianza, come l'identificazione della voce e dell'andatura.
Nelle loro osservazioni conclusive su quali passi dovrebbero essere presi per primi, tutti e tre hanno indicato, essenzialmente, di investire nella ricerca di base in modo che i necessari schemi di test, audit e applicazione proposti siano basati su una scienza rigorosa e non su idee obsolete o suggerite dall'industria.
Il senatore Blumenthal (D-CT) ha risposto che questa udienza aveva lo scopo di aiutare a informare la creazione di un organo governativo che può muoversi rapidamente, "perché non abbiamo tempo da perdere".
"Non so chi sia il Prometeo sull'intelligenza artificiale", ha detto, "ma so che abbiamo molto lavoro da fare affinché il fuoco qui sia utilizzato in modo produttivo".
E presumibilmente anche per assicurarsi che Prometeo non finisca sul fianco di una montagna con i federali che gli pizzicano il fegato.
Secondo quanto riferito, FTC sta esaminando OpenAI per "danni alla reputazione" causati da ChatGPT