Gary Marcus è felice di aiutare a regolamentare l'IA per il governo degli Stati Uniti
Martedì di questa settimana, il neuroscienziato, fondatore e autore Gary Marcus si è seduto tra il CEO di OpenAI Sam Altman e Christina Montgomery, che è la chief privacy trust officer di IBM, come tutti e tre hanno testimoniato davanti al Comitato giudiziario del Senato per oltre tre ore.
I senatori erano in gran parte concentrati su Altman perché al momento gestisce una delle aziende più potenti del pianeta e perché Altman ha ripetutamente chiesto loro di aiutarlo a regolamentare il suo lavoro.
(La maggior parte degli amministratori delegati chiede al Congresso di lasciare in pace il proprio settore.) Sebbene Marcus sia noto negli ambienti accademici da tempo, la sua stella è in aumento ultimamente grazie alla sua newsletter ("The Road to AI We Can Trust"), un podcast ("Umani contro macchine"), e il suo relativo disagio per l'ascesa incontrollata dell'IA.
Oltre all'udienza di questa settimana, ad esempio, questo mese è apparso sulla televisione di Bloomberg ed è apparso, tra gli altri, sul New York Times Sunday Magazine e su Wired.
Poiché l'udienza di questa settimana è sembrata davvero storica per certi versi – il senatore Josh Hawley ha definito l'intelligenza artificiale "una delle innovazioni più tecnologiche nella storia umana", mentre il senatore John Kennedy è rimasto così affascinato da Altman che ha chiesto ad Altman di scegliere i propri regolatori – volevamo parla anche con Marcus per discutere dell'esperienza e vedere cosa sa su cosa succederà dopo.
Sei ancora a Washington? Sono ancora a Washington.
Sto incontrando i legislatori e il loro staff e varie altre persone interessanti e cerco di vedere se possiamo trasformare in realtà il tipo di cose di cui ho parlato.
Hai insegnato alla New York University.
Hai co-fondato un paio di società di intelligenza artificiale, inclusa una con il famoso robotico Rodney Brooks.
Ho intervistato Brooks sul palco nel 2017 e ha detto che allora non pensava che Elon Musk capisse davvero l'IA e che pensava che Musk avesse torto sul fatto che l'IA fosse una minaccia esistenziale.
Penso che io e Rod condividiamo lo scetticismo sul fatto che l'IA attuale sia qualcosa di simile all'intelligenza generale artificiale.
Ci sono diversi problemi che devi smontare.
Uno è: siamo vicini all'AGI e l'altro è quanto è pericolosa l'attuale IA che abbiamo? Non penso che l'attuale intelligenza artificiale che abbiamo sia una minaccia esistenziale, ma che sia pericolosa.
In molti modi, penso che sia una minaccia per la democrazia.
Non è una minaccia per l'umanità.
Non annienterà tutti gli umani.
Ma è un rischio piuttosto serio.
Non molto tempo fa, stavi discutendo di Yann LeCun, il capo scienziato AI di Meta.
Non sono sicuro di cosa riguardasse quel lembo: il vero significato delle reti neurali di deep learning? Quindi LeCun e io abbiamo discusso molte cose per molti anni.
Abbiamo avuto un dibattito pubblico che David Chalmers, il filosofo, ha moderato nel 2017.
Da allora ho cercato di convincere [LeCun] a tenere un altro vero dibattito e lui non lo farà.
Preferisce sottomettermi su Twitter e cose del genere, che non penso sia il modo più adulto di avere conversazioni, ma poiché è una figura importante, rispondo.
Una cosa su cui penso che non siamo d'accordo [attualmente] è che LeCun pensa che sia giusto usare questi [modelli di linguaggio di grandi dimensioni] e che non ci sia alcun danno possibile qui.
Penso che si sbagli di grosso su questo.
Esistono potenziali minacce alla democrazia, che vanno dalla disinformazione prodotta deliberatamente da malintenzionati, dalla disinformazione accidentale – come il professore di legge che è stato accusato di molestie sessuali anche se non l'ha commessa – [alla capacità di] plasmare sottilmente le persone convinzioni politiche basate su dati di formazione di cui il pubblico non sa nemmeno nulla.
È come i social media, ma ancora più insidioso.
Puoi anche usare questi strumenti per manipolare altre persone e probabilmente ingannarle in tutto ciò che vuoi.
Puoi ridimensionarli in modo massiccio.
Ci sono sicuramente dei rischi qui.
Martedì hai detto qualcosa di interessante su Sam Altman, dicendo ai senatori che non aveva detto loro qual è la sua peggiore paura, che hai chiamato "germane", e reindirizzandoli a lui.
Quello che ancora non ha detto è qualcosa che abbia a che fare con le armi autonome, di cui ho parlato con lui alcuni anni fa come una delle principali preoccupazioni.
Ho pensato che fosse interessante che le armi non fossero arrivate.
Abbiamo coperto un sacco di terreno, ma ci sono molte cose che non siamo riusciti a fare, inclusa l'applicazione, che è davvero importante, e la sicurezza nazionale e le armi autonome e cose del genere.
Ce ne saranno molti altri di [questi].
Si è parlato di open source contro sistemi chiusi? Difficilmente è venuto fuori.
Ovviamente è una domanda davvero complicata e interessante.
Non è davvero chiaro quale sia la risposta giusta.
Vuoi che le persone facciano scienza indipendente.
Forse vuoi avere una sorta di licenza per cose che verranno implementate su larga scala, ma comportano rischi particolari, inclusi rischi per la sicurezza.
Non è chiaro se vogliamo che ogni cattivo attore abbia accesso a strumenti arbitrariamente potenti.
Quindi ci sono argomenti a favore e ci sono argomenti contro, e probabilmente la risposta giusta includerà consentire un discreto grado di open source ma anche avere alcune limitazioni su cosa può essere fatto e come può essere distribuito.
Qualche pensiero specifico sulla strategia di Meta di far uscire il suo modello linguistico nel mondo affinché le persone possano armeggiare? Ad essere onesti, non penso sia fantastico che [la tecnologia AI di Meta] LLaMA sia là fuori.
Penso che sia stato un po' negligente.
E, sai, quello è letteralmente uno dei geni che è uscito dalla bottiglia.
Non esisteva alcuna infrastruttura legale; non hanno consultato nessuno su quello che stavano facendo, per quanto non ne so.
Forse l'hanno fatto, ma il processo decisionale con quello o, diciamo, Bing, è fondamentalmente solo: un'azienda decide che lo faremo.
Ma alcune delle cose che le aziende decidono potrebbero portare danni, sia nel prossimo futuro che a lungo termine.
Quindi penso che i governi e gli scienziati dovrebbero avere sempre più un ruolo nel decidere cosa succede là fuori [attraverso una sorta di] FDA per l'IA dove, se vuoi fare una distribuzione diffusa, prima fai una prova.
Parli dei vantaggi in termini di costi.
Fai un'altra prova.
E alla fine, se siamo sicuri che i benefici superino i rischi, [fai il] rilascio su larga scala.
Ma in questo momento, qualsiasi azienda in qualsiasi momento può decidere di distribuire qualcosa a 100 milioni di clienti e farlo senza alcun tipo di supervisione governativa o scientifica.
Devi avere un sistema in cui possano entrare alcune autorità imparziali.
Da dove verrebbero queste autorità imparziali? Tutti quelli che sanno qualcosa su come funzionano queste cose non lavorano già per un'azienda? Non sono.
[L'informatico canadese] Yoshua Bengio no.
Ci sono molti scienziati che non lavorano per queste aziende.
È una vera preoccupazione, come ottenere abbastanza di quegli auditor e come dare loro un incentivo a farlo.
Ma ci sono 100.000 informatici con qualche aspetto di competenza qui.
Non tutti lavorano a contratto per Google o Microsoft.
Vorresti avere un ruolo in questa agenzia di intelligenza artificiale? Sono interessato, sento che qualunque cosa costruiamo dovrebbe essere globale e neutrale, presumibilmente senza scopo di lucro, e penso di avere una buona voce neutrale qui che vorrei condividere e cercare di portarci in un buon posto.
Come ci si sente a sedere davanti alla Commissione Giustizia del Senato? E pensi che verrai invitato di nuovo? Non sarei scioccato se fossi invitato di nuovo, ma non ne ho idea.
Ne sono stato davvero profondamente commosso e sono stato davvero profondamente commosso di essere in quella stanza.
È un po' più piccolo che in televisione, suppongo.
Ma sembrava che tutti fossero lì per cercare di fare il meglio che potevano per gli Stati Uniti, per l'umanità.
Tutti conoscevano il peso del momento e, a detta di tutti, i senatori hanno portato il loro miglior gioco.
Sapevamo di essere lì per un motivo e abbiamo fatto del nostro meglio.
Gary Marcus è felice di aiutare a regolamentare l'IA per il governo degli Stati Uniti di Connie Loizos originariamente pubblicato su TechCrunch