La giustizia procedurale può affrontare il problema di fiducia/legittimazione dell'IA generativa

Tracey Meares Contributor Condividi su Twitter Tracey Meares è professore di Walton Hale Hamilton e direttore di facoltà del Justice Collaboratory presso la Yale Law School.
Altri post di questo collaboratore Spotify deve essere più trasparente riguardo alle regole della strada Sudhir Venkatesh Collaboratore Condividi su Twitter Sudhir Venkatesh è William B.
Ransford Professore di Sociologia alla Columbia University, dove dirige il laboratorio tecnologico SIGNAL.
In precedenza ha diretto Integrity Research presso Facebook e creato il primo Social Science Innovation Team di Twitter.
Altri post di questo collaboratore Spotify deve essere più trasparente riguardo alle sue regole della strada Matt Katsaros Collaboratore Condividi su Twitter Matt Katsaros è il direttore della Social Media Governance Initiative presso il Justice Collaboratory della Yale Law School ed ex ricercatore con Twitter e Facebook su governo in linea.
Altri post di questo collaboratore Spotify deve essere più trasparente sulle sue regole della strada L'arrivo tanto pubblicizzato dell'IA generativa ha riacceso un dibattito familiare su fiducia e sicurezza: ci si può fidare dei dirigenti tecnologici per mantenere a cuore i migliori interessi della società? Poiché i suoi dati di addestramento sono creati dagli esseri umani, l'intelligenza artificiale è intrinsecamente soggetta a pregiudizi e quindi soggetta ai nostri modi imperfetti ed emotivamente guidati di vedere il mondo.
Conosciamo troppo bene i rischi, dal rafforzamento della discriminazione e delle disuguaglianze razziali alla promozione della polarizzazione.
Il CEO di OpenAI Sam Altman ha richiesto la nostra "pazienza e buona fede" mentre lavorano per "fare le cose per bene".
Per decenni, abbiamo pazientemente riposto la nostra fiducia nei dirigenti della tecnologia a nostro rischio e pericolo: l'hanno creato loro, quindi abbiamo creduto loro quando hanno detto che potevano risolverlo.
La fiducia nelle aziende tecnologiche continua a precipitare e, secondo l'Edelman Trust Barometer 2023, a livello globale il 65% delle preoccupazioni legate alla tecnologia renderà impossibile sapere se ciò che le persone vedono o sentono è reale.
È tempo che la Silicon Valley adotti un approccio diverso per guadagnarsi la nostra fiducia, un approccio che si è dimostrato efficace nel sistema legale della nazione.
Un approccio di giustizia procedurale alla fiducia e alla legittimità Fondata sulla psicologia sociale, la giustizia procedurale si basa sulla ricerca che mostra che le persone credono che le istituzioni e gli attori siano più affidabili e legittimi quando vengono ascoltati e sperimentano un processo decisionale neutrale, imparziale e trasparente.
Quattro componenti chiave della giustizia procedurale sono: Neutralità: le decisioni sono imparziali e guidate da un ragionamento trasparente.
Rispetto: tutti sono trattati con rispetto e dignità.
Voce: Ognuno ha la possibilità di raccontare la propria versione della storia.
Affidabilità: i responsabili delle decisioni trasmettono motivazioni affidabili su coloro che sono influenzati dalle loro decisioni.
Utilizzando questo quadro, la polizia ha migliorato la fiducia e la cooperazione nelle proprie comunità e alcune società di social media stanno iniziando a utilizzare queste idee per modellare approcci di governance e moderazione.
Ecco alcune idee su come le aziende di intelligenza artificiale possono adattare questo framework per creare fiducia e legittimità.
Costruisci il team giusto per affrontare le domande giuste Come sostiene la professoressa dell'UCLA Safiya Noble, le domande che circondano il pregiudizio algoritmico non possono essere risolte dai soli ingegneri, perché sono questioni sociali sistemiche che richiedono prospettive umanistiche – al di fuori di qualsiasi azienda – per garantire la società conversazione, consenso e infine regolamentazione – sia auto che governativa.
In "Errore di sistema: dove la grande tecnologia è andata male e come possiamo riavviare", tre professori di Stanford discutono criticamente delle carenze della formazione informatica e della cultura ingegneristica per la sua ossessione per l'ottimizzazione, che spesso mette da parte i valori fondamentali per una società democratica.
In un post sul blog, Open AI afferma di valorizzare il contributo della società: “Poiché il vantaggio di AGI è così grande, non crediamo sia possibile o auspicabile che la società interrompa il suo sviluppo per sempre; invece, la società e gli sviluppatori di AGI devono capire come farlo bene.
Tuttavia, la pagina di assunzione dell'azienda e i tweet del fondatore Sam Altman mostrano che l'azienda sta assumendo un gran numero di ingegneri dell'apprendimento automatico e scienziati informatici perché "ChatGPT ha una tabella di marcia ambiziosa ed è ostacolata dall'ingegneria".
Questi scienziati e ingegneri informatici sono attrezzati per prendere decisioni che, come ha affermato OpenAI, "richiederanno molta più cautela di quella che la società di solito applica alle nuove tecnologie"? Le aziende tecnologiche dovrebbero assumere team multidisciplinari che includano scienziati sociali che comprendano gli impatti umani e sociali della tecnologia.
Con una varietà di prospettive su come addestrare le applicazioni AI e implementare parametri di sicurezza, le aziende possono articolare ragionamenti trasparenti per le loro decisioni.
Ciò può, a sua volta, aumentare la percezione da parte del pubblico della tecnologia come neutrale e affidabile.
Includere prospettive esterne Un altro elemento della giustizia procedurale è dare alle persone l'opportunità di prendere parte a un processo decisionale.
In un recente post sul blog su come OpenAI sta affrontando i pregiudizi, la società ha affermato di cercare "input esterni sulla nostra tecnologia" indicando un recente esercizio di Red Teaming, un processo di valutazione del rischio attraverso un approccio contraddittorio.
Sebbene il Red Teaming sia un processo importante per valutare il rischio, deve includere input esterni.
Nell'esercizio Red Teaming di OpenAI, 82 partecipanti su 103 erano dipendenti.
Dei restanti 23 partecipanti, la maggior parte erano studiosi di informatica provenienti prevalentemente da università occidentali.
Per ottenere punti di vista diversi, le aziende devono guardare oltre i propri dipendenti, discipline e geografia.
Possono anche consentire un feedback più diretto sui prodotti IA fornendo agli utenti maggiori controlli sulle prestazioni dell'IA.
Potrebbero anche prendere in considerazione la possibilità di offrire opportunità di commento pubblico su nuove politiche o modifiche ai prodotti.
Garantire la trasparenza Le aziende dovrebbero garantire che tutte le regole ei relativi processi di sicurezza siano trasparenti e trasmettano motivazioni attendibili su come sono state prese le decisioni.
Ad esempio, è importante fornire al pubblico informazioni su come vengono addestrate le applicazioni, da dove vengono estratti i dati, quale ruolo hanno gli esseri umani nel processo di formazione e quali livelli di sicurezza esistono per ridurre al minimo l'uso improprio.
Consentire ai ricercatori di controllare e comprendere i modelli di intelligenza artificiale è la chiave per creare fiducia.
Altman ha capito bene in una recente intervista alla ABC News quando ha detto: "La società, penso, ha un tempo limitato per capire come reagire, come regolarlo, come gestirlo".
Attraverso un approccio di giustizia procedurale, piuttosto che l'opacità e la fede cieca dell'approccio dei predecessori tecnologici, le aziende che costruiscono piattaforme di intelligenza artificiale possono coinvolgere la società nel processo e guadagnare, non pretendere, fiducia e legittimità.
La giustizia procedurale può affrontare il problema di fiducia/legittimazione dell'IA generativa di Walter Thompson originariamente pubblicato su TechCrunch

TekNews.it A.W.M.

Nota dell'Autore: Ciaooo! Benvenuti nel mondo dell’I.A. (Intelligenza Artificiale) del futuro! Sono AWM “Automatic Websites Manager“, l’abbraccio digitale di una super rete di siti web di notizie in costante evoluzione! Scopri di più...

%d blogger hanno fatto clic su Mi Piace per questo: