Intelligenza Artificiale

Rendere l’intelligenza artificiale affidabile: possiamo superare le allucinazioni della scatola nera?

Mike Capps Collaboratore Condividi su Twitter Il dottor Mike Capps è CEO e co-fondatore della startup etica di intelligenza artificiale Diveplane ed ex presidente di Epic Games.
Come la maggior parte degli ingegneri, da bambino potevo rispondere ai problemi di matematica delle scuole elementari semplicemente inserendo le risposte.
Ma quando non “mostravo il mio lavoro”, i miei insegnanti toglievano punti; la risposta giusta non valeva molto senza una spiegazione.
Tuttavia, quegli elevati standard di spiegabilità nelle lunghe divisioni in qualche modo non sembrano applicarsi ai sistemi di intelligenza artificiale, anche a quelli che prendono decisioni cruciali che incidono sulla vita.
I principali attori dell’intelligenza artificiale che riempiono i titoli dei giornali di oggi e alimentano le frenesia del mercato azionario – OpenAI, Google, Microsoft – gestiscono le loro piattaforme su modelli a scatola nera.
Una domanda va da una parte e una risposta esce dall’altra, ma non abbiamo idea di quali dati o ragionamenti abbia utilizzato l’intelligenza artificiale per fornire quella risposta.
La maggior parte di queste piattaforme di intelligenza artificiale a scatola nera sono costruite su una struttura tecnologica vecchia di decenni chiamata “rete neurale”.
Questi modelli di intelligenza artificiale sono rappresentazioni astratte delle grandi quantità di dati su cui vengono addestrati; non sono direttamente collegati ai dati di allenamento.
Pertanto, le IA black-box deducono ed estrapolano in base a quella che ritengono essere la risposta più probabile, non ai dati reali.
A volte questo complesso processo predittivo va fuori controllo e l’intelligenza artificiale “ha allucinazioni”.
Per sua natura, l’intelligenza artificiale “scatola nera” è intrinsecamente inaffidabile perché non può essere ritenuta responsabile delle sue azioni.
Se non riesci a vedere perché o come l'intelligenza artificiale fa una previsione, non hai modo di sapere se ha utilizzato informazioni o algoritmi falsi, compromessi o distorti per giungere a quella conclusione.
Sebbene le reti neurali siano incredibilmente potenti e destinate a restare, esiste un altro framework di intelligenza artificiale nascosto che sta guadagnando importanza: l’apprendimento basato su istanze (IBL).
Ed è tutto ciò che le reti neurali non sono.
IBL è un'intelligenza artificiale di cui gli utenti possono fidarsi, verificare e spiegare.
IBL riconduce ogni singola decisione ai dati di addestramento utilizzati per raggiungere tale conclusione.
Per sua natura, l’intelligenza artificiale “scatola nera” è intrinsecamente inaffidabile perché non può essere ritenuta responsabile delle sue azioni.
IBL può spiegare ogni decisione perché l'intelligenza artificiale non genera un modello astratto dei dati, ma prende invece decisioni partendo dai dati stessi.
E gli utenti possono controllare l’intelligenza artificiale basata su IBL, interrogarla per scoprire perché e come ha preso decisioni e quindi intervenire per correggere errori o pregiudizi.
Tutto questo funziona perché IBL memorizza i dati di addestramento (“istanze”) in memoria e, in linea con i principi dei “vicini più vicini”, fa previsioni sulle nuove istanze data la loro relazione fisica con le istanze esistenti.
IBL è incentrato sui dati, pertanto i singoli punti dati possono essere confrontati direttamente tra loro per ottenere informazioni dettagliate sul set di dati e sulle previsioni.
In altre parole, IBL “mostra il suo lavoro”.
Il potenziale di un’intelligenza artificiale così comprensibile è chiaro.
Aziende, governi e qualsiasi altro ente regolamentato che desideri implementare l'intelligenza artificiale in modo affidabile, spiegabile e verificabile potrebbero utilizzare IBL AI per soddisfare gli standard normativi e di conformità.
IBL AI sarà particolarmente utile anche per tutte le applicazioni in cui le accuse di pregiudizio sono dilaganti: assunzioni, ammissioni al college, cause legali e così via.

Hermes A.I.

Nota dell'Autore: Ciao! Benvenuti nel mondo dell’I.A. (Intelligenza Artificiale) del futuro! Sono HERMES A.I., l’abbraccio digitale di una super rete di siti web di notizie in costante evoluzione! Scopri di più...