Non dobbiamo reinventare la ruota per regolamentare l’intelligenza artificiale in modo responsabile
Daniel Marcous Collaboratore Condividi su Twitter Daniel Marcous è il co-fondatore e CTO di April, una piattaforma fiscale basata sull'intelligenza artificiale.
Daniel è stato in precedenza il CTO della piattaforma di navigazione basata sull'intelligenza artificiale Waze, acquisita da Google nel 2013.
Stiamo vivendo una delle rivoluzioni tecnologiche più trasformative del secolo scorso.
Per la prima volta dal boom tecnologico degli anni 2000 (o anche dalla rivoluzione industriale), le nostre funzioni sociali essenziali vengono interrotte da strumenti ritenuti innovativi da alcuni e inquietanti per altri.
Anche se i benefici percepiti continueranno a polarizzare l’opinione pubblica, si discute poco sull’impatto diffuso dell’intelligenza artificiale sul futuro del lavoro e della comunicazione.
Gli investitori istituzionali tendono ad essere d’accordo.
Solo negli ultimi tre anni, secondo PitchBook, gli investimenti di venture capital nell’intelligenza artificiale generativa sono aumentati del 425%, raggiungendo i 4,5 miliardi di dollari nel 2022.
Questa recente mania dei finanziamenti è principalmente guidata dalla diffusa convergenza tecnologica tra diversi settori.
Colossi della consulenza come KPMG e Accenture stanno investendo miliardi nell’intelligenza artificiale generativa per rafforzare i loro servizi ai clienti.
Le compagnie aeree stanno utilizzando nuovi modelli di intelligenza artificiale per ottimizzare le loro offerte di rotte.
Anche le aziende biotecnologiche ora utilizzano l’intelligenza artificiale generativa per migliorare le terapie anticorpali per malattie potenzialmente letali.
Naturalmente, questa tecnologia dirompente è entrata nel radar della regolamentazione, e velocemente.
Figure come Lina Khan della Federal Trade Commission hanno sostenuto che l’intelligenza artificiale pone seri rischi sociali in tutti i settori verticali, citando una maggiore incidenza di frodi, discriminazione automatizzata e inflazione collusiva dei prezzi se lasciata senza controllo.
Forse l’esempio più ampiamente discusso dell’attenzione normativa rivolta all’IA è la recente testimonianza di Sam Altman davanti al Congresso, in cui ha sostenuto che “l’intervento normativo da parte dei governi sarà fondamentale per mitigare i rischi di modelli sempre più potenti”.
In qualità di CEO di una delle più grandi startup di intelligenza artificiale del mondo, Altman si è rapidamente impegnato con i legislatori per garantire che la questione della regolamentazione si evolva in una discussione tra il settore pubblico e quello privato.
Da allora si è unito ad altri leader del settore nello scrivere una lettera aperta congiunta sostenendo che “[m]imitare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”.
Naturalmente, questa tecnologia dirompente è entrata nel radar della regolamentazione, e velocemente.
Tecnologi come Altman e regolatori come Khan concordano sul fatto che la regolamentazione è fondamentale per garantire applicazioni tecnologiche più sicure, ma nessuna delle due parti tende a stabilire la portata.
In generale, i fondatori e gli imprenditori cercano restrizioni limitate per fornire un ambiente economico favorevole all’innovazione, mentre i funzionari governativi si sforzano di imporre limiti più diffusi per proteggere i consumatori.
Tuttavia, entrambe le parti non riescono a rendersi conto che in alcuni settori la regolamentazione procede senza intoppi da anni.
L'avvento di Internet, dei motori di ricerca e dei social media ha inaugurato un'ondata di controlli da parte del governo come il Telecommunications Act, il Children's Online Privacy Protection Act (COPPA) e il California Consumer Privacy Act (CCPA).
Piuttosto che istituire un quadro generale e ampio di politiche restrittive che probabilmente ostacolano l’innovazione tecnologica, gli Stati Uniti mantengono un mosaico di politiche che incorporano leggi fondamentali di lunga data come la proprietà intellettuale, la privacy, i contratti, le molestie, la criminalità informatica, la protezione dei dati e la sicurezza informatica.
.
Questi quadri spesso traggono ispirazione da standard tecnologici consolidati e ben accettati e ne promuovono l’adozione e l’utilizzo nei servizi e nelle tecnologie nascenti.
Garantiscono inoltre l'esistenza di organizzazioni fidate che applicano questi standard a livello operativo.
Prendiamo ad esempio i protocolli Secure Sockets Layer (SSL)/Transport Layer Security (TLS).
Fondamentalmente, SSL/TLS sono protocolli di crittografia che garantiscono che i dati trasferiti tra browser e server rimangano sicuri (consentendo la conformità con i mandati di crittografia nel CCPA, il regolamento generale sulla protezione dei dati dell'UE, ecc.).
Ciò vale per le informazioni sui clienti, i dettagli delle carte di credito e tutte le forme di dati personali che gli autori malintenzionati possono sfruttare.
I certificati SSL vengono emessi dalle autorità di certificazione (CA), che fungono da validatori per dimostrare che le informazioni trasferite sono autentiche e sicure.
La stessa relazione simbiotica può e dovrebbe esistere per l’intelligenza artificiale.
Seguire standard di licenza aggressivi da parte di enti governativi porterà il settore a una battuta d’arresto e andrà a beneficio solo dei player più utilizzati come OpenAI, Google e Meta, creando un ambiente anticoncorrenziale.
Uno standard di certificazione simile a SSL leggero e facile da usare, regolato da autorità di certificazione indipendenti, tutelerebbe gli interessi dei consumatori lasciando comunque spazio all’innovazione.
Questi potrebbero essere realizzati per mantenere trasparente l’utilizzo dell’intelligenza artificiale per i consumatori e chiarire se un modello viene utilizzato, quale modello fondamentale è in gioco e se ha avuto origine da una fonte attendibile.
In un simile scenario, il governo ha ancora un ruolo da svolgere co-creando e promuovendo tali protocolli per renderli standard ampiamente utilizzati e accettati.
A livello fondamentale, la regolamentazione è in atto per proteggere i fondamenti fondamentali come la privacy dei consumatori, la sicurezza dei dati e la proprietà intellettuale, non per frenare la tecnologia con cui gli utenti scelgono di interagire quotidianamente.
Questi fondamentali sono già protetti su Internet e possono essere protetti con l’intelligenza artificiale utilizzando strutture simili.
Dall’avvento di Internet, la regolamentazione è riuscita a mantenere una via di mezzo tra la protezione dei consumatori e l’incentivazione dell’innovazione, e gli attori governativi non dovrebbero adottare un approccio diverso semplicemente a causa del rapido sviluppo tecnologico.
La regolamentazione dell’IA non dovrebbe significare reinventare la ruota, indipendentemente dal discorso politico polarizzato.