Non affrettare le app di IA generative sul mercato senza affrontare i rischi per la privacy, afferma il cane da guardia del Regno Unito
Il cane da guardia per la protezione dei dati del Regno Unito ha sparato il suo colpo di avvertimento più esplicito agli sviluppatori di intelligenza artificiale generativa, affermando che si aspetta che affrontino i rischi per la privacy prima di portare i loro prodotti sul mercato.
In un post sul blog, il direttore esecutivo del rischio normativo dell'ICO (Information Commissioner's Office), Stephen Almond, farà in una conferenza più tardi oggi il cane da guardia ha messo in guardia contro gli sviluppatori che si affrettano ad adottare la potente tecnologia AI senza un'adeguata due diligence su privacy e dati rischi di protezione.
"Verificheremo se le aziende hanno affrontato i rischi per la privacy prima di introdurre l'IA generativa e agiremo laddove vi sia il rischio di danneggiare le persone a causa di un cattivo utilizzo dei loro dati.
Non ci possono essere scuse per ignorare i rischi per i diritti e le libertà delle persone prima del rollout”, avverte Almond.
Inoltre istruirà le aziende che operano nel mercato del Regno Unito che dovranno mostrare all'ICO "come hanno affrontato i rischi che si verificano nel loro contesto, anche se la tecnologia sottostante è la stessa".
Ciò significa che l'ICO prenderà in considerazione il contesto associato a un'applicazione della tecnologia di intelligenza artificiale generativa, con aspettative di conformità probabilmente maggiori per le app sanitarie che utilizzano un'API di intelligenza artificiale generativa, ad esempio, rispetto alle app incentrate sulla vendita al dettaglio.
(tl; dr questo tipo di due diligence non è scienza missilistica, ma non aspettarti di nasconderti dietro "stiamo solo usando l'API di OpenAI, quindi non pensavamo di dover considerare la privacy quando abbiamo aggiunto un chatbot AI per migliorare il nostro sesso tipo di app per la ricerca di cliniche sanitarie… ) “Le aziende hanno ragione a vedere l'opportunità offerta dall'IA generativa, sia per creare servizi migliori per i clienti o per ridurre i costi dei loro servizi.
Ma non devono essere ciechi di fronte ai rischi per la privacy", dirà anche Almond, esortando gli sviluppatori a: "Dedicare del tempo all'inizio per capire come l'IA utilizza le informazioni personali, mitigare eventuali rischi di cui si viene a conoscenza e quindi implementare la propria intelligenza artificiale approccio con fiducia che non disturberà i clienti o le autorità di regolamentazione.
Per avere un'idea di quanto potrebbe costare questo tipo di rischio se gestito in modo improprio, la legislazione sulla protezione dei dati del Regno Unito prevede multe per violazioni che possono raggiungere fino a 17,5 milioni di sterline o il 4% del fatturato mondiale annuo totale nell'anno finanziario precedente, a seconda di quale sia più alto.
Un mosaico di regole sull'IA In qualità di organismo di regolamentazione affermato, l'ICO è stato incaricato di sviluppare linee guida sulla privacy e sulla protezione dei dati per l'uso dell'IA secondo un approccio che il governo ha definito nel suo recente white paper sull'IA.
Il governo ha affermato di favorire una serie di principi "flessibili" e orientamenti specifici per il contesto prodotti da organismi di vigilanza settoriali e trasversali per la regolamentazione dell'IA – come l'autorità per la concorrenza, l'autorità di condotta finanziaria, Ofcom e in effetti l'ICO – piuttosto piuttosto che introdurre un quadro legislativo dedicato per guidare lo sviluppo dell'IA come quello sul tavolo oltre la Manica nell'Unione europea.
Ciò significa che emergerà un mosaico di aspettative man mano che il cane da guardia del Regno Unito svilupperà e arricchirà le linee guida nelle prossime settimane e mesi.
(L'autorità britannica per la concorrenza e i mercati ha annunciato il mese scorso una revisione dell'IA generativa; mentre, all'inizio di questo mese, Ofcom ha offerto alcune riflessioni su cosa potrebbe significare l'IA generativa per il settore delle comunicazioni, includendo dettagli su come sta monitorando gli sviluppi al fine di valutare il potenziale poco dopo la pubblicazione del libro bianco del Regno Unito, Almond dell'ICO ha pubblicato un elenco di otto domande che, secondo lui, gli sviluppatori (e gli utenti) di IA generativa dovrebbero porsi, comprese questioni fondamentali come quale sia la loro base legale per l'elaborazione dei dati personali; come rispetteranno gli obblighi di trasparenza; e se hanno preparato una valutazione d'impatto sulla protezione dei dati.
L'avvertimento di oggi è più esplicito.
L'ICO afferma chiaramente che si aspetta che le aziende non solo prendano nota delle sue raccomandazioni, ma agiscano di conseguenza.
Chiunque ignori tale guida e cerchi di accelerare le app sul mercato genererà un rischio normativo maggiore per se stesso, incluso il potenziale per multe sostanziali.
Si basa anche su un avvertimento tecnico specifico che il cane da guardia ha lanciato lo scorso autunno quando ha individuato le cosiddette IA di "analisi delle emozioni" come troppo rischiose per qualcosa di diverso da casi d'uso puramente banali (come i giochi di società per bambini), avvertendo questo tipo di La tecnologia biometrica "immatura" comporta maggiori rischi di discriminazione rispetto alle potenziali opportunità.
"Dobbiamo ancora vedere qualsiasi tecnologia AI emozionale svilupparsi in un modo che soddisfi i requisiti di protezione dei dati e abbiamo domande più generali su proporzionalità, equità e trasparenza in questo settore", ha scritto allora l'ICO.
Sebbene il governo del Regno Unito abbia segnalato di non ritenere necessaria una legislazione dedicata o un organo di controllo esclusivamente incentrato sull'intelligenza artificiale per regolamentare la tecnologia, più recentemente ha parlato della necessità per gli sviluppatori di intelligenza artificiale di concentrarsi sulla sicurezza.
E all'inizio di questo mese il primo ministro Rishi Sunak ha annunciato un piano per ospitare un vertice globale sulla sicurezza dell'IA questo autunno, apparentemente per concentrarsi sulla promozione degli sforzi di ricerca.
L'idea ha rapidamente vinto il buy-in di numerosi giganti dell'IA.
Il watchdog antitrust del Regno Unito annuncia una revisione iniziale dell'IA generativa UK per evitare regole fisse per l'IA – a favore di una "guida specifica al contesto"