Zoom annoda un groviglio legale sull'uso dei dati dei clienti per l'addestramento dei modelli di intelligenza artificiale
Tre anni fa Zoom si è accordato con la FTC per un'accusa di marketing ingannevole in merito alle affermazioni sulla sicurezza, essendo stato accusato di sopravvalutare la forza della crittografia che offriva.
Ora la piattaforma di videoconferenza potrebbe essere diretta verso un simile groviglio in Europa in relazione alla sua privacy in caratteri piccoli.
La recente sequenza di controversie su termini e condizioni è la seguente: una clausola aggiunta al legalese di Zoom nel marzo 2023 ha attirato l'attenzione lunedì dopo che un post su Hacker News ha affermato che consentiva all'azienda di utilizzare i dati dei clienti per addestrare modelli di intelligenza artificiale "senza rinuncia".
.
Suscita indignazione sui social media.
Anche se, a un esame più attento, alcuni esperti hanno suggerito che il no opt out si applica solo ai "dati generati dal servizio" (dati di telemetria, dati sull'utilizzo del prodotto, dati di diagnostica ecc.), ovvero piuttosto che a tutto ciò che i clienti di Zoom fanno e dicono sulla piattaforma.
Tuttavia, la gente era arrabbiata.
Dopotutto, le riunioni sono già abbastanza dolorose senza la prospettiva che alcuni dei tuoi "input" vengano riproposti per alimentare modelli di intelligenza artificiale che potrebbero persino – nel nostro futuro generato dall'IA in rapida accelerazione – finire per rendere ridondante il tuo lavoro.
Le clausole pertinenti dei T&C di Zoom sono dalla 10.2 alla 10.4 (schermata sotto).
Si noti l'ultima riga in grassetto che sottolinea la richiesta di consenso relativa all'elaborazione di "contenuti dei clienti audio, video o chat" per la formazione del modello di intelligenza artificiale, che segue un muro di testo in cui gli utenti che stipulano l'accordo contrattuale con Zoom si impegnano a concedergli ampi diritti per tutti altri tipi di dati sull'utilizzo (e anche altri scopi di formazione non relativi all'intelligenza artificiale): Screengrab: Natasha Lomas/TechCrunch Mettendo da parte gli ovvi rischi reputazionali innescati dalla giusta rabbia del cliente, alcuni requisiti legali relativi alla privacy si applicano a Zoom nell'Unione europea dove regionale sono in vigore le leggi sulla protezione dei dati.
Quindi ci sono anche rischi legali in gioco per Zoom.
Le leggi pertinenti qui sono il Regolamento generale sulla protezione dei dati (GDPR), che si applica quando i dati personali vengono elaborati e offre alle persone una serie di diritti su ciò che viene fatto con le loro informazioni; e la direttiva ePrivacy, un vecchio atto legislativo paneuropeo che si occupa della privacy nelle comunicazioni elettroniche.
In precedenza l'ePrivacy era incentrata sui servizi di telecomunicazione tradizionali, ma la legge è stata modificata alla fine del 2020, tramite il Codice europeo delle comunicazioni elettroniche, per estendere gli obblighi di riservatezza ai cosiddetti servizi over-the-top come Zoom.
Quindi l'articolo 5 della direttiva – che vieta “l'ascolto, l'intercettazione, la memorizzazione o altri tipi di intercettazione o sorveglianza delle comunicazioni e dei relativi dati sul traffico da parte di persone diverse dagli utenti, senza il consenso degli utenti interessati” – appare molto pertinente qui.
Richiesta di consenso Riavvolgendo un po', Zoom ha risposto alla polemica in aumento sui suoi T&C pubblicando un aggiornamento – inclusa la nota di consenso in grassetto nello screengrab sopra – che ha anche affermato, in un post sul blog di accompagnamento, "conferma [s] che lo faremo non utilizzare contenuti audio, video o chat dei clienti per addestrare i nostri modelli di intelligenza artificiale senza il tuo consenso”.
Il suo post sul blog è scritto nel solito linguaggio tortuoso del corpo, condito con affermazioni di impegno per la trasparenza ma senza che Zoom affronti chiaramente le preoccupazioni dei clienti sull'utilizzo dei dati.
Invece la sua risposta alle pubbliche relazioni di crisi si diffonde in abbastanza chiacchiere egoistiche e gergo del prodotto da offuscare la vista.
Il risultato è un post abbastanza ottuso da lasciare un lettore generico ancora a grattarsi la testa su ciò che sta realmente accadendo.
Che si chiama 'tirarsi sui piedi' quando ti trovi di fronte a un contraccolpo innescato da affermazioni apparentemente contraddittorie nelle tue comunicazioni.
Può anche implicare che un'azienda abbia qualcosa da nascondere.
Zoom non è stato più chiaro quando TechCrunch l'ha contattato con domande sull'elaborazione dei dati per l'IA in un contesto di diritto dell'UE; non averci fornito risposte dirette alle domande sulla base giuridica su cui fa affidamento per l'elaborazione per addestrare modelli di intelligenza artificiale sui dati degli utenti regionali; o anche, inizialmente, per confermare se l'accesso alle funzionalità di intelligenza artificiale generativa che offre, come uno strumento di riepilogo automatico delle riunioni, dipende dal consenso dell'utente all'utilizzo dei propri dati come foraggio per la formazione dell'IA.
A questo punto il suo portavoce ha appena ribadito la sua linea che: "Secondo il blog aggiornato e chiarito nei ToS – Abbiamo ulteriormente aggiornato i termini di servizio (nella sezione 10.4) per chiarire/confermare che non utilizzeremo audio, video o chattare i contenuti del cliente per addestrare i nostri modelli di intelligenza artificiale senza il consenso del cliente.
[sottolinea il suo] Il post sul blog di Zoom, che è attribuito al chief product officer Smita Hashim, prosegue discutendo alcuni esempi di come apparentemente raccoglie il "consenso": raffigurante una serie di menu che può mostrare ai proprietari o agli amministratori degli account; e un pop-up che dice viene visualizzato ai partecipanti alla riunione quando la suddetta funzione di riepilogo della riunione (basata sull'intelligenza artificiale) è abilitata da un amministratore.
Nel caso del primo gruppo (amministratori/titolari di account) il post di Hashim afferma letteralmente che "forniscono il consenso".
Questa formulazione, unita a quanto scritto nella sezione successiva – nei confronti dei partecipanti alla riunione che ricevono "avviso" di ciò che gli amministratori hanno abilitato/accettato – implica che Zoom stia trattando il processo di ottenimento del consenso come qualcosa che può essere delegato a un admin per conto di un gruppo di persone.
Quindi il resto del gruppo (ovvero i partecipanti alla riunione) riceve solo "avviso" della decisione dell'amministratore di attivare i riepiloghi della riunione alimentati dall'IA e dare il via libera per addestrare le IA sui loro input.
Tuttavia, la legge sul consenso nell'UE – se, in effetti, questa è la base giuridica su cui Zoom fa affidamento per questo trattamento – non funziona così.
Il GDPR richiede una domanda individuale se stai rivendicando il consenso come base legale per elaborare i dati personali.
Come notato sopra, ePrivacy richiede anche esplicitamente che le comunicazioni elettroniche siano mantenute riservate a meno che l'utente non acconsenta all'intercettazione (o a meno che non ci sia qualche motivo di sicurezza nazionale per la sorveglianza, ma le funzionalità di intelligenza artificiale generativa di Zoom non sembrano qualificarsi per questo).
Tornando al post sul blog di Zoom: si riferisce al pop-up mostrato ai partecipanti alla riunione come "avviso" o "notifica" che i suoi servizi di intelligenza artificiale generativa sono in uso, con la società che offre una breve spiegazione che: "Informiamo te e la tua riunione partecipanti quando sono in uso i servizi di intelligenza artificiale generativa di Zoom.
Ecco un esempio [sotto l'immagine] di come forniamo la notifica in riunione." Crediti immagine: Zoom Eppure, nella sua risposta alla controversia sui dati per l'IA, Zoom ha ripetutamente affermato di non elaborare i contenuti dei clienti per addestrare le sue IA senza il loro consenso.
Quindi questo pop-up è solo una "notifica" che la sua funzione basata sull'intelligenza artificiale è stata abilitata o una domanda in buona fede dove Zoom afferma di ottenere il consenso dei clienti a questa condivisione di dati? Francamente la sua descrizione non è affatto chiara.
Per la cronaca, il testo visualizzato sul pop-up di avviso recita* — e si noti l'uso del passato nel titolo (che suggerisce che la condivisione dei dati è già in corso): Riepilogo riunione è stato abilitato.
Il proprietario dell'account può consentire a Zoom di accedere e utilizzare i tuoi input e i contenuti generati dall'intelligenza artificiale allo scopo di fornire la funzionalità e per il miglioramento del prodotto Zoom IQ, inclusa la formazione del modello.
I dati saranno utilizzati solo da Zoom e non da terze parti per il miglioramento del prodotto.
Ulteriori informazioni Invieremo il riepilogo della riunione agli invitati al termine della riunione (in base alle impostazioni configurate per la riunione).
Chiunque riceva il riepilogo della riunione può salvarlo e condividerlo con app e altri.
Il consenso generato dall'intelligenza artificiale può essere impreciso o fuorviante.
Controlla sempre la precisione.
Ai partecipanti alla riunione che vedono questo avviso vengono presentate due opzioni.
Uno è un pulsante con l'etichetta "Capito!" (che è evidenziato in blu brillante quindi apparentemente preselezionato); l'altro è un pulsante con l'etichetta "Esci dalla riunione" (visualizzato in grigio, quindi non è la selezione predefinita).
C'è anche un collegamento ipertestuale nel testo incorporato in cui gli utenti possono fare clic per "scoprire di più" (ma, presumibilmente, non verranno presentate opzioni aggiuntive rispetto all'elaborazione dei loro input).
Libera scelta vs libertà di andarsene… I fan della legge sulla protezione dei dati dell'Unione Europea avranno familiarità con il requisito secondo cui, affinché il consenso sia una base giuridica valida per il trattamento dei dati delle persone, deve soddisfare un determinato standard, vale a dire: deve essere chiaramente informato; dato liberamente; e scopo limitato (specifico, non in bundle).
Né può essere spinto con preselezioni egoistiche.
Queste persone potrebbero anche sottolineare che l'avviso di Zoom ai partecipanti alla riunione sull'attivazione della sua funzione generata dall'IA non fornisce loro la libera scelta di negare il consenso affinché i loro dati diventino foraggio per l'addestramento dell'IA.
(In effetti, a giudicare dal tempo utilizzato, sta già elaborando le loro informazioni per questo quando vedono questo avviso.) Questo è ovvio poiché il partecipante alla riunione deve accettare che i propri dati vengano utilizzati da Zoom per usi che includono l'addestramento AI o uscire del tutto l'incontro.
Non ci sono altre scelte disponibili.
E va da sé che dire ai tuoi utenti l'equivalente di "hey, sei libero di andartene" non equivale a una libera scelta su ciò che stai facendo con i loro dati.
(Vedi, ad esempio: la recente sentenza della CGUE contro il consenso forzato di Meta/Facebook.) Zoom non offre nemmeno ai suoi utenti la possibilità di pagarlo per evitare questo data mining non essenziale, che è una strada intrapresa da alcuni editori di notizie regionali offrendo paywall di consenso al tracciamento (in cui la scelta offerta ai lettori è pagare per l'accesso al giornalismo o accettare il tracciamento per ottenere l'accesso gratuito).
Anche se anche questo approccio sembra discutibile, dal punto di vista dell'equità del GDPR (e rimane oggetto di contestazione legale).
Ma il punto chiave qui è che se il consenso è la base giuridica rivendicata per il trattamento dei dati personali nell'UE, deve effettivamente essere disponibile una libera scelta.
E la scelta di partecipare o meno alla riunione non è questo.
(Aggiungete a ciò, in quanto semplice partecipante alla riunione, ovvero non un amministratore/titolare dell'account, è improbabile che tali persone siano la persona più anziana nella stanza virtuale e si ritiri da una riunione che non hai avviato/organizzato per motivi di etica dei dati potrebbe non sentirsi disponibile per così tanti dipendenti C'è probabilmente uno squilibrio di potere tra l'amministratore/organizzatore della riunione e i partecipanti, proprio come c'è tra Zoom la piattaforma che fornisce un servizio di comunicazione e gli utenti di Zoom che hanno bisogno di usare la sua piattaforma per comunicare.) Come se non era abbastanza, Zoom sta ovviamente raggruppando la sua elaborazione dei dati per fornire la funzione di intelligenza artificiale generativa con altri scopi non essenziali, come il miglioramento del prodotto e l'addestramento del modello.
Sembra una chiara violazione del principio di limitazione delle finalità del GDPR, che si applicherebbe anche affinché il consenso sia valido.
Ma tutte queste analisi sono rilevanti solo se Zoom si basa effettivamente sul consenso come base legale per l'elaborazione, come sembra affermare la sua risposta di pubbliche relazioni alla controversia – o, almeno, lo fa in relazione all'elaborazione dei contenuti dei clienti per l'addestramento dell'IA Modelli.
Ovviamente abbiamo chiesto a Zoom di confermare la sua base legale per l'elaborazione della formazione AI nell'UE, ma la società ha evitato di darci una risposta diretta.
Divertente quello! Spinto a giustificare la sua affermazione di ottenere il consenso per tale trattamento contro gli standard di consenso del diritto dell'UE, un portavoce dell'azienda ci ha inviato i seguenti punti elenco (irrilevanti e/o fuorvianti) [di nuovo, sottolinealo]: Le funzionalità di AI generative di Zoom sono predefinite disattivato e abilitato separatamente dai clienti.
Ecco il comunicato stampa del 5 giugno con maggiori dettagli I clienti controllano se abilitare queste funzionalità AI per i propri account e possono scegliere di non fornire i propri contenuti a Zoom per la formazione del modello al momento dell'abilitazione I clienti possono modificare la selezione di condivisione dei dati dell'account in qualsiasi momento Inoltre, per Riepilogo riunione Zoom IQ, i partecipanti alla riunione vengono avvisati tramite un popup quando Riepilogo riunione è attivato.
Possono quindi scegliere di abbandonare la riunione in qualsiasi momento.
L'organizzatore della riunione può avviare o interrompere un riepilogo in qualsiasi momento.
Maggiori dettagli sono disponibili qui Quindi la difesa di Zoom del consenso che afferma di offrire è letteralmente quella di offrire agli utenti la scelta di non utilizzare il suo servizio.
(Dovrebbe davvero chiedersi quanto bene quel tipo di argomento sia andato per Meta davanti alla massima corte europea.) Anche il flusso di consenso dell'amministratore / titolare dell'account che Zoom serve è problematico.
Il suo post sul blog non lo descrive nemmeno esplicitamente come un flusso di consenso: lo presenta semplicemente come un esempio della "nostra interfaccia utente attraverso la quale un amministratore del cliente sceglie una delle nostre nuove funzionalità di intelligenza artificiale generativa", raggruppando linguisticamente l'adesione alla sua intelligenza artificiale generativa con acconsentire a condividere i dati con esso per la formazione AI ecc.
Nello screengrab Zoom include nel post del blog (che abbiamo incorporato di seguito) la funzione generativa di riepilogo della riunione AI è indicata nel testo annotato come disattivata per impostazione predefinita, apparentemente richiedendo l'amministratore / titolare dell'account per abilitarlo attivamente.
C'è anche, apparentemente, una scelta esplicita associata alla condivisione dei dati che viene presentata all'amministratore.
(Notare la minuscola casella di controllo blu nel secondo menu.) Tuttavia, se il consenso è la base legale rivendicata, un altro problema è che questa casella di condivisione dei dati è preselezionata per impostazione predefinita, richiedendo quindi all'amministratore di eseguire il passaggio attivo di deselezionare it affinché i dati non vengano condivisi.
Quindi, in altre parole, Zoom potrebbe essere accusato di implementare uno schema oscuro per cercare di forzare il consenso degli amministratori.
Ai sensi del diritto dell'UE, c'è anche l'onere di informare chiaramente gli utenti dello scopo per il quale si chiede loro di acconsentire.
Ma, in questo caso, se l'amministratore della riunione non legge attentamente la piccola stampa di Zoom – dove specifica che la funzione di condivisione dei dati può essere deselezionata se non desidera che questi input vengano utilizzati da esso per scopi come l'addestramento di modelli di intelligenza artificiale – potrebbero "accettare" per sbaglio (ovvero non deselezionando la casella).
Tanto più che un amministratore impegnato potrebbe semplicemente presumere di dover selezionare questa casella di "condivisione dati" per poter condividere il riepilogo della riunione con altri partecipanti, come probabilmente vorranno.
Quindi anche la qualità della "scelta" che Zoom sta presentando agli amministratori delle riunioni sembra problematica rispetto agli standard dell'UE per l'elaborazione basata sul consenso.
Aggiungete a ciò, l'illustrazione di Zoom degli amministratori dell'interfaccia utente che possono vedere include un'ulteriore qualificazione in caratteri piccoli, in cui l'azienda avverte con una scrittura incredibilmente minuscola che "le schermate del prodotto sono soggette a modifiche".
Quindi, ehm, chissà quale altro linguaggio e / o design potrebbe aver implementato per assicurarsi di ottenere risposte per lo più affermative agli input degli utenti di condivisione dei dati per la formazione dell'IA per massimizzare la raccolta dei dati.
Crediti immagine: Zoom Ma tieni i tuoi cavalli! Zoom in realtà non fa affidamento sul consenso come base legale per il data mining degli utenti per l'intelligenza artificiale, secondo Simon McGarr, un avvocato dello studio legale McGarr Solicitors con sede a Dublino.
Suggerisce che tutto il teatro del consenso sopra descritto sia essenzialmente una "falsa pista" in termini di diritto dell'UE, perché Zoom si basa su una base giuridica diversa per il data mining di intelligenza artificiale: l'esecuzione di un contratto.
"Il consenso è irrilevante e una falsa pista in quanto si basa sul contratto come base legale per l'elaborazione", ha detto a TechCrunch quando abbiamo chiesto le sue opinioni sulla questione della base legale e sull'approccio di Zoom più in generale.
Il legalese statunitense incontra il diritto dell'UE Nell'analisi di McGarr, Zoom sta applicando una redazione statunitense al suo legalese, che non tiene conto del quadro (distinto) europeo per la protezione dei dati.
"Zoom si sta avvicinando a questo in termini di proprietà dei dati personali", sostiene.
“Ci sono dati non personali e dati personali ma non fanno distinzione tra i due.
Invece stanno distinguendo tra dati di contenuto ("dati di contenuto del cliente") e ciò che chiamano dati di telemetria.
Questi sono i metadati.
Pertanto si stanno avvicinando a questo con un quadro che non è compatibile con il diritto dell'UE.
E questo è ciò che li ha portati a fare affermazioni riguardo alla proprietà dei dati: non puoi possedere dati personali.
Puoi essere solo il controller o il processore.
Perché la persona continua ad avere diritti in quanto interessato.
"L'affermazione che possono fare ciò che vogliono con i metadati è contraria all'articolo 4 del GDPR che definisce cosa sono i dati personali – e in particolare è contraria alla decisione nel caso Digital Rights Ireland e a tutta una serie di casi successivi che confermano che i metadati possono essere, e spesso sono, dati personali — e talvolta dati personali sensibili, perché possono rivelare relazioni [ad es.
appartenenza a sindacati, consulenza legale, fonti di un giornalista, ecc.]”.
McGarr afferma che Zoom ha bisogno del consenso affinché questo tipo di elaborazione sia lecito nell'UE – sia per i metadati che per i dati sui contenuti dei clienti utilizzati per addestrare i modelli di intelligenza artificiale – e che non può effettivamente fare affidamento sull'esecuzione di un contratto per ciò che ovviamente non è -elaborazione essenziale.
Ma ha anche bisogno del consenso per essere opt-in, non opt-out.
Quindi, in pratica, nessuna casella preselezionata che solo un amministratore può deselezionare, e nient'altro che un vago "avviso" inviato agli altri utenti che essenzialmente li obbliga ad acconsentire dopo il fatto o ad uscire; che non è una scelta libera e disaggregata ai sensi del diritto dell'UE.
"È un tipo di approccio americano", aggiunge del modus operandi di Zoom.
"È l'approccio dell'avviso – in cui dici le cose alla gente, e poi dici, beh, ho dato loro l'avviso di X.
Ma, sai, non è così che funziona il diritto dell'UE." Aggiungete a ciò, l'elaborazione di dati personali sensibili – cosa che Zoom probabilmente farà, anche di fronte ai "dati generati dal servizio" – richiede una barra ancora più alta di consenso esplicito.
Tuttavia, dal punto di vista del diritto dell'UE, tutto ciò che la società ha offerto finora in risposta alla controversia sui T&C è l'offuscamento e scuse irrilevanti.
Premuto per una risposta su base legale e chiesto direttamente se si basa sull'esecuzione di un contratto per l'elaborazione, un portavoce di Zoom ha rifiutato di fornirci una risposta, dicendo solo: "Abbiamo registrato le tue domande e ti faremo sapere se abbiamo qualcos'altro da condividere.
Il portavoce dell'azienda, inoltre, non ha risposto alle domande che gli chiedevano di chiarire come definisce gli "input" dei clienti per la scelta di condivisione dei dati che (solo) ottengono gli amministratori, quindi non è ancora del tutto chiaro se "input" si riferisca esclusivamente al contenuto delle comunicazioni dei clienti.
Ma questa sembra essere l'implicazione dell'affermazione in grassetto nel suo contratto di non utilizzare "contenuto del cliente audio, video o chat per addestrare i nostri modelli di intelligenza artificiale senza il tuo consenso" (nota, non c'è alcuna menzione in grassetto del fatto che Zoom non utilizzi i metadati del cliente per addestramento del modello AI).
Se Zoom esclude i "dati generati dal servizio" (noti anche come metadati) anche dal suo consenso di rinuncia, sembra credere di poter aiutare se stesso a questi segnali senza applicare nemmeno questo teatro del consenso legalmente privo di significato.
Tuttavia, come sottolinea McGarr, i "dati generati dal servizio" non vengono tagliati fuori dal diritto dell'UE; può e spesso è classificato come dati personali.
Quindi, in realtà, Zoom ha bisogno del consenso (ovvero opt-in, consenso informato, specifico e liberamente prestato) per elaborare anche i metadati degli utenti.
E non dimentichiamo che l'ePrivacy ha meno basi legali disponibili rispetto al GDPR e richiede esplicitamente il consenso per l'intercettazione.
Da qui la convinzione degli esperti legali secondo cui Zoom può fare affidamento solo sul consenso (opt-in) come base legale per utilizzare i dati delle persone per addestrare le IA.
Un recente intervento dell'autorità italiana per la protezione dei dati personali sul servizio di chatbot di intelligenza artificiale generativa di OpenAI, ChatGPT, sembra essere giunto a una visione simile sull'uso dei dati per l'addestramento del modello di intelligenza artificiale, dal momento che l'autorità ha stabilito che OpenAI non può fare affidamento sull'esecuzione di un contratto per trattare i dati personali per questo.
Ha affermato che il gigante dell'intelligenza artificiale dovrebbe scegliere tra consenso o interessi legittimi per l'elaborazione dei dati delle persone per l'addestramento dei modelli.
OpenAI ha successivamente ripreso il servizio in Italia dopo essere passato a una rivendicazione di interessi legittimi, che richiede di offrire agli utenti un modo per rinunciare al trattamento (che aveva aggiunto).
Per i chatbot AI, la base giuridica per la questione della formazione del modello rimane oggetto di indagine da parte delle autorità di regolamentazione dell'UE.
Ma, nel caso di Zoom, la differenza fondamentale è che per i servizi di comunicazione non si applica solo il GDPR ma anche l'ePrivacy, e quest'ultimo non consente l'utilizzo di LI per il tracciamento.
Zoomare per recuperare il ritardo Data la relativamente novità dei servizi di intelligenza artificiale generativa, per non parlare dell'enorme clamore attorno alle funzionalità di automazione basate sui dati, Zoom potrebbe sperare che il proprio data mining per l'IA voli silenziosamente sotto il radar delle autorità di regolamentazione internazionali.
Oppure potrebbe essere focalizzato altrove.
Non c'è dubbio che l'azienda si senta sotto pressione a livello competitivo, dopo quello che, negli ultimi anni, ha visto aumentare la domanda globale di riunioni virtuali precipitando da un precipizio da quando abbiamo superato il picco di COVID-19 e siamo tornati di corsa alle strette di mano di persona.
Aggiungete a ciò l'ascesa di giganti dell'IA generativa come OpenAI sta chiaramente aumentando la concorrenza per gli strumenti di produttività scalando in modo massiccio l'accesso a nuovi livelli di capacità di intelligenza artificiale.
E Zoom ha fatto il suo gioco solo relativamente di recente per unirsi alla gara generativa dell'IA, annunciando che avrebbe aumentato gli investimenti a febbraio, dopo aver registrato la sua prima perdita netta del quarto trimestre dal 2018 (e poco dopo aver annunciato una riduzione del 15% dell'organico).
Inoltre, non c'è già carenza di concorrenza per la videoconferenza, con giganti della tecnologia come Google e Microsoft che offrono le proprie suite di strumenti di comunicazione con videochat integrate.
strumenti come la videoconferenza, che sta guidando un'ulteriore mercificazione del componente principale della piattaforma.
Tutto ciò per dire che Zoom sta probabilmente sentendo il caldo.
E probabilmente ha una fretta maggiore di addestrare i propri modelli di intelligenza artificiale in modo da poter correre per competere piuttosto che inviare i suoi T&C di condivisione dei dati estesi per la revisione legale internazionale.
Inoltre, le autorità europee di regolamentazione della privacy non si muovono necessariamente così rapidamente in risposta alle tecnologie emergenti.
Quindi Zoom potrebbe ritenere di poter correre il rischio.
Tuttavia, c'è una curva di regolamentazione in quanto Zoom non sembra essere principalmente stabilito in nessuno Stato membro dell'UE.
Ha un ufficio EMEA locale nei Paesi Bassi, ma il DPA olandese ci ha detto che non è l'autorità di supervisione principale per Zoom.
Né sembra esserlo il DPA irlandese (nonostante Zoom rivendichi un rappresentante dell'articolo 27 con sede a Dublino).
"Per quanto ne sappiamo, Zoom non ha un'autorità di supervisione principale nello Spazio economico europeo", ha detto a TechCrunch un portavoce della DPA olandese.
“Secondo la loro informativa sulla privacy, il titolare del trattamento è Zoom Video Communications, Inc, che ha sede negli Stati Uniti.
Sebbene Zoom abbia un ufficio nei Paesi Bassi, sembra che l'ufficio non abbia autorità decisionale e quindi l'autorità di protezione dei dati olandese non è la principale autorità di vigilanza".
Se ciò è corretto e il processo decisionale in relazione ai dati degli utenti dell'UE avviene esclusivamente oltre lo stagno (all'interno dell'entità statunitense di Zoom), qualsiasi autorità per la protezione dei dati nell'UE è potenzialmente competente per interrogare la sua conformità al GDPR, piuttosto che reclami locali e preoccupazioni di dover essere instradate attraverso un'unica autorità capofila.
Il che massimizza il rischio normativo poiché qualsiasi DPA dell'UE potrebbe intervenire se ritiene che i dati degli utenti siano messi a rischio.
Aggiungete a ciò, ePrivacy non contiene un meccanismo one-stop-shop per semplificare la supervisione normativa come fa il GDPR, quindi è già il caso che qualsiasi autorità possa verificare la conformità di Zoom a tale direttiva.
Il GDPR consente multe che possono raggiungere fino al 4% del fatturato annuo globale.
Mentre l'ePrivacy consente all'autorità di fissare multe opportunamente dissuasive (che nel caso del CNIL francese ha portato a diverse pesanti sanzioni multimilionarie su un certo numero di giganti della tecnologia in relazione alle violazioni del monitoraggio della cottura negli ultimi anni).
Quindi un contraccolpo pubblico da parte degli utenti arrabbiati per aver spazzato via i dati per i T&C dell'IA potrebbe causare a Zoom più mal di testa di quanto pensi.
*NB: la qualità della grafica sul blog di Zoom era scadente con il testo che appariva sostanzialmente pixellato, rendendo difficile individuare le parole senza controllarle altrove (cosa che abbiamo fatto)