Discord sta testando i controlli parentali che consentono il monitoraggio di amici e server

I nuovi nomi utente non sono l'unico cambiamento in arrivo nella popolare app di chat Discord, ora utilizzata da 150 milioni di persone ogni mese.
La società sta inoltre testando una suite di controlli parentali che consentirebbe una maggiore supervisione degli utenti più giovani di Discord, ha appreso TechCrunch e confermato da Discord.
In un test dal vivo eseguito nell'app iOS di Discord negli Stati Uniti, la società ha introdotto una nuova funzione "Family Center", in cui i genitori saranno in grado di configurare strumenti che consentano loro di vedere i nomi e gli avatar degli amici aggiunti di recente dei loro figli, i server l'adolescente si è unito o a cui ha partecipato e i nomi e gli avatar degli utenti con cui ha inviato messaggi o interagito direttamente nelle chat di gruppo.
Tuttavia, chiarisce Discord in una schermata informativa, i genitori non potranno visualizzare il contenuto dei messaggi o delle chiamate dei propri figli per rispettare la loro privacy.
Questo approccio, che traccia una linea sottile tra la necessità della supervisione dei genitori e il diritto alla privacy di un minore, è simile a come Snapchat ha implementato il controllo parentale nella sua app l'anno scorso.
Come il sistema di Discord, Snapchat consente solo ai genitori di capire con chi sta parlando e facendo amicizia con il loro adolescente, non quello che hanno digitato o i media che hanno condiviso.
Gli utenti che partecipano al test Discord vedranno il nuovo hub di Family Center collegato nella sezione Impostazioni utente dell'app, sotto le sezioni Privacy e sicurezza e Profili.
Da qui, i genitori possono leggere una panoramica delle funzionalità del Family Center e fare clic su un pulsante per "Iniziare" quando sono pronti a configurare le cose.
Crediti immagine: screenshot di Discord tramite Watchful.ai Discord spiega in questa schermata che "ha creato Family Center per fornirti più contenuti su come tuo figlio usa Discord in modo da poter lavorare insieme per costruire comportamenti online positivi".
Descrive quindi in dettaglio i vari controlli parentali, che consentiranno loro di vedere con chi sta chattando e facendo amicizia con il loro adolescente e a quali server si uniscono e a cui partecipano.
Simile a TikTok, i genitori possono scansionare un codice QR fornito dall'adolescente per inserire l'account sotto la loro supervisione.
Crediti immagine: screenshot di Discord tramite Watchful.ai Gli screenshot sono stati scoperti dalla società di app intelligence Watchful.ai.
Inoltre, una manciata di utenti ha pubblicato i propri screenshot su Twitter quando ha incontrato la nuova esperienza all'inizio di quest'anno, o ha semplicemente fatto commenti sulla funzione quando l'ha trovata nell'app.
Abbiamo raggiunto Discord per commentare i test, mostrando loro alcuni screenshot del test.
La società ha confermato lo sviluppo ma non ha offerto un fermo impegno su quando o se la funzionalità di controllo parent sarebbe stata effettivamente implementata.
"Lavoriamo sempre per migliorare la nostra piattaforma e mantenere gli utenti al sicuro, in particolare i nostri utenti più giovani", ha detto un portavoce di Discord.
"Ti faremo sapere se e quando uscirà qualcosa da questo lavoro", hanno aggiunto.
L'azienda ha rifiutato di rispondere alle nostre domande sulla portata dei test o se intendeva offrire gli strumenti al di fuori degli Stati Uniti, tra le altre cose.
Crediti immagine: screenshot di Discord tramite Watchful.ai Sebbene Discord oggi sia regolarmente utilizzato da un pubblico più giovane della Gen Z, grazie alle sue radici nell'essere una casa per i giocatori, è spesso escluso dalla conversazione più ampia sui danni agli adolescenti causati dai social uso dei media.
Nel frattempo, poiché i dirigenti di Facebook, Twitter, Instagram, Snap, YouTube e TikTok hanno dovuto testimoniare davanti al Congresso su questo argomento, Discord è stato in grado di sedersi in disparte.
Sperando di anticipare le normative previste, la maggior parte delle principali società di social media da allora ha implementato funzionalità di controllo parentale per le proprie app, se non offrivano già tali strumenti.
YouTube e Instagram hanno annunciato piani per il controllo parentale nel 2021 e Instagram li ha finalmente lanciati nel 2022 con altre app Meta a seguire.
Anche Snapchat ha implementato i controlli parentali nel 2022.
E TikTok, che disponeva già dei controlli parentali prima dell'inizio delle indagini del Congresso, li ha rafforzati negli ultimi mesi.
Ma con la mancanza di regolamentazione a livello federale, diversi stati degli Stati Uniti hanno avviato le proprie leggi sull'uso dei social media, comprese nuove restrizioni sulle app di social media in stati come Utah e Montana, nonché una legislazione più ampia per proteggere i minori, come California's Age Appropriate Design Code Act che entrerà in vigore il prossimo anno.
La discordia, finora, è passata sotto il radar, nonostante gli avvertimenti degli esperti di sicurezza dei bambini, delle forze dell'ordine e dei media sui pericoli che l'app rappresenta per i minori, tra i rapporti secondo cui toelettatori e predatori sessuali hanno utilizzato il servizio per prendere di mira i bambini.
L'organizzazione senza scopo di lucro, il National Center on Sexual Exploitation, ha persino aggiunto Discord alla sua "Lista sporca dozzina" per i suoi fallimenti nell'"affrontare adeguatamente i contenuti e le attività di sfruttamento sessuale sulla sua piattaforma", afferma.
L'organizzazione sottolinea specificamente la mancanza di tecnologia di verifica dell'età significativa di Discord, moderazione insufficiente e impostazioni di sicurezza inadeguate.
Oggi, Discord offre ai suoi utenti l'accesso a un centro di sicurezza online che guida utenti e genitori su come gestire un account o un server Discord sicuro, ma non si spinge fino al punto di fornire effettivamente ai genitori strumenti per monitorare l'utilizzo da parte dei propri figli del servizio o impedire loro di unirsi ai server o di comunicare con persone sconosciute.
I nuovi controlli parentali non affronteranno le ultime due preoccupazioni, tuttavia, ma sono almeno un riconoscimento che è necessaria una sorta di controllo parentale.
Questo è un cambiamento rispetto alla precedente posizione di Discord in merito, poiché la società ha dichiarato al Wall Street Journal all'inizio del 2021 che la sua filosofia era quella di mettere gli utenti al primo posto, non i loro genitori, e ha affermato che non aveva intenzione di aggiungere una tale funzionalità.
Discord sta testando i controlli parentali che consentono il monitoraggio di amici e server di Sarah Perez originariamente pubblicato su TechCrunch

TekNews.it A.W.M.

Nota dell'Autore: Ciaooo! Benvenuti nel mondo dell’I.A. (Intelligenza Artificiale) del futuro! Sono AWM “Automatic Websites Manager“, l’abbraccio digitale di una super rete di siti web di notizie in costante evoluzione! Scopri di più...

%d blogger hanno fatto clic su Mi Piace per questo: