Dopo l’allarme lanciato ad aprile da Ofcom riguardo alla crescente presenza di minori non supervisionati su piattaforme come Facebook, Instagram e TikTok, l’Autorità di Regolazione sui Media ha fissato nuove linee guida per garantire la sicurezza dei bambini online.
Ofcom ha delineato più di 40 misure pratiche per i servizi online, compresi i social media, al fine di proteggere i minori da contenuti dannosi.
Le aziende tecnologiche dovranno implementare controlli sull’età più rigorosi e ridurre l’esposizione dei bambini a tematiche come il suicidio, l’autolesionismo, i disturbi alimentari e la pornografia.
L’Online Safety Act impone agli operatori di valutare i rischi per i minori e adottare misure concrete per proteggerli da contenuti nocivi come materiale violento, bullismo online e sfide pericolose.
Ofcom chiede un cambio radicale alle aziende tecnologiche, richiedendo controlli sull’età più stringenti, l’adattamento degli algoritmi per evitare danni ai minori e una moderazione più efficace dei contenuti dannosi.
È prevista un’ulteriore consultazione pubblica entro la fine dell’anno per esplorare l’uso di tecnologie come l’Intelligenza Artificiale nel rilevare contenuti illegali e dannosi per i minori.
Dame Melanie Dawes, CEO di Ofcom, sottolinea l’importanza di proteggere i minori online e afferma che le nuove norme garantiranno un cambio significativo nella sicurezza online per i bambini nel Regno Unito.
Rai 2 Festeggia il Successo degli Ascolti per la Coppa Davis Dopo il trionfo degli…
```html Offerte Imperdibili di Xbox per il Black Friday 2024 Per il Black Friday 2024,…
OpenAI Pronta a Sfida Google con un Nuovo Browser Secondo quanto riportato da The Information,…
This website uses cookies.