Dopo l’allarme lanciato ad aprile da Ofcom riguardo alla crescente presenza di minori non supervisionati su piattaforme come Facebook, Instagram e TikTok, l’Autorità di Regolazione sui Media ha fissato nuove linee guida per garantire la sicurezza dei bambini online.
Ofcom ha delineato più di 40 misure pratiche per i servizi online, compresi i social media, al fine di proteggere i minori da contenuti dannosi.
Le aziende tecnologiche dovranno implementare controlli sull’età più rigorosi e ridurre l’esposizione dei bambini a tematiche come il suicidio, l’autolesionismo, i disturbi alimentari e la pornografia.
L’Online Safety Act impone agli operatori di valutare i rischi per i minori e adottare misure concrete per proteggerli da contenuti nocivi come materiale violento, bullismo online e sfide pericolose.
Ofcom chiede un cambio radicale alle aziende tecnologiche, richiedendo controlli sull’età più stringenti, l’adattamento degli algoritmi per evitare danni ai minori e una moderazione più efficace dei contenuti dannosi.
È prevista un’ulteriore consultazione pubblica entro la fine dell’anno per esplorare l’uso di tecnologie come l’Intelligenza Artificiale nel rilevare contenuti illegali e dannosi per i minori.
Dame Melanie Dawes, CEO di Ofcom, sottolinea l’importanza di proteggere i minori online e afferma che le nuove norme garantiranno un cambio significativo nella sicurezza online per i bambini nel Regno Unito.
Big Tech nel mirino dell’Ue: Sanzioni in arrivo per Apple e Meta La Commissione Europea,…
Amazon lancia "Acquista per me": un agente di acquisto basato su IA Amazon sta avviando…
La Pirateria colpisce "Un film Minecraft": Anteprima e Implicazioni Nei giorni scorsi abbiamo avuto l’opportunità…
This website uses cookies.