UK regulator unveils new measures to protect children online

La quarantaine de mesures, prises dans la cadre de la loi "Online safety act", adoptée en 2023, entrera en vigueur à partir du mois de juillet, précise l'Ofcom dans son communiqué.

Elles imposent aux géants de la tech (réseaux sociaux, plateformes de partage de contenus et site de jeux vidéos) de nouvelles obligations parmi lesquelles un strict contrôle de l'âge de l'utilisateur pour empêcher les enfants de voir des contenus nocifs.

Tout site hébergeant de la pornographie ou des contenus encourageant l'automutilation, le suicide ou les troubles alimentaires doit disposer de solides outils pour cette vérification.

Les entreprises "peuvent utiliser toutes sortes de vérifications, identités numériques, cartes bancaires, biométrie", a indiqué la directrice l'Ofcom Melanie Dawes sur BBC Radio 4. Et elles "devront nous garantir que ces moyens marchent", a-t-elle souligné. A l'issue de cette étape, dans certains cas, l'accès des enfants à l'ensemble du site ou de l'application pourra être empêché.
Les réseaux sociaux devront par ailleurs "configurer" leurs algorithmes afin de "filtrer le contenu nuisible des flux", prévoit l'Ofcom. En plus des amendes, et dans les cas les plus graves, le régulateur pourra saisir la justice afin de demander le blocage du site ou de la plateforme mis en cause.

Ces mesures rendront les réseaux sociaux "plus sûrs avec moins de contenus nocifs et dangereux", assure Melanie Dawes. Pour Peter Kyle, le ministre de la Technologie, ces mesures représentent "un moment décisif" car elles vont en finir avec la "toxicité" que peuvent représenter ces plateformes.

Mais certaines associations de défense des enfants estiment que ces mesures ne vont pas assez loin. Parmi elles, la fondation Molly Rose, du nom d'une adolescente de 14 ans qui s'est suicidée en 2017 après avoir vu des contenus liés au suicide et à l'automutilation sur les réseaux sociaux. Son père, Ian Russell, président de l'organisation, a dénoncé le "manque d'ambition" du gouvernement, estimant que ces nouvelles mesures ne parviendraient pas à protéger les enfants et adolescents des contenus nuisibles présents sur les plateformes.