L’ICO souhaite déterminer comment ces plateformes utilisent les informations des jeunes de 13 à 17 ans pour leur proposer du contenu. Le système de recommandations de TikTok, notamment via son For You Page, sera examiné en détail. Ce flux de vidéos, généré par des algorithmes sophistiqués, adapte les contenus en fonction des interactions des utilisateurs, soulevant des inquiétudes quant à son impact sur les plus jeunes.
Reddit et Imgur sont également visés pour leur gestion de l’âge des utilisateurs et les dispositifs qu’ils mettent en place pour vérifier que les mineurs ne sont pas exposés à des contenus inappropriés.
Le gouvernement britannique a déjà exprimé des inquiétudes sur TikTok, notamment concernant l’utilisation des données des utilisateurs britanniques par sa maison mère chinoise, ByteDance. Ces préoccupations s’inscrivent dans un contexte de réglementation plus stricte sur les réseaux sociaux, avec des règles renforcées pour empêcher les enfants d’accéder à des contenus dangereux.
En 2023, l’ICO avait infligé une amende de 12,7 millions de livres à TikTok pour avoir collecté les données d’enfants de moins de 13 ans sans consentement parental.
Quels sont les risques pour les jeunes utilisateurs ?
L’un des points de vigilance concerne l’effet des algorithmes de recommandations sur le comportement des mineurs. Des études ont déjà révélé que certains contenus problématiques, comme ceux liés aux troubles alimentaires ou à l’automutilation, pouvaient être proposés en quelques minutes à de nouveaux comptes adolescents.
L’ICO souhaite donc vérifier si ces plateformes mettent en place des mesures efficaces pour protéger leurs jeunes utilisateurs et éviter qu’ils ne soient exposés à des contenus potentiellement dangereux.
Les réseaux sociaux réagissent
TikTok a affirmé que ses systèmes de recommandations respectaient des normes strictes pour garantir la confidentialité et la sécurité des adolescents.
Reddit, de son côté, a indiqué travailler en étroite collaboration avec l’ICO et prévoir des ajustements dans ses dispositifs de vérification de l’âge.
Cette enquête pourrait aboutir à de nouvelles amendes ou à des recommandations plus strictes pour ces plateformes. Le Royaume-Uni a déjà introduit un code de protection des enfants en ligne en 2021, obligeant les entreprises à renforcer la protection des mineurs.
Lire aussi : dans quel pays tik tok est interdit ?