Le Royaume-Uni intensifie son combat pour protéger les enfants sur les réseaux sociaux. Deux annonces récentes illustrent cette volonté de régulation accrue : une enquête du Bureau du commissaire à l’information (ICO) sur les pratiques de données personnelles des mineurs sur TikTok, Reddit et Imgur, et une injonction de l’Ofcom imposant aux plateformes sociales d’évaluer les risques de contenu illégal d’ici le 31 mars. Derrière ces mesures, une double préoccupation émerge : la collecte et l’exploitation des données des mineurs par les algorithmes des plateformes et les dangers liés à l’exposition des jeunes utilisateurs à des contenus nocifs.
Ces enquêtes marquent un tournant dans l’approche britannique vis-à-vis des géants du numérique, posant une question essentielle : les plateformes peuvent-elles réellement concilier engagement maximal des utilisateurs et protection des plus jeunes ?
TikTok, Reddit, Imgur : la collecte des données sous surveillance
L’ICO cible particulièrement TikTok, qui fait l’objet d’un examen approfondi sur l’utilisation des données personnelles des 13-17 ans pour façonner leurs recommandations de contenu. L’algorithme de TikTok est souvent critiqué pour sa capacité à créer un effet de bulle, exposant les jeunes à un flux constant de contenus similaires, ce qui peut accentuer l’influence de certains discours problématiques. L’ICO souhaite donc comprendre comment la plateforme utilise ces données et si elle respecte les normes en vigueur.
Reddit et Imgur, quant à eux, sont scrutés pour leur méthode de vérification de l’âge des utilisateurs. Ces plateformes, bien que moins médiatisées que TikTok sur ces questions, restent des espaces où la modération est parfois plus permissive, notamment en raison de leur fonctionnement basé sur le partage communautaire et l’anonymat relatif des participants. L’ICO cherche à savoir si ces plateformes appliquent réellement les restrictions d’âge et si leurs dispositifs empêchent efficacement les enfants d’accéder à des contenus inappropriés.
Cette nouvelle initiative britannique est tout simplement dans la continuité de l’amende de 12,7 millions de livres sterling infligée à TikTok en 2023 pour violation des règles de protection des données des mineurs. Un signal fort qui montre que les régulateurs ne se contenteront plus de simples engagements de la part des plateformes, mais exigent désormais des preuves concrètes d’une mise en conformité stricte.
Les plateformes sous pression : vers une meilleure modération des contenus illicites ?
Parallèlement à cette enquête, l’Ofcom impose aux plateformes de médias sociaux un audit de leurs risques d’ici le 31 mars. Cette demande découle de la loi britannique sur la sécurité en ligne, adoptée en 2023, qui oblige les géants du numérique à identifier et atténuer les risques liés aux contenus illégaux circulant sur leurs services.
Les entreprises concernées doivent évaluer la probabilité que les utilisateurs soient exposés à des contenus liés au terrorisme, aux crimes haineux, à l’exploitation sexuelle des enfants ou encore à la fraude financière. Elles doivent également examiner comment leurs plateformes pourraient être utilisées pour faciliter ces infractions. Autrement dit, l’Ofcom exige des plateformes une prise de responsabilité proactive dans la modération des contenus.
Le non-respect de cette obligation pourrait entraîner des sanctions importantes, bien que la nature précise de ces mesures répressives ne soit pas encore définie. Cette pression réglementaire pourrait inciter les entreprises comme Meta (Facebook, Instagram), TikTok ou Reddit à investir davantage dans la modération algorithmique et humaine, mais aussi à repenser leurs politiques de signalement et de modération communautaire.
L’équilibre difficile entre engagement des utilisateurs et régulation stricte
L’un des enjeux majeurs de ces enquêtes et régulations réside dans l’équilibre que doivent trouver les plateformes entre engagement maximal des utilisateurs et protection des plus jeunes. Les algorithmes de recommandation, véritables moteurs de la rentabilité des réseaux sociaux, sont conçus pour optimiser le temps passé sur la plateforme en proposant du contenu toujours plus pertinent et engageant. Mais cet engagement peut aussi exposer les utilisateurs à des contenus sensibles, voire nocifs, particulièrement lorsqu’il s’agit de mineurs.
L’étude des pratiques de TikTok est révélatrice à cet égard : l’ICO cherche à déterminer comment l’algorithme cible les jeunes et dans quelle mesure cette personnalisation peut favoriser l’exposition à des tendances potentiellement dangereuses. C’est une problématique bien connue : les plateformes amplifient souvent certains contenus populaires sans distinction entre ce qui est bénéfique (comme les tendances éducatives ou créatives) et ce qui peut être problématique (comme la glorification de troubles alimentaires, d’automutilation ou de comportements à risque).
L’autre problématique concerne la capacité réelle des plateformes à vérifier l’âge des utilisateurs et à imposer des restrictions adaptées. Les mesures de contrôle de l’âge sont encore largement insuffisantes, laissant les enfants accéder à des contenus parfois inappropriés sans réel garde-fou. Bien que certaines plateformes aient renforcé leurs processus de vérification, le manque d’uniformisation des pratiques et les failles dans les systèmes de contrôle permettent encore trop facilement aux mineurs de contourner ces restrictions.
Une régulation britannique qui pourrait faire école ?
Avec ces initiatives, le Royaume-Uni se positionne en pionnier d’une régulation stricte des plateformes sociales sur la protection des mineurs. D’autres pays européens et les États-Unis pourraient s’inspirer de ces mesures pour exiger une transparence accrue et une véritable responsabilisation des entreprises technologiques face aux risques qu’elles font peser sur les jeunes utilisateurs.
La question est maintenant de savoir jusqu’où les régulateurs peuvent aller sans entraver le modèle économique des réseaux sociaux. Les entreprises concernées devront non seulement se conformer aux exigences de l’ICO et de l’Ofcom, mais aussi repenser leurs stratégies pour concilier sécurisation des contenus et rentabilité publicitaire.
Si TikTok, Reddit et Imgur se retrouvent aujourd’hui sous le feu des projecteurs, il est probable que cette surveillance s’étende bientôt à d’autres plateformes, y compris celles de Meta (Facebook, Instagram), Snapchat ou encore Discord. L’enjeu est crucial : il s’agit non seulement de protéger les enfants, mais aussi d’éviter que l’engagement algorithmique ne se transforme en un piège dangereux pour les utilisateurs les plus vulnérables.
En renforçant les règles du jeu, le Royaume-Uni impose une pression inédite aux géants du numérique. Reste à voir si ces derniers joueront le jeu de la transparence ou tenteront d’échapper à ces nouvelles contraintes réglementaires. Une bataille qui ne fait que commencer.