Sept familles françaises ont intenté une action en justice contre le réseau social TikTok, accusant la plateforme d’avoir exposé leurs enfants à des contenus dangereux, allant jusqu’à inciter certains adolescents à des actes irréparables. Ce procès, une première en Europe, met en lumière les failles présumées du géant des réseaux sociaux en matière de modération de contenus, et soulève des questions cruciales sur la responsabilité des plateformes vis-à-vis des utilisateurs mineurs.
Des contenus nocifs associés à des drames familiaux
L’action en justice, portée devant le tribunal judiciaire de Créteil, accuse TikTok d’avoir exposé des adolescents à des vidéos promouvant le suicide, l’automutilation et des troubles alimentaires via son algorithme de recommandation. Selon l’avocate des familles, Laure Boutron-Marmion, l’algorithme de TikTok, conçu pour maximiser l’engagement, aurait ainsi poussé certains jeunes vers des contenus hautement dangereux. Deux des adolescents concernés se seraient suicidés à l’âge de 15 ans, un drame qui, selon leurs parents, aurait pu être évité si TikTok avait mieux contrôlé les contenus diffusés sur sa plateforme.
« Les parents souhaitent que la responsabilité juridique de TikTok soit reconnue. Il s’agit d’une société qui propose un produit aux consommateurs, dont beaucoup sont mineurs. Elle doit donc répondre des lacunes de ce produit », a déclaré Maître Boutron-Marmion dans un entretien à franceinfo.
TikTok, un réseau social déjà sous pression
Cette affaire intervient dans un contexte où TikTok et d’autres plateformes de réseaux sociaux sont de plus en plus scrutées pour leur rôle dans la santé mentale des jeunes utilisateurs. Comme Meta, qui possède Facebook et Instagram, TikTok fait face à des centaines de poursuites judiciaires aux États-Unis. Ces actions en justice allèguent que les plateformes exploitent la vulnérabilité des jeunes pour augmenter leur dépendance, avec des impacts négatifs sur leur santé mentale. Les parents et experts de santé dénoncent notamment la manière dont les algorithmes exploitent les fragilités psychologiques des adolescents pour augmenter leur engagement, sans prise en compte des effets délétères que ces contenus peuvent engendrer.
Si TikTok n’a pas immédiatement répondu aux accusations des familles françaises, l’entreprise a déjà affirmé qu’elle prenait au sérieux les problèmes de santé mentale chez les jeunes. Cette année, son CEO, Shou Zi Chew, a assuré aux législateurs américains que TikTok avait investi dans des mesures de protection pour ses jeunes utilisateurs, bien que les critiques jugent souvent ces efforts insuffisants.
Le rôle controversé des algorithmes
Au cœur de ce débat se trouve l’algorithme de recommandation de TikTok, conçu pour suggérer aux utilisateurs des vidéos en fonction de leurs intérêts. Si cette fonctionnalité est prisée pour sa capacité à personnaliser l’expérience utilisateur, elle peut aussi amplifier des contenus nuisibles, en particulier pour les jeunes en situation de fragilité psychologique. Les adolescents peuvent être exposés de manière répétée à des contenus similaires, renforçant ainsi leur vulnérabilité face à des sujets délicats comme la dépression, l’anxiété ou les troubles alimentaires.
Des organisations de santé mentale et des spécialistes ont maintes fois alerté sur les risques de l’exposition à des contenus de ce type. Les vidéos de conseils pour perdre du poids de manière extrême ou celles traitant de l’automutilation peuvent sembler anodines pour certains utilisateurs, mais peuvent profondément marquer et influencer les jeunes les plus fragiles.
Une première action de groupe en Europe
Cette plainte collective représente un précédent juridique en Europe, où la réglementation autour de la responsabilité des plateformes de réseaux sociaux reste en évolution. La procédure engagée par ces familles françaises pourrait ainsi constituer un cas exemplaire dans le cadre des discussions sur la législation numérique européenne. Alors que le Digital Services Act (DSA) a récemment été adopté par l’Union européenne pour renforcer les obligations des plateformes en matière de modération et de transparence, ce type de procès pourrait renforcer la pression pour davantage de régulation.
« Les entreprises comme TikTok doivent être tenues responsables des contenus qu’elles diffusent, surtout lorsqu’il s’agit de mineurs », plaide Maître Boutron-Marmion. Les familles espèrent que ce procès contribuera à faire reconnaître le besoin d’une surveillance accrue des réseaux sociaux, en particulier pour les utilisateurs les plus vulnérables.
Une réponse attendue de TikTok
Si TikTok réaffirme régulièrement son engagement pour protéger les jeunes utilisateurs, les critiques soulignent que les mesures mises en place, comme la possibilité de restreindre certains contenus ou de définir des limites de temps, restent largement insuffisantes face à l’ampleur du problème. Le réseau social est aussi accusé de ne pas faire assez pour empêcher l’apparition de contenus sensibles, ou de permettre aux utilisateurs d’interagir de manière sécurisée.
Le procès en cours pourrait pousser l’entreprise à revoir ses pratiques et ses algorithmes de recommandation. Pour les parents concernés, il ne s’agit pas seulement d’une affaire de régulation, mais d’un enjeu de santé publique. En attendant la décision du tribunal, ce cas relance le débat sur la responsabilité des réseaux sociaux dans la protection des jeunes utilisateurs et pourrait bien marquer un tournant dans la régulation des géants de la technologie en Europe.