Dans une décision qui devrait faire date, une Cour d’Appel américaine a relancé une procédure judiciaire contre TikTok initiée par la mère d’une fillette de 10 ans décédée après avoir participé à un dangereux « défi blackout » viral. Ce défi, popularisé sur la plateforme, incitait les utilisateurs à se priver d’air jusqu’à l’évanouissement.
L’article 230 d’un texte intitulé « Loi sur la décence des communications » de 1996, protège les entreprises internet contre les poursuites liées au contenu publié par leurs utilisateurs. Cependant, une Cour d’Appel américaine basée à Philadelphie, a énoncé mardi que ce texte dans les circonstances de l’espèce et notamment dans le cas où l’algorithme de TikTok aurait activement recommandé ce défi à Nylah Anderson, la fillette décédée ne pouvait être appliqué.
Un précédent juridique qui devrait peser de son poids
La juge en charge du dossier, Patty Shwartz, statuant au sein d’une formation collégiale composée de trois magistrats, a déclaré que l’article 230 protègeait uniquement les informations fournies par des tiers, et non les recommandations de contenu effectuées par un algorithme appartenant à la plateforme elle-même. La décision rendue marque une rupture avec les jugements précédents, qui ont jusqu’à présent généralement accordé une immunité aux plateformes en ligne, les exonérant de toute responsabilité pour ne pas avoir empêché la diffusion de messages nuisibles par leurs utilisateurs.
Ce revirement judiciaire s’aligne sur une récente décision de la Cour suprême des États-Unis, qui a statué que l’algorithme d’une plateforme détermine un choix éditorial, un « discours de l’entreprise », et n’est donc pas couvert par l’article 230. En d’autres termes, en recommandant activement certains contenus, TikTok est considéré comme ayant créé son propre discours, non protégé par la loi initiale et cette distinction est d’importance majeure.
Des actions similaires engagées en France pour alerter sur les dangers des réseaux sociaux
Ce débat juridique trouve un écho en France, où les actions se multiplient pour réguler l’influence des réseaux sociaux, en particulier concernant la sécurité des adolescents. Des incidents tragiques, similaires à celui de Nylah Anderson, ont déclenché une mobilisation accrue des parents, des autorités et des organisations pour la protection de la jeunesse. En effet, les plateformes numériques sont de plus en plus critiquées pour leur rôle dans la propagation de défis dangereux et de contenus potentiellement traumatisants, suscitant des appels à une réglementation plus stricte.
En France, la question des suicides d’adolescentes, liés à des interactions toxiques sur les réseaux sociaux, a mis en avant la nécessité de responsabiliser les géants du numérique. Les législateurs français envisagent par ailleurs des mesures pour obliger les plateformes à surveiller et modérer activement les contenus susceptibles de nuire aux jeunes utilisateurs, reflétant ainsi les préoccupations exprimées notamment dans le cas de Nylah Anderson.
Un signal fort adressé aux géants de la Tech
Cette décision de la Cour d’Appel de Philadelphie représente une remise en question significative de l’immunité presque totale dont jouissaient jusqu’ici les géants de la technologie. En rejetant la décision antérieure qui avait écarté la responsabilité de TikTok, la Juridiction ouvre la voie à une prise en compte plus large des responsabilités des plateformes pour les contenus qu’elles mettent en avant.
Pour Tawainna Anderson, la mère de Nylah, cette décision est une étape majeure vers la Justice pour sa fille. Son avocat, Jeffrey Goodman, a salué la décision en déclarant que « Big Tech vient de perdre sa carte ‘sortie de prison gratuite' ». Il souligne que si TikTok, motivé par le profit, choisit de promouvoir des contenus susceptibles de mettre en danger la vie des enfants, il ne peut pas réclamer une immunité légale non prévue par le Congrès.
Le juge Paul Matey, dans un avis publié similaire, a critiqué TikTok pour avoir priorisé les profits au détriment des valeurs éthiques, en mettant en avant des contenus qui exploitent les vulnérabilités des jeunes utilisateurs.
Cette décision pourrait bien marquer un tournant dans la manière dont les plateformes de médias sociaux sont tenues responsables des contenus qu’elles promeuvent, tant aux États-Unis qu’en France, et pourrait inciter les législateurs du monde entier à revoir les lois en vigueur pour mieux protéger les usagers, en particulier les plus jeunes, des dangers du monde numérique.