Le DSA, Digital Services Act, dont l’objectif principal est de lutter contre la diffusion de contenus illicites et de désinformation sur le net, est entré en vigueur le 17 février dernier, a pour objectif de lutter contre la propagation de contenus illicites, de désinformation sur le web.
Les plateformes sont bien évidemment visées par ce texte, qui réclame plus de transparence quant à leur usage et notamment l’accès de plus en plus libre et simplifié enfants aux appareils numériques tels que smartphones ou bien encore tablettes.
Il est impératif de réagir et de les protéger avec des outils adaptés selon Grazia Cecere, Professeure à Institut Mines-Télécom Business School, spécialiste de l’économie numérique, qui décrypte cette nouvelle législation dans le cadre d’une étude.
Le Digital Services Act : acteurs concernés, objectifs et mesures mises en place
L’ensemble des mesures qui ont été prises dans le cadre du projet définitif, sont destinées à être appliquées aux gatekeepers, c’est à dire les infrastructures web de grande envergure, supportant plus de 45 millions d’européens par mois, et expressément visées par la Commission Européenne.
TikTok, Facebook, AirBnB sont concernées.
Mais si certaines sociétés sont pointées du doigt, cette réglementation intéresse l’ensemble des plateformes en ligne accessibles aux mineurs.
Celles-ci ont désormais l’obligation de mettre en place un dispositif approprié, garantissant la confidentialité, la sécurité et la sûreté des mineurs qui sont parvenus à se connecter à l’ensemble des services ; les dispositions prises interdisent par exemple la soumission aux mineurs, de publicités ciblées basées sur le recueil de données personnelles comme : origine ethnique, idées politiques, ou bien encore l’orientation sexuelle.
Même le système connaît par la mise en place du Digital Service Acts, des évolutions majeurs garantissant un minimum de protection à l’égard des mineurs, cette protection restait perfectible et les dangers toujours présents.
Coercition et prévention.
Désormais, d’un point de vue préventif, les plateformes comme les moteurs de recherche, auront l’obligation de mettre en place une série de mesures adaptées, de manière à limiter de manière plus vaste les risques encourus par les mineurs sur le net (vérification de l’âge, mise en place d’outils de contrôle parental ou d’outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien…).
Côté sanction, là également les mesures doivent être renforcées, avec en cas de défaut de respect, des sanctions lourdes pour les plateformes contrevenantes.
« Le problème principal concerne donc les entreprises ciblées : les petites entreprises (entreprises de moins de 50 salariés et de moins de 10 millions d’euros de chiffre d’affaires annuel) sont moins visées par la régulation. Or, dans le marché des applications mobiles pour enfants il y a beaucoup de développeurs de petite taille » indique Grazia Cecere dans le cadre de cette étude.
Au-delà de la limitation nécessaire des risques pour garantir une protection optimale des mineurs sur les réseaux et le net de manière plus générale, c’est l’éducation qui demeure la composante essentielle du système de prévention comme de sanction.
A problème particulier solution adaptée et un vrai marché à prendre pour les entreprises, notamment dans la création de contenus adaptés pour les enfants, respectant l’ensemble des éléments intéressant leur vie privée comme la réglementation, de manière à leur offrir un accès de meilleure qualité.