Selon des informations relayées par Numerama, Meta prévoit d’utiliser divers types de contenus partagés sur Facebook et Instagram pour entraîner ses outils d’IA, et notamment au niveau :
- Des textes et statuts partagés par les utilisateurs.
- Des images et descriptions associées.
- Des communications envoyées à une IA, à Meta, à des comptes professionnels et dans les fonctionnalités publiques.
- Des réponses et interactions sur les publications.
- Des enregistrements vocaux partagés sur les plateformes.
- Des informations contextuelles associées aux contenus partagés.
Les utilisateurs, qui ont été destinataires d’un message de la part de Meta ont la possibilité de s’opposer à l’utilisation de leurs données personnelles en remplissant un formulaire distinct pour chaque réseau social, mais même en refusant, Meta pourra utiliser des données où les utilisateurs sont identifiés par d’autres, ce qui pose tout de même de nombreuses difficultés et pas des moindres.
Les dangers de cette mesure.
Ils sont plusieurs et de nature différente, ce qui est bien le problème de la mise en place de ce système qui s’attaque à plusieurs socles en même temps.
Des atteintes à la vie privée.
L’utilisation extensive des données personnelles, y compris les messages privés, les photos et les enregistrements vocaux, pour entraîner des modèles d’IA soulève de sérieuses préoccupations quant à la vie privée, d’autant que les utilisateurs peuvent ne pas être pleinement conscients de l’ampleur des données collectées et de leur utilisation.
Par ailleurs, la nécessité de remplir des formulaires distincts pour chaque réseau social complique le processus pour les utilisateurs souhaitant s’opposer à l’utilisation de leurs données. Cette complexité est susceptible de dissuader les utilisateurs de prendre les mesures nécessaires pour protéger leurs informations personnelles. Et ça, il est compliqué de l’entendre.
Un manque de transparence et la complexité de la procédure de refus de Meta.
L’accumulation de grandes quantités de données personnelles pour entraîner des modèles d’IA pourrait également devenir une cible attractive pour les cybercriminels. Hypothèse d’école : en cas de fuite de données, les conséquences pour les utilisateurs peuvent être graves, y compris le vol d’identité et autres abus.
Tout ceci sans négliger un impact psychologique et social fort : savoir que ses interactions, même privées, sont utilisées pour entraîner des IA peut créer un sentiment d’invasion de la vie privée et de surveillance constante, affectant la confiance des utilisateurs envers les plateformes de Meta.
Des risques notables en termes de sécurité ou d’abus potentiels.
Bien au delà, même si un utilisateur refuse explicitement l’utilisation de ses données, Meta peut toujours utiliser des données où cet utilisateur est identifié par d’autres, comme des photos ou des mentions dans des publications. Cela crée une zone grise où le consentement n’est pas pleinement respecté, compromettant la confidentialité des informations des utilisateurs.
Meta doit fournir des explications claires et détaillées sur la manière dont les données seront utilisées, les types de modèles d’IA développés, et les implications pour la vie privée des utilisateurs. Or, l’absence de transparence peut augmenter la méfiance des utilisateurs et des régulateurs.
Ce n’est pas tout, il existe un risque que les données collectées soient utilisées de manière abusive, soit par Meta, soit par des tiers, pour des fins non autorisées ou malveillantes.
Pour finir, cette mesure peut entraîner une réaction négative de la part des utilisateurs, incluant la méfiance envers la plateforme, une diminution de l’engagement et un abandon potentiel des services de Meta.
La nouvelle politique de Meta concernant l’utilisation des données personnelles pour entraîner ses outils d’IA présente donc plusieurs dangers majeurs, qui s’étendent de l’atteinte à la vie privée, au manque de transparence, en passant par la complexité du processus de refus, les risques de sécurité et d’abus ou bien encore les impacts psychologiques et sociaux, qui sont autant de préoccupations qui doivent être adressées.
Si Meta n’adopte pas des mesures pour garantir le consentement éclairé des utilisateurs, améliorer la transparence et renforcer la sécurité des données c’est la confiance de ses utilisateurs via le respect de normes éthiques et légales, qui risque sérieusement d’en pâtir.
Source Numera.