Le conseil de surveillance de Meta a exhorté l’entreprise à clarifier ses règles concernant les représentations sexuellement explicites générées par l’IA, en particulier celles impliquant des personnes réelles. Cette demande fait suite à la constatation que les politiques actuelles de Meta ne sont « pas suffisamment claires » pour interdire efficacement ces contenus.
Lors de la conférence Meta Connect à Menlo Park, le CEO de Meta, Mark Zuckerberg, a prononcé un discours, alors que les lettres « AI » pour l’intelligence artificielle apparaissaient à l’écran. Cette image de l’événement, capturée le 27 septembre 2023, illustre l’importance croissante de l’IA pour l’entreprise.
Le conseil de surveillance de Meta, bien que financé par le géant des médias sociaux, fonctionne de manière indépendante. Il a rendu sa décision après avoir examiné deux cas de contrefaçons pornographiques de femmes célèbres créées à l’aide de l’intelligence artificielle et publiées sur Facebook et Instagram.
Réaction de Meta et recommandations du conseil
Meta a indiqué qu’elle examinerait les recommandations du conseil et mettrait à jour ses politiques en conséquence. Le conseil de surveillance n’a pas révélé l’identité des deux femmes impliquées, les désignant simplement comme des personnalités publiques de l’Inde et des États-Unis, par souci de protection de la vie privée.
Les deux images en question violaient la règle de Meta interdisant le « photoshop sexualisé désobligeant », classée comme une forme d’intimidation et de harcèlement. Le conseil a critiqué Meta pour ne pas avoir supprimé ces images rapidement. Dans le cas de la personnalité indienne, Meta n’a pas traité un rapport utilisateur dans les 48 heures, ce qui a conduit à la fermeture automatique du ticket sans action. Ce n’est qu’après l’intervention du conseil que Meta a supprimé l’image.
Un appel à une révision des politiques
Le conseil de surveillance a recommandé à Meta de mettre à jour ses règles pour mieux couvrir un large éventail de techniques d’édition, y compris l’IA générative. Il a également critiqué Meta pour ne pas avoir ajouté l’image de la personnalité indienne à une base de données qui permet des retraits automatiques, comme cela a été fait pour la personnalité américaine.
Meta a expliqué qu’elle se basait sur la couverture médiatique pour décider d’ajouter des images à cette base de données, une pratique jugée « inquiétante » par le conseil. « De nombreuses victimes de deepfakes intimes ne sont pas sous les projecteurs et sont contraintes de tolérer la diffusion non consensuelle de leurs représentations ou de rechercher et signaler chaque cas », a déclaré le conseil de surveillance.
Cette situation met en lumière les défis auxquels Meta est confrontée pour gérer les contenus générés par l’IA, tout en soulignant l’importance de politiques claires et efficaces pour protéger les utilisateurs.