Meta , a annoncé mercredi avoir découvert du contenu « probablement généré par l’IA » utilisé de manière trompeuse sur ses plateformes Facebook et Instagram. Ce contenu incluait des commentaires élogieux sur la gestion par Israël de la guerre à Gaza, publiés sous des messages provenant d’organisations de presse mondiales et de législateurs américains.
Dans son rapport trimestriel sur la sécurité, Meta a révélé que ces comptes se faisaient passer pour des étudiants juifs, des Afro-Américains et d’autres citoyens concernés, ciblant principalement des publics aux États-Unis et au Canada. La campagne a été attribuée à STOIC, une société de marketing politique basée à Tel Aviv. STOIC n’a pas immédiatement répondu aux allégations.
Il est crucial de noter que, bien que Meta ait déjà détecté des photos de profil générées par l’IA dans des opérations d’influence depuis 2019, c’est la première fois que la technologie d’IA générative basée sur le texte est identifiée dans une telle opération. L’IA générative, capable de produire rapidement et à moindre coût du texte, des images et de l’audio de type humain, suscite des inquiétudes parmi les chercheurs, car elle pourrait faciliter des campagnes de désinformation et influencer les élections de manière plus efficace.
Les mesures prises par Meta
Meta a affirmé que, malgré l’utilisation de nouvelles technologies d’IA, leur capacité à détecter et perturber ces réseaux d’influence n’a pas été compromise. Lors d’un appel de presse, les dirigeants de la sécurité de Meta ont souligné qu’ils avaient réussi à démanteler la campagne israélienne tôt. Mike Dvilyanski, responsable des enquêtes sur les menaces chez Meta, a déclaré : « Il y a plusieurs exemples sur ces réseaux de la façon dont ils utilisent des outils d’IA génératifs pour créer du contenu. Peut-être que cela leur donne la possibilité de le faire plus rapidement ou de le faire avec plus de volume. Mais cela n’a pas vraiment eu d’impact sur notre capacité à les détecter. »
Le rapport a mis en évidence six opérations d’influence secrètes perturbées au premier trimestre de l’année. Outre le réseau STOIC, Meta a également fermé un réseau basé en Iran axé sur le conflit Israël-Hamas, bien qu’aucune utilisation de l’IA générative n’ait été identifiée dans cette campagne.
Dans un contexte plus large
Meta et d’autres géants de la technologie luttent pour contrôler l’utilisation abusive des technologies d’IA, en particulier en période électorale. Les chercheurs ont trouvé des exemples de générateurs d’images de sociétés telles qu’OpenAI et Microsoft produisant des photos contenant de la désinformation liée au vote, malgré les politiques de ces entreprises contre un tel contenu.
Les entreprises se concentrent sur la mise en place de systèmes d’étiquetage numérique pour marquer le contenu généré par l’IA dès sa création, bien que ces outils présentent des limitations, notamment sur le texte.
Prochaines étapes
Meta devra tester l’efficacité de ses défenses lors des élections à l’Union européenne début juin et aux États-Unis en novembre. Les actions de Meta pour détecter et supprimer les contenus trompeurs générés par l’IA montrent un engagement à lutter contre les défis posés par les nouvelles technologies et à protéger l’intégrité de l’information.
Supprimer le contenu trompeur généré par l’IA empêche la propagation de fausses informations, ce qui est crucial pour maintenir une société bien informée et prévenir la manipulation de l’opinion publique.
En luttant contre les campagnes de désinformation, Meta aide à garantir que les élections et les débats publics restent libres et équitables, ce qui est essentiel pour la démocratie.
De la même manière, en prenant des mesures proactives contre les contenus trompeurs, Meta renforce la confiance des utilisateurs dans ses plateformes, montrant son engagement à fournir un environnement sûr et fiable.
Enfin, avec la surveillance et la réglementation de l’utilisation de l’IA, Meta montre qu’elle prend au sérieux les impacts éthiques et sociaux de la technologie, ce qui est important pour une adoption responsable et durable de l’IA.