L’essor de l’intelligence artificielle a ouvert un champ d’innovation sans précédent, mais il a aussi multiplié les risques d’abus. Google vient d’alerter les régulateurs australiens sur une réalité inquiétante : son IA, Gemini, a été utilisée pour générer des contenus à caractère terroriste et des deepfakes impliquant des enfants. Une première mondiale qui révèle l’ampleur du défi que pose l’IA générative et qui met la pression sur les grandes entreprises technologiques pour renforcer leurs dispositifs de sécurité.
Un rapport accablant sur l’usage détourné de l’IA
Google a soumis son rapport aux autorités australiennes dans le cadre de la réglementation sur la sécurité en ligne, qui oblige les entreprises tech à rendre compte des risques posés par leurs outils et des mesures mises en place pour les limiter.
D’avril 2023 à février 2024, Google a reçu 258 signalements d’utilisateurs affirmant que son IA avait été utilisée pour produire du contenu terroriste ou extrémiste violent. En parallèle, 86 autres plaintes ont été enregistrées concernant des abus sur mineurs et du contenu pédopornographique généré par l’IA.
Cette révélation a été qualifiée de « premier aperçu mondial » par la Commission australienne de sécurité électronique, qui souligne le manque criant de garde-fous sur ces technologies. Selon Julie Inman Grant, commissaire à la sécurité électronique australienne :
« Cela montre à quel point il est essentiel que les entreprises développant des produits d’IA intègrent et testent l’efficacité de protections pour empêcher la génération de contenus illégaux et nuisibles. »
Une modération insuffisante de la part de Google
Si Google affirme avoir mis en place des mesures de filtrage, les régulateurs pointent du doigt des failles inquiétantes.
En effet, concernant les contenus pédopornographiques, Google utilise une technologie de hachage automatique, qui permet de comparer les images générées à une base de données de contenus interdits. Dès qu’une correspondance est détectée, le contenu est supprimé.
Mais ce même dispositif n’est pas appliqué aux contenus terroristes et extrémistes violents générés par Gemini. Autrement dit, Google ne dispose pas encore d’un mécanisme automatisé efficace pour identifier et bloquer ces contenus.
Le géant de la tech n’a pas non plus précisé combien de ces signalements ont été confirmés, ce qui laisse planer un doute sur l’ampleur réelle du problème.
L’Australie à la pointe de la régulation des IA
Face à ces révélations, l’Australie durcit le ton. Contrairement à d’autres pays qui peinent à mettre en place un cadre législatif, le régulateur australien a déjà sanctionné plusieurs entreprises pour leur manque de transparence.
X (ex-Twitter) a d’ores et déjà écopé d’une amende de 610 500 dollars australiens (soit environ 382 000 dollars américains) pour ne pas avoir fourni des rapports détaillés sur la modération des contenus. L’entreprise d’Elon Musk a perdu son premier appel et prévoit de contester à nouveau la décision.
Parallèlement, Telegram est sous le coup d’une amende, qu’il compte lui aussi contester.
Avec ces sanctions, l’Australie envoie un message fort aux géants de la tech : ils seront tenus responsables des contenus générés par leurs plateformes et outils d’IA.
L’IA, un enjeu réglementaire mondial
L’enjeu dépasse effectivement largement l’Australie. Depuis l’explosion de ChatGPT fin 2022, les gouvernements du monde entiertentent de poser des garde-fous pour éviter que l’IA ne soit utilisée à des fins criminelles.
La prolifération des deepfakes à des fins de désinformation, de fraude et même de cybercriminalité pousse les régulateurs à agir. Plusieurs initiatives émergent, et notamment :
- L’adoption de l’IA actions par l’Union Européenne, qui impose des obligations strictes aux entreprises développant des IA à haut risque.
- Les États-Unis travaillent bien sur un cadre fédéral, mais l’industrie technologique tente de limiter l’ampleur des restrictions.
- L’ONU appelle à une coopération internationale pour empêcher l’IA de devenir une arme de propagande et de manipulation.
L’alerte de Google montre que le problème est déjà bien réel et que les garde-fous actuels ne sont pas suffisants.
Une responsabilité accrue des géants de l’IA ?
Ce rapport pointe clairement du doigt un paradoxe majeur : les entreprises développant des IA génératives accélèrent leur déploiement sans avoir des systèmes de sécurité réellement performants.
L’affaire met Google sous pression, mais la question concerne tous les acteurs du secteur. À mesure que l’IA devient plus puissante, les risques d’exploitation par des groupes terroristes ou criminels augmentent.
La régulation est donc inévitable, et les grandes plateformes doivent renforcer leurs outils de modération sous peine de voir les gouvernements imposer des restrictions plus strictes.
L’Australie ouvre la voie à une responsabilisation accrue des géants de la tech. Reste à voir si cette pression suffira à pousser Google, OpenAI et les autres acteurs de l’IA à mieux sécuriser leurs outils avant qu’un scandale de grande ampleur n’éclate.