La question des données personnelles et de leur utilisation dans le développement de l’intelligence artificielle (IA) est devenue un enjeu majeur pour les régulateurs, notamment en Europe. En réponse à des préoccupations croissantes concernant la confidentialité et l’usage des informations des utilisateurs, l’Union européenne a engagé une nouvelle enquête à l’encontre de Google, un géant mondial de la tech.
L’enquête, menée par l’autorité irlandaise de protection des données (DPC), a pour objectif d’examiner si Google a respecté ses obligations en matière de Règlement général sur la protection des données (RGPD) dans l’utilisation des données personnelles pour entraîner ses modèles d’IA.
Il s’agit notamment de déterminer si l’entreprise a réalisé une étude d’impact sur ces pratiques, une exigence légale cruciale pour protéger les droits des utilisateurs. Google est ainsi accusé de ne pas avoir correctement évalué l’impact de l’utilisation des données avant de s’en servir pour développer ses technologies d’IA, notamment son modèle PaLM 2 lancé en 2023.
Cette enquête survient alors que l’utilisation de l’IA générative s’intensifie. Depuis le lancement de ChatGPT, les géants de la tech multiplient les efforts pour développer des modèles d’IA toujours plus performants, capables de produire du texte, des images et même du code à partir de simples requêtes en langage naturel. Dans cette dynamique, Google, tout comme ses concurrents tels que Meta et X (anciennement Twitter), cherche à maximiser l’exploitation des données personnelles pour enrichir ses algorithmes.
Un enjeu clé dans cette bataille est la question de la souveraineté des données. L’utilisation des informations personnelles sans transparence, et parfois sans le consentement explicite des utilisateurs, soulève des préoccupations importantes quant à la protection de la vie privée. C’est précisément sur ce terrain que l’Union européenne, avec son cadre législatif du RGPD, cherche à imposer des garde-fous. Les régulateurs européens, notamment en Irlande où se trouve le siège de nombreuses grandes entreprises technologiques, ont intensifié leurs actions pour freiner des pratiques jugées abusives.
Google mais pas que …
Il est intéressant de noter que Google n’est pas seul à être visé par ces enquêtes. Des entreprises comme Meta ont également fait face à des sanctions et des interdictions concernant l’utilisation des données pour alimenter leurs IA. Meta, par exemple, a dû suspendre en juin 2023 son projet d’IA baptisé LLaMA en Europe à la suite d’une intervention de l’association autrichienne Noyb, une organisation de défense des droits numériques.
Au-delà de la question des données personnelles, cette enquête souligne également la complexité juridique entourant la régulation des géants de la tech. Les procédures, souvent longues, permettent aux entreprises de continuer à opérer dans des zones grises. Cela crée un déséquilibre, les régulateurs peinant à suivre le rythme effréné de l’innovation technologique.
Celle nouvelle enquête sur Google est un détail dans une lutte plus large pour encadrer l’usage des données personnelles dans le développement de l’IA, tout en s’efforçant de protéger les droits des citoyens européens. Cette régulation reste un enjeu majeur pour l’UE face à des entreprises multinationales puissantes et technologiquement avancées, dont les pratiques commerciales sont en constante évolution.