Site icon Freenews

La régulation européenne de l’IA : les géants de la tech en mode défense

Les plus grandes entreprises technologiques mondiales redoublent d’efforts pour influencer la réglementation de l’intelligence artificielle en Europe, face à la perspective de sanctions financières massives. En mai dernier, l’Union européenne a adopté la première législation mondiale visant à encadrer cette technologie en pleine expansion : la loi sur l’IA. Cependant, les détails du texte, notamment concernant les systèmes d’IA « à usage général » comme ChatGPT d’OpenAI, restent flous, laissant place à des incertitudes pour les entreprises quant aux implications concrètes.

L’objectif de la loi sur l’IA est de garantir que les systèmes d’intelligence artificielle respectent des normes éthiques et légales strictes. Mais cette régulation soulève de nombreuses questions pour les entreprises. En effet, la loi prévoit des sanctions allant jusqu’à 6 % du chiffre d’affaires mondial des contrevenants, ce qui pourrait représenter des milliards d’euros pour des entreprises comme Google, Meta ou Amazon. Ces géants craignent que la législation, si elle est appliquée de manière trop stricte, freine l’innovation et entraîne une fragmentation du marché européen.

Le code de pratique, un équilibre délicat à trouver

L’UE a sollicité près de 1 000 experts, universitaires, entreprises et organisations à but non lucratif pour participer à la rédaction du code de pratique. Ce document, bien qu’il ne soit pas juridiquement contraignant, servira de guide aux entreprises pour démontrer leur conformité à la législation. En pratique, cela signifie que les entreprises qui prétendent suivre la loi sans respecter ce code pourraient être exposées à des actions juridiques. Le code inclura des obligations de transparence sur l’utilisation des données pour entraîner les modèles d’IA, ce qui inquiète particulièrement les entreprises qui se défendent en invoquant la protection des secrets commerciaux.

Des sociétés comme OpenAI et Stability AI, qui utilisent des données massives pour entraîner leurs modèles, ont déjà été interpellées sur la question de savoir si l’exploitation d’œuvres protégées par le droit d’auteur, telles que des livres ou des images, constitue une violation légale. La loi sur l’IA pourrait donc ouvrir la voie à des demandes de compensation de la part de créateurs dont les œuvres auraient été utilisées sans autorisation.

Le bras de fer avec les géants de la tech

Des entreprises comme Google, Amazon et Meta ont toutes exprimé leur volonté de participer aux groupes de travail de l’UE afin de façonner le code de pratique. Boniface de Champris, un responsable de l’organisation commerciale CCIA Europe, qui représente ces entreprises, a souligné que ce code était déterminant pour permettre aux entreprises de continuer à innover. Il met en garde contre une réglementation trop stricte, qui pourrait paralyser le secteur.

En revanche, des organisations à but non lucratif, comme la Fondation Mozilla, qui défend des pratiques éthiques et transparentes en matière de technologie, craignent que les grandes entreprises ne cherchent à diluer les exigences de transparence du code. Maximilian Gahntz, responsable de la politique d’IA à Mozilla, estime que la loi sur l’IA représente la meilleure opportunité pour exiger des entreprises qu’elles révèlent les données utilisées pour former leurs modèles et ainsi percer la « boîte noire » des systèmes d’IA.

Un combat pour l’innovation européenne

Le contexte européen est également marqué par un besoin croissant de stimuler l’innovation technologique locale pour concurrencer les États-Unis et la Chine. L’ancien président de la Banque centrale européenne, Mario Draghi, a récemment appelé l’UE à adopter une politique industrielle plus coordonnée et à accroître les investissements dans la technologie. La Commission européenne doit donc trouver un équilibre entre protection des consommateurs et stimulation de l’innovation, ce qui n’est pas sans rappeler le dilemme auquel elle a déjà été confrontée lors de l’adoption du Règlement général sur la protection des données (RGPD).

Une fois le code publié, les entreprises technologiques auront jusqu’en août 2025 pour se conformer aux nouvelles règles. Mais le chemin vers la mise en œuvre de cette réglementation sera semé d’embûches. Les grandes entreprises technologiques locales espèrent que des ajustements seront apportés au code pour soutenir l’émergence de champions européens de l’IA, tandis que les acteurs mondiaux cherchent à éviter des restrictions trop contraignantes.

En fin de compte, cette loi européenne sur l’IA pourrait bien devenir une référence mondiale, influençant la manière dont les technologies émergentes sont encadrées dans d’autres régions. Le défi pour l’UE sera de créer un cadre qui protège les droits des citoyens tout en permettant à l’innovation de prospérer.

Quitter la version mobile