Seize entreprises leaders dans le développement de l’intelligence artificielle ont pris un engagement significatif lors d’une réunion mondiale ce mardi, visant à développer cette technologie de manière sécurisée. Cette initiative intervient alors que les régulateurs peinent à suivre le rythme effréné des innovations et des risques émergents liés à l’IA.
Des engagements mondiaux pour une IA sécurisée
Parmi les entreprises présentes, on retrouve les géants américains Google, Meta, Microsoft, et OpenAI, ainsi que des entreprises de Chine, de Corée du Sud et des Émirats arabes unis. Cette coalition a été soutenue par une déclaration plus large du Groupe des Sept (G7) grandes économies, de l’Union Européenne, de Singapour, de l’Australie et de la Corée du Sud, lors d’une réunion virtuelle organisée par le Premier ministre britannique Rishi Sunak et le président sud-coréen Yoon Suk Yeol.
Les participants ont souligné l’importance de prioriser la sécurité, l’innovation et l’inclusion dans le développement de l’IA. Le président sud-coréen Yoon Suk Yeol a exprimé ses préoccupations concernant les risques tels que les deepfakes, soulignant la nécessité de protéger le bien-être et la démocratie de la société. Les pays présents ont accepté de donner la priorité à ces aspects dans leurs futurs développements technologiques.
Interopérabilité et gouvernance internationale : les engagements des entreprises internationales
L’une des principales conclusions de cette réunion a été la nécessité d’assurer l’interopérabilité entre les cadres de gouvernance. Les participants ont discuté des plans pour un réseau d’instituts de sécurité et de l’importance d’engager des organismes internationaux pour renforcer la sécurité de l’IA.
Les entreprises participantes, y compris Zhipu.ai (soutenu par Alibaba), Tencent, Meituan, Xiaomi, l’Institut d’innovation technologique des Émirats arabes unis, Amazon, IBM, et Samsung Electronics, se sont engagées à publier des cadres de sécurité pour évaluer les risques, éviter les modèles présentant des risques non atténuables, et assurer la transparence et la gouvernance.
Beth Barnes, fondatrice de METR, un groupe promouvant la sécurité des modèles d’IA, a souligné l’importance d’obtenir un accord international sur les « lignes rouges » pour éviter que le développement de l’IA ne devienne dangereusement incontrôlable. Yoshua Bengio, surnommé le « parrain de l’IA », a également salué ces engagements tout en insistant sur la nécessité de les accompagner d’une réglementation solide.
Vers une réglementation pratique
Depuis novembre, les discussions autour de la réglementation de l’IA ont évolué, passant de scénarios hypothétiques à long terme à des préoccupations plus concrètes, telles que l’utilisation de l’IA dans des domaines sensibles comme la médecine ou la finance. Aidan Gomez, cofondateur de la société de modèles linguistiques Cohere, a affirmé que ces discussions sont désormais plus axées sur des applications pratiques.
Bien que la Chine n’ait pas assisté à la session de mardi, elle a signé l' »accord de Bletchley » sur la gestion collective des risques liés à l’IA lors de la première réunion de novembre et participera à une session ministérielle en personne ce mercredi. Parmi les autres participants notables, on comptait Elon Musk de Tesla, l’ancien PDG de Google Eric Schmidt, et Jay Y. Lee de Samsung Electronics.
La prochaine réunion se tiendra en France, marquant ainsi la continuité des efforts internationaux pour une IA sûre et régulée
Ces engagements internationaux et les collaborations entre géants technologiques illustrent une prise de conscience accrue de la nécessité de réguler et de sécuriser le développement de l’IA. Alors que l’innovation continue à un rythme effréné, il est crucial de s’assurer que ces technologies sont développées de manière à protéger le bien-être public et à éviter les dangers potentiels.