Les efforts d’OpenAI pour aligner les résultats de son chatbot ChatGPT avec les exigences de l’Union Européenne en matière de protection des données restent insuffisants, selon un rapport du groupe de travail du « chien de garde » de la protection de la vie privée de l’UE. Malgré les mesures prises pour améliorer la transparence et éviter les mauvaises interprétations, ChatGPT ne parvient toujours pas à respecter pleinement le principe d’exactitude des données.
Les mesures de conformité et leurs limites
OpenAI a mis en place plusieurs mesures pour se conformer aux règles de l’UE, en particulier en ce qui concerne la transparence des résultats produits par ChatGPT. Ces mesures visent à garantir que les utilisateurs comprennent mieux les limites et la nature des informations fournies par le chatbot. Cependant, le groupe de travail de l’UE souligne que ces efforts ne suffisent pas à assurer que les données générées soient exactes.
Or, le principe d’exactitude des données est central dans la législation de l’UE sur la protection des données. Ce qui signifie que les informations traitées doivent être correctes et, si nécessaire, mises à jour. En raison de la nature probabiliste des modèles d’IA comme ChatGPT, il est difficile d’assurer une précision constante et sans biais.
Le rapport indique par ailleurs, que la formation actuelle de l’IA peut conduire à des résultats biaisés ou inexacts, ce qui pose un problème majeur de conformité.
Enquêtes et prochaines étapes
Les enquêtes menées par les régulateurs nationaux de la protection de la vie privée dans plusieurs États membres sont encore en cours. Ces enquêtes, initiées après que l’autorité italienne ait soulevé des préoccupations concernant ChatGPT, visent à évaluer en profondeur les pratiques d’OpenAI et leur conformité aux règles de l’UE.
Leur résultats formeront un « dénominateur commun » des préoccupations des autorités nationales.
Les conclusions préliminaires du groupe de travail de l’UE mettent en évidence plusieurs défis, notamment la tendance des utilisateurs à considérer les résultats de ChatGPT comme factuellement exacts, indépendamment de leur véracité réelle. Cette perception erronée peut avoir des conséquences significatives, en particulier lorsque des informations inexactes ou biaisées sont diffusées.
La situation actuelle pose plusieurs défis pour OpenAI et les régulateurs européens
OpenAI devra notamment explorer de nouvelles méthodes pour améliorer la précision des informations générées par ChatGPT. Cela pourrait inclure des techniques de formation avancées et des mécanismes de correction des biais.
Or, bien que des efforts aient été faits pour améliorer la transparence, OpenAI doit intensifier ses efforts pour éduquer les utilisateurs sur la nature probabiliste de l’IA et les limites potentielles de la précision des résultats.
De surcroît, OpenAI devra collaborer étroitement avec les régulateurs européens pour assurer une conformité continue et répondre aux préoccupations soulevées par les enquêtes en cours, ce qui pourrait impliquer des ajustements réguliers et des rapports de conformité.
Les utilisateurs doivent toutefois être mieux informés et sensibilisés à la manière de vérifier les informations fournies par ChatGPT. Une meilleure éducation sur l’utilisation responsable des technologies d’IA est essentielle.
En conclusion, bien qu’OpenAI ait pris des mesures pour améliorer la conformité de ChatGPT aux règles de l’UE, des défis subsistent, notamment en matière d’exactitude des données. Les prochaines étapes impliqueront des efforts continus pour affiner la technologie et collaborer avec les régulateurs pour garantir que les principes directeurs de la protection des données de l’UE soient pleinement respectés.