Soutenue par Microsoft, OpenAI s’est retrouvée lundi au centre d’une plainte pour violation de la vie privée déposée par le groupe de défense NOYB. La plainte concerne des informations incorrectes fournies par son chatbot d’IA génératif, ChatGPT, qui pourraient enfreindre les règles de confidentialité de l’UE.
Pour rappel, ChatGPT, qui a été à l’origine du boom de la GenAI à la fin de 2022, est capable d’imiter une conversation humaine et d’effectuer diverses tâches telles que la création de résumés de textes longs, la rédaction de poèmes, et même la génération d’idées pour des fêtes à thème. Certains l’utilisent pour des usages plus pros mais l’application a tout de même ses limites quand à la sémantique.
NOYB a déclaré que le plaignant, également une personnalité publique, a demandé à ChatGPT son anniversaire, et que le chatbot a fourni à plusieurs reprises des informations incorrectes au lieu de dire aux utilisateurs qu’il ne disposait pas des données nécessaires.
Le groupe a également déclaré qu’OpenAI avait refusé la demande du plaignant de corriger ou de supprimer les données, affirmant qu’il n’était pas possible de le faire et qu’il n’avait pas divulgué d’informations sur les données traitées, leurs sources ou leurs destinataires.
NOYB a déposé une plainte auprès de l’autorité autrichienne de protection des données, demandant une enquête sur le traitement des données par OpenAI et les mesures prises pour garantir l’exactitude des données personnelles traitées par les grands modèles linguistiques de l’entreprise.
« Les entreprises ne sont actuellement pas en mesure de rendre les chatbots comme ChatGPT conformes au droit de l’UE en matière de traitement des données sur les individus », a déclaré Maartje de Graaf, avocat en protection des données de NOYB, dans un communiqué. « Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur les individus. La technologie doit suivre les exigences légales, et non l’inverse. »
Par le passé, OpenAI a reconnu la tendance de l’outil à fournir des « réponses plausibles mais incorrectes ou non sensées », un problème qu’il juge difficile à résoudre.
OpenAI est assez lucide sur ses propres limites …
Nous avons posé la question à OpenAI quant à ses limites sur le traitement de l’information.. et la réponse a été sans appel puisque le bot lui même l’a admis, précisant que :
« ChatGPT, comme tout modèle d’IA, présente certaines limites dans le traitement de l’information, notamment :
- Compréhension limitée du contexte : Bien que ChatGPT puisse générer des réponses cohérentes dans de nombreux cas, il peut parfois manquer de compréhension du contexte global ou de nuances subtiles présentes dans une conversation. Cela peut conduire à des réponses incorrectes ou inappropriées, en particulier dans des situations complexes ou ambiguës.
- Sensibilité aux données d’entraînement : Les performances de ChatGPT dépendent largement des données sur lesquelles il a été formé. Si les données d’entraînement sont biaisées ou incomplètes, cela peut affecter la qualité des réponses fournies par le modèle.
- Tendance à produire des réponses non vérifiées : ChatGPT a la capacité de générer du texte de manière autonome, sans vérification préalable des faits. Par conséquent, il peut parfois produire des réponses qui sont plausibles mais incorrectes, ce qui peut conduire à la diffusion de désinformation ou de fausses informations.
- Difficulté à interagir avec des questions complexes : Bien que ChatGPT soit capable de répondre à un large éventail de questions et de sujets, il peut rencontrer des difficultés lorsqu’il est confronté à des questions très techniques, ambiguës ou nécessitant une compréhension approfondie du sujet.
- Manque de conscience de soi : Contrairement aux humains, ChatGPT ne possède pas de conscience de soi ni de compréhension de sa propre existence. Par conséquent, il peut manquer de discernement dans ses réponses et ne pas être en mesure de reconnaître ses propres limites ou erreurs.
En résumé, bien que ChatGPT soit un outil puissant pour générer du texte de manière automatisée, il présente des limites importantes en termes de compréhension contextuelle, de fiabilité des informations et d’interactions complexes, ce qui nécessite une utilisation prudente et critique de ses résultats ».
2 commentaires
Bonjour,
J’apprécie votre travail qui me donne toujours envie de suivre les publications de Freenews mais je me pose quelques questions:
– vous écrivez « Soutenue par Microsoft, OpenAI » : faut-il comprendre que Microsoft soutient OpenAI ou la plainte ?
– vous écrivez « Nous avons posé la question à OpenAI » : Freenews a donc les contacts nécessaires pour entrer en contact avec une entreprise de la table de OpenAI ?
Dans un précédent commentaire je regrettais le manque de sources citées.
Merci pour votre réponse.
Microsoft soutient open Ai et pour cause la société lui a versé 10 milliards USD l’an dernier.
Freenews n’a pas de contacts avec openAI le texte est en italique tout simplement parce que c’est issu d’un prompt lancé sur Chat GPT je pensais que c’était limpide.. et forcément à ce sujet là il n’y a pas de source. Je cite quand même régulièrement nos sources. Merci pour votre commentaire il nous pousse à nous améliorer 🙂