Google Bard n’est pas encore disponible en Europe car il n’est pas conforme à la législation sur la protection de la vie privée. La société de Mountain View semble également consciente des risques, car elle a conseillé aux employés de faire preuve de prudence lorsqu’ils utilisent Bard et d’autres chatbots.
Samsung et Apple ont de leur côté, complètement interdit l’utilisation de l’IA générative pour éviter la divulgation d’informations confidentielles.
Google confirme les risques de confidentialité
Google a développé son chatbot pour rattraper OpenAI et surtout Microsoft et la Firme de Mountain View a promis de développer l’intelligence artificielle de manière responsable, mais a souligné qu’il s’agissait d’une technologie expérimentale, ce qui signifie qu’il peut fournir des informations incorrectes.
Google aurait cependant conseillé aux employés de ne pas utiliser de documents confidentiels comme invites. Ces informations pourraient probablement être fournies par Bard et d’autres chatbots en réponse aux demandes des utilisateurs. La FAQ de Bard indique d’ailleurs clairement de ne pas inclure d’informations pouvant être utilisées pour vous identifier ou identifier d’autres personnes dans les conversations.
L’une des fonctionnalités annoncées est la possibilité de générer du code dans plus de 20 langages de programmation. Google a cependant conseillé aux ingénieurs de ne pas utiliser de code généré par Bard, car il pourrait être erroné.
À ce stade, une question se pose. Si Google admet indirectement que Bard et d’autres chatbots posent un risque pour la vie privée, alors pourquoi les utilisateurs devraient-ils les utiliser?
Entre autres choses, la propre technologie de Bard sera intégrée dans le moteur de recherche. L’entreprise californienne a finalement confirmé l’ouverture d’un dialogue avec le garant irlandais de la vie privée qui a bloqué le lancement du chatbot en Europe.