La semaine dernière, Google a été confronté à des erreurs conséquentes générées par son nouvel outil d’intelligence artificielle, AI Overview. Contrairement à des chatbots comme Gemini ou Claude 3, AI Overview n’est pas conçu pour interagir directement avec les utilisateurs, mais s’intègre plutôt aux résultats de recherche de Google. Cet outil utilise l’intelligence artificielle pour créer des résumés des informations disponibles en ligne, visant à simplifier la recherche d’informations pour les utilisateurs.
Cependant, malgré cet objectif de simplification, AI Overview a produit des résultats imprévus et parfois surprenants, poussant Google à réagir promptement et à prendre des mesures pour éviter que cela ne se reproduise à l’avenir.
L’interprétation de l’algorithme en cause
Parmi les erreurs les plus notables d’AI Overview, certaines affirmations étranges ont particulièrement retenu l’attention. Liz Reid, responsable de la recherche chez Google, a reconnu ces erreurs jeudi dernier, déclarant : « Nous souhaitions éclaircir les causes de ces dysfonctionnements et exposer les mesures prises en conséquence. »
Reid a expliqué que certaines erreurs provenaient d’une mauvaise interprétation par l’algorithme de contenus satiriques et humoristiques. Par exemple, une recommandation insensée de consommer des pierres pour la santé émanait d’un article satirique publié sur un site humoristique, tandis que la suggestion d’utiliser de la colle non toxique pour épaissir une sauce à pizza provenait d’une analyse erronée de commentaires sarcastiques sur des forums de discussion, pris à tort comme des informations factuelles.
« Nous avons constaté que certaines synthèses réalisées par AI Overview intégraient de manière inopportune des contenus trollesques issus de ces forums. Les forums sont souvent une excellente source d’informations authentiques et de première main, mais ils peuvent parfois mener à des conseils peu utiles », a-t-elle expliqué.
Des améliorations techniques en cours
Google a souligné qu’il serait injuste de juger sévèrement son nouvel outil basé sur quelques captures d’écran virales. Liz Reid a mis en avant les tests approfondis réalisés avant le lancement d’AI Overview et les données internes montrant que les utilisateurs appréciaient cet outil, ces derniers restant plus longtemps sur les pages découvertes grâce aux synthèses générées par l’IA.
Reid a également déploré la diffusion massive de captures d’écran truquées prétendument issues des résumés de l’outil, comme celle suggérant qu’un cafard pouvait survivre dans un pénis, visionnée plus de cinq millions de fois sur X.com.
Pour corriger ces erreurs, Google a apporté une douzaine d’améliorations techniques. Parmi celles-ci figurent une meilleure détection des requêtes absurdes, une moindre dépendance aux contenus générés par les utilisateurs, une réduction du nombre de synthèses fournies lorsqu’elles ne sont pas pertinentes, et un renforcement des garde-fous sur les sujets sensibles comme la santé.
Un engagement pour l’avenir
Bien qu’il n’ait été mentionné aucune réduction du volume des résumés fournis par l’IA, Google a assuré qu’il resterait attentif aux retours des utilisateurs et ajusterait les fonctionnalités en conséquence. Liz Reid a précisé que bien que ces erreurs aient été plus amusantes qu’autre chose, il suffirait qu’une personne applique ce genre de conseils dangereux pour ternir l’image de l’entreprise. Elle a conclu en rappelant qu’il est important de ne jamais faire entièrement confiance aux compagnons IA du quotidien, quels qu’ils soient, et de toujours vérifier les informations auprès de sources fiables.