Le 19 novembre, Instagram, propriété du géant Meta, a annoncé une nouvelle fonctionnalité permettant aux utilisateurs de réinitialiser leur algorithme de recommandation. En pratique, cela signifie que chacun pourra effacer les contenus recommandés dans les sections Explorer, Reels et le fil d’actualité pour repartir de zéro. Actuellement en phase de test auprès d’un public restreint, cette fonctionnalité sera déployée à l’échelle mondiale dans les prochaines semaines, selon un communiqué publié par la plateforme.
Un contrôle apparent sur les recommandations
L’objectif affiché par Instagram est de redonner du pouvoir aux utilisateurs sur les contenus qu’ils consomment, en permettant une personnalisation progressive des recommandations, basée sur les nouvelles interactions. L’accès à cette fonctionnalité sera simple : un nouvel onglet dans les paramètres, intitulé Préférences en matière de contenu, permettra d’effacer les recommandations algorithmiques. Une fois cette réinitialisation effectuée, elle sera irréversible, mais elle n’aura aucun impact sur les comptes suivis ni sur les préférences publicitaires.
En parallèle, Instagram offre la possibilité de se désabonner de comptes trop visibles ou de signaler des thématiques publicitaires indésirables. Si cette initiative semble prometteuse, elle soulève aussi de nombreuses interrogations, tant sur son efficacité que sur ses limites structurelles.
Une initiative axée sur les adolescents
Meta cible principalement les adolescents, un public particulièrement vulnérable aux contenus inappropriés ou nuisibles. La fonctionnalité s’inscrit dans une série d’initiatives prises par le groupe pour sécuriser l’expérience des 13-17 ans. En septembre, Instagram avait déjà imposé des réglages limitant l’exposition à certains contenus et facilitant la sélection de catégories jugées plus saines.
Ce positionnement n’est pas sans rappeler les efforts de TikTok, qui, en mars, avait introduit une fonctionnalité similaire, accompagnée d’un ajustement de ses politiques de recommandation. La plateforme chinoise avait notamment promis de limiter la visibilité de vidéos sexuellement suggestives, de contenus liés à la tristesse ou de messages promouvant des comportements alimentaires extrêmes, souvent accusés de fragiliser la santé mentale des jeunes utilisateurs.
Les problèmes sous-jacents de l’algorithme
Cependant, cette nouvelle fonctionnalité, bien que bienvenue, pose plusieurs problèmes.
L’algorithme, conçu pour maximiser l’engagement, tend à favoriser les contenus polarisants, sensationnalistes ou émotionnellement marquants. Même après une réinitialisation, les mécanismes sous-jacents de l’algorithme pourraient reproduire ces biais, simplement sur la base de nouvelles interactions.
Si l’initiative semble rendre le contrôle aux utilisateurs, elle pourrait se révéler plus cosmétique que véritablement transformative. La réinitialisation ne remet pas en cause les modèles économiques des plateformes, qui reposent sur la captation de l’attention et la monétisation des comportements en ligne.
Les adolescents, particulièrement ciblés par cette fonctionnalité, restent exposés à des contenus potentiellement nocifs par d’autres biais, notamment via des publicités ou des comptes suivis influents. La suppression des recommandations ne garantit pas une expérience numérique saine.
Une réponse insuffisante aux critiques réglementaires
Les réseaux sociaux, sous pression des régulateurs et des experts en santé mentale, sont sommés de mieux encadrer leurs algorithmes. Les initiatives comme celles d’Instagram ou TikTok ne résolvent qu’une partie du problème : elles laissent intacte la structure même de ces plateformes, fondée sur l’optimisation de l’engagement au détriment d’une réelle sécurité numérique.
Pour être pleinement efficaces, ces mesures devraient s’accompagner de mécanismes plus transparents sur la collecte des données et d’un contrôle externe des processus algorithmiques. La réinitialisation, telle qu’elle est proposée, ne remet pas en cause les fondements du modèle d’affaires.
Une avancée à relativiser
La nouvelle fonctionnalité d’Instagram, bien qu’innovante, reste une réponse partielle aux préoccupations croissantes sur l’impact des algorithmes sur la santé mentale, notamment celle des adolescents. Si elle offre une opportunité de repartir à zéro, elle ne traite pas des causes profondes de la surconsommation de contenus problématiques.
En définitive, cette initiative souligne un effort pour améliorer l’expérience utilisateur, mais laisse entière la question de la responsabilité des plateformes face aux dérives de leurs algorithmes. Loin d’être une solution miracle, elle doit être perçue comme une étape vers une nécessaire refonte des pratiques des réseaux sociaux.