Meta : L'étude interne sur l'addiction aux algorithmes MSI étouffée par la direction
Meta aurait délibérément ignoré des recherches internes alarmantes sur l'addiction générée par ses algorithmes. Une stratégie visant à protéger les métriques de croissance au détriment de la santé mentale, soulignant l'opacité critique des modèles propriétaires face à la santé publique.

Une recherche interne "trop" pertinente
Les documents récemment mis en lumière révèlent que les chercheurs en science des données de Meta avaient identifié des corrélations directes entre les mécanismes de récompense variable des interfaces (Infinite Scroll, Pull-to-refresh) et des comportements compulsifs chez les jeunes utilisateurs.
L'étude, centrée sur le protocole MSI (Meaningful Social Interaction), visait initialement à améliorer la qualité des échanges. Cependant, les résultats ont démontré que le réglage fin de ces algorithmes pour maximiser la rétention (L7, ou usage 7 jours sur 7) entraînait une dégradation des fonctions exécutives chez les adolescents. Plutôt que d'ajuster le code, la direction aurait choisi de "dé-prioriser" ces travaux.
Métriques de rétention vs Santé cognitive
La confrontation technique entre les objectifs commerciaux et les découvertes des chercheurs peut se résumer ainsi :
Algorithme MSI : Conçu pour favoriser les interactions (commentaires, partages), il a mécaniquement amplifié les contenus clivants et addictifs.
Variable Reward Schedule : Un mécanisme de renforcement psychologique intégré dans le code pour déclencher des pics de dopamine.
Time Spent vs Well-being : Un arbitrage constant où le "temps passé" (KPI majeur de Meta) l'a systématiquement emporté sur les scores internes de bien-être.
Black Box : L'absence d'accès aux APIs de recherche pour les tiers a permis de dissimuler ces données pendant plusieurs années.
Souveraineté numérique et mur du propriétaire
Cet incident illustre parfaitement le danger des systèmes propriétaires fermés. Contrairement à une approche Open Source ou à un audit de code ouvert, les algorithmes de Meta fonctionnent comme une boîte noire. La souveraineté numérique des utilisateurs est ici bafouée : ils sont soumis à des mécanismes d'influence sans aucune possibilité de contrôle ou de compréhension des leviers psychologiques activés.
Cette rétention d'information pose la question d'une régulation stricte, imposant la transparence des algorithmes de recommandation, notamment via le DSA (Digital Services Act) en Europe, pour forcer l'ouverture de ces données de recherche aux autorités indépendantes.