Facebook a longtemps lutté pour contrôler les contenus extrémistes sur sa plateforme. Depuis les élections américaines de 2016, où les Russes ont pu manipuler les électeurs américains grâce à des publicités polarisantes, jusqu’à la propagande qui s’est répandue sur le réseau social et qui a conduit à la violence au Myanmar.
Un nouveau rapport de Jeff Horwitz et Deepa Seetharaman publié dans le Wall Street Journal suggère que Facebook savait que son algorithme divisait les gens, mais n’a pas fait grand-chose pour résoudre le problème. Il note qu’une des présentations internes de l’entreprise de 2018 a illustré comment l’algorithme de Facebook aggravait le comportement polarisant dans certains cas.
Une diapositive de cette présentation indiquait que si ces algorithmes n’étaient pas contrôlés, ils alimenteraient les utilisateurs avec un contenu plus diviseur :
Nos algorithmes exploitent l’attrait du cerveau humain pour la division. Nos algorithmes exploitent l’attrait du cerveau humain pour la division. Si ces algorithmes ne sont pas contrôlés, Facebook alimenterait les utilisateurs avec un contenu de plus en plus divisible dans le but d’attirer l’attention des utilisateurs et d’augmenter le temps passé sur la plateforme.
Selon le WSJ, Zuckerberg & Co. a mis cette présentation de côté et a décidé de ne pas appliquer ses observations à aucun des produits du réseau social. De plus, Joel Kaplan, le chef de la politique de Facebook, a pensé que ces changements pourraient avoir affecté les utilisateurs et les publications conservateurs.
Dans une déclaration, Facebook a déclaré qu’il avait beaucoup appris depuis 2016 et qu’il avait mis en place une solide équipe d’intégrité pour s’attaquer à ces problèmes :
Nous avons beaucoup appris depuis 2016 et nous ne sommes plus la même entreprise aujourd’hui. Nous avons constitué une solide équipe d’intégrité, renforcé nos politiques et nos pratiques pour limiter les contenus préjudiciables, et utilisé la recherche pour comprendre l’impact de notre plateforme sur la société afin de continuer à nous améliorer.
Cependant, le rapport du WSJ note que même avant que l’entreprise ne forme cette équipe, une chercheuse de Facebook nommée Monica Lee a découvert en 2016 que “64 % de toutes les adhésions à des groupes extrémistes sont dues à nos outils de recommandation”.
Facebook a même cherché à s’attaquer au problème de la polarisation en proposant des idées telles que le réglage de son algorithme, et des sous-groupes temporaires pour accueillir des discussions animées. Cependant, ces concepts ont été rejetés parce qu’ils étaient “anti-croissance”.
En fin de compte, le réseau social n’a pas fait grand-chose, en faveur du maintien du principe de la liberté d’expression – une valeur dont Zuckerberg a beaucoup parlé ces derniers temps.
Au début de ce mois, Facebook a nommé son conseil de surveillance – la Cour suprême, si vous voulez, qui peut annuler la décision du réseau social sur la modération du contenu. Il est à espérer que l’entreprise sera disposée à partager ses recherches et ses enseignements avec le conseil d’administration, et n’attendra pas que quelqu’un lui signale d’abord les problèmes flagrants de ses produits.




