Facebook savait que ses algorithmes favorisaient les groupes extrémistes, mais n’a rien fait

0
904

Facebook a longtemps lutté pour contrôler les contenus extrémistes sur sa plateforme. Depuis les élections américaines de 2016, où les Russes ont pu manipuler les électeurs américains grâce à des publicités polarisantes, jusqu’à la propagande qui s’est répandue sur le réseau social et qui a conduit à la violence au Myanmar.

Un nouveau rapport de Jeff Horwitz et Deepa Seetharaman publié dans le Wall Street Journal suggère que Facebook savait que son algorithme divisait les gens, mais n’a pas fait grand-chose pour résoudre le problème. Il note qu’une des présentations internes de l’entreprise de 2018 a illustré comment l’algorithme de Facebook aggravait le comportement polarisant dans certains cas.

Une diapositive de cette présentation indiquait que si ces algorithmes n’étaient pas contrôlés, ils alimenteraient les utilisateurs avec un contenu plus diviseur :

A lire  Facebook acquiert Giphy dans le cadre d'un accord de 400 millions de dollars

Nos algorithmes exploitent l’attrait du cerveau humain pour la division. Nos algorithmes exploitent l’attrait du cerveau humain pour la division. Si ces algorithmes ne sont pas contrôlés, Facebook alimenterait les utilisateurs avec un contenu de plus en plus divisible dans le but d’attirer l’attention des utilisateurs et d’augmenter le temps passé sur la plateforme.

Selon le WSJ, Zuckerberg & Co. a mis cette présentation de côté et a décidé de ne pas appliquer ses observations à aucun des produits du réseau social. De plus, Joel Kaplan, le chef de la politique de Facebook, a pensé que ces changements pourraient avoir affecté les utilisateurs et les publications conservateurs.

Dans une déclaration, Facebook a déclaré qu’il avait beaucoup appris depuis 2016 et qu’il avait mis en place une solide équipe d’intégrité pour s’attaquer à ces problèmes :

A lire  UE - Les plateformes de médias sociaux devraient fournir un rapport mensuel sur les actions menées pour lutter contre les fausses informations

Nous avons beaucoup appris depuis 2016 et nous ne sommes plus la même entreprise aujourd’hui. Nous avons constitué une solide équipe d’intégrité, renforcé nos politiques et nos pratiques pour limiter les contenus préjudiciables, et utilisé la recherche pour comprendre l’impact de notre plateforme sur la société afin de continuer à nous améliorer.

Cependant, le rapport du WSJ note que même avant que l’entreprise ne forme cette équipe, une chercheuse de Facebook nommée Monica Lee a découvert en 2016 que “64 % de toutes les adhésions à des groupes extrémistes sont dues à nos outils de recommandation”.

Facebook a même cherché à s’attaquer au problème de la polarisation en proposant des idées telles que le réglage de son algorithme, et des sous-groupes temporaires pour accueillir des discussions animées. Cependant, ces concepts ont été rejetés parce qu’ils étaient “anti-croissance”.

A lire  Facebook Gaming ne sera pas intégré dans le tableau de bord Xbox comme Mixer

En fin de compte, le réseau social n’a pas fait grand-chose, en faveur du maintien du principe de la liberté d’expression – une valeur dont Zuckerberg a beaucoup parlé ces derniers temps.

Au début de ce mois, Facebook a nommé son conseil de surveillance – la Cour suprême, si vous voulez, qui peut annuler la décision du réseau social sur la modération du contenu. Il est à espérer que l’entreprise sera disposée à partager ses recherches et ses enseignements avec le conseil d’administration, et n’attendra pas que quelqu’un lui signale d’abord les problèmes flagrants de ses produits.

Laisser un commentaire

Please enter your comment!
Please enter your name here