Accueil Technologie Facebook Conseil de surveillance de Facebook - un grand pas pour Facebook, un...

Conseil de surveillance de Facebook – un grand pas pour Facebook, un petit pas pour la liberté d’expression

Le 6 mai, le Conseil de surveillance de Facebook (FOB) a annoncé les noms de sa première cohorte de 20 membres, un nombre qui devrait passer à 40. Il s’agit d’une étape importante dans le développement par Facebook d’un mécanisme externe pour superviser ses pratiques de modération de contenu. Un grand nombre des membres nouvellement nommés ont contribué de manière significative à la protection de la liberté d’expression et d’autres droits fondamentaux dans le monde. Leur réputation étant en jeu, on peut espérer que le conseil d’administration s’efforcera de demander des comptes à Facebook, et que la liberté d’expression sera mieux protégée sur la plateforme.

Le FOB est une amélioration par rapport à la pratique actuelle qui consiste à laisser les entreprises de médias sociaux décider elles-mêmes de ce que les gens peuvent voir en ligne, en appliquant des règles de contenu souvent vagues et peu transparentes. En confiant à un groupe d’experts indépendants les décisions difficiles en matière de modération des contenus, on peut espérer obtenir de meilleurs résultats pour la liberté d’expression. Le FOB est donc une expérience qui mérite d’être suivie.

Toutefois, l’ARTICLE 19 invite à la prudence en supposant que la Commission peut régler tous les problèmes de droits de l’homme présentés par Facebook. Pour commencer, son mandat et ses pouvoirs sont intrinsèquement limités. Des questions plus larges concernant l’impact des médias sociaux sur la liberté d’expression, telles que le modèle économique de Facebook, la promotion ou le déclassement de contenu et, au moins pour l’instant, la publicité politique, sont hors limites. De même, le FOB est conçu spécifiquement pour traiter uniquement les questions de modération de contenu sur Facebook et son autre plateforme Instagram. Au-delà de ses attributions limitées, le FOB est inévitablement un moyen pour Facebook d’acquérir la légitimité dont il a cruellement besoin et de montrer aux législateurs que l’autorégulation à la Facebook peut fonctionner. Elle contribuera également à détourner l’attention de Facebook des décisions difficiles en matière de modération de contenu. Il y a donc toutes les raisons d’être sceptique.

Le FOB ne peut être qu’une toute petite partie de la réponse à l’énigme de la modération de contenu. C’est pourquoi nous aimerions voir une approche plus globale de la protection de la liberté d’expression en ligne adoptée par les entreprises, y compris Facebook, ainsi que par d’autres parties prenantes. Des changements dans l’approche des entreprises en matière de transparence et de responsabilité, la dissociation de la modération de contenu et de l’hébergement, et le développement d’organes de contrôle indépendants fondés sur les lois sur les droits de l’homme sont tous nécessaires pour apporter une véritable réponse aux risques croissants pour les droits de l’homme présentés par le modèle actuel de médias sociaux.

Limites du conseil de surveillance
Une évaluation approfondie de la FOB devra attendre qu’elle adopte ses premières décisions plus tard dans l’année. À ce stade, il est important d’être clair sur ce que l’on peut attendre de ce nouvel organisme. Le FOB a le pouvoir d’examiner les décisions individuelles de modération de contenu liées au contenu de Facebook ou d’Instagram (c’est-à-dire les “messages, photos, vidéos et commentaires spécifiques”) et de produire des décisions contraignantes dans ces cas uniquement. En revanche, toute modification recommandée des politiques de contenu de Facebook n’est pas contraignante.

A lire  UE - Les plateformes de médias sociaux devraient fournir un rapport mensuel sur les actions menées pour lutter contre les fausses informations
A lire  Facebook construit un robot pour le déploiement de fibres aériennes

La capacité du FOB à traiter les questions de droits de l’homme soulevées par les pratiques de modération de contenu est également limitée de plusieurs autres manières importantes :

Le FOB appliquera les normes décidées en dernier ressort par Facebook. La mission du Conseil est d’appliquer les normes de la communauté Facebook, et plus vaguement ses “valeurs”, un ensemble de règles qui ne répondent déjà pas aux exigences des normes internationales et qui peuvent être révisées à tout moment par Facebook. Si la Commission est invitée à examiner l’impact des décisions relatives au contenu sur la liberté d’expression, il ne lui est pas demandé d’appliquer les normes relatives aux droits de l’homme aux décisions, ce qui signifie que sa capacité à influencer les protections des droits de l’homme dans la modération du contenu des médias sociaux est limitée. Il est à espérer que l’expertise de certains membres de la FOB en matière de droit international des droits de l’homme éclairera le travail de la FOB. De même, nous espérons que le Conseil fera à Facebook des recommandations fondées sur les droits de l’homme qu’il prendra réellement en compte. Néanmoins, le FOB est un instrument qui applique les normes de Facebook, ce qui nuance certainement la revendication au cœur de la création du Conseil, à savoir qu’il ne devrait pas appartenir à Facebook ou à Mark Zuckerberg de prendre unilatéralement des décisions sur le contenu qui peut circuler dans l’espace public le plus large du monde.
Le mandat et la capacité du FOB sont limités. Le FOB est constitué d’un groupe d’experts à temps partiel qui sera chargé d’examiner une fraction incroyablement petite des milliards de contenus qui sont retirés de la plateforme sur la base des normes de la communauté Facebook. Dans ces circonstances, l’impact des décisions de la Commission sur l’approche globale de Facebook reste incertain. Il n’est pas clair comment le FOB pourra sélectionner efficacement les cas et identifier ceux qui méritent davantage son attention parce qu’ils soulèvent des questions nouvelles ou systémiques d’intérêt public. En pratique, par exemple, les décisions concernant les discours de haine dépendent souvent beaucoup du contexte, de sorte qu’il sera probablement difficile de sélectionner un cas comme étant plus digne d’attention et de créer un précédent clair. Si Facebook peut être en mesure d’identifier des problèmes systémiques par le biais de sa procédure de recours interne et de les soumettre à la Commission, il n’est pas clair comment la Commission elle-même pourra passer au crible des millions de recours individuels potentiels. Au-delà de la sélection des cas, plusieurs questions de procédure pourraient limiter la capacité de la Commission à examiner efficacement les décisions de Facebook, notamment le manque de motivation des décisions de Facebook et son large pouvoir discrétionnaire dans l’application de ses propres règles. Bien que les règlements promettent une justification politique des décisions, il n’est pas clair comment cela se passera lorsque le contenu est retiré sur la base de filtres, par exemple. Pour que les décisions puissent être contestées efficacement, leur raison d’être doit être comprise. Dans ces circonstances, il reste à voir exactement quel matériel sera examiné par le FOB pour décider des affaires.
Le FOB n’est pas encore suffisamment représentatif. Bien que les membres du FOB puissent collectivement prétendre représenter un certain nombre de pays et parler une liste impressionnante de langues, ils sont principalement issus des États-Unis et de l’Europe, ce qui, espérons-le, sera corrigé lors du prochain cycle de recrutement du Conseil. Certains ont également souligné le manque d’expertise en matière de modération de contenu à l’échelle ou de défenseurs énergiques des questions LGBTQI. En tant qu’organe central et mondial chargé de revoir les décisions de modération de contenu sur une plateforme mondiale, ce petit groupe d’experts apparaîtra inévitablement comme un interlocuteur distant et hors de portée pour la majorité des utilisateurs de Facebook. En outre, la résolution de tout cas de modération de contenu exige une compréhension détaillée de la langue, de la culture, de la politique et de l’histoire du contexte dans lequel le litige se déroule. Dans la pratique, le FOB sera-t-il en mesure de développer une vision bien informée des circonstances complexes d’un cas, afin d’adopter des décisions crédibles et convaincantes ?

A lire  Facebook supprime des dizaines de comptes utilisés par les employés du président brésilien et Trump
A lire  Des numéros WhatsApp rendus publics, rien d'anormal pour Google

Au-delà du conseil de surveillance de Facebook
Il est donc clair que la FOB ne peut pas fournir une solution globale aux problèmes de protection des droits de l’homme sur les médias sociaux. Alors que peut-on faire d’autre ? ARTICLE 19 estime qu’il existe un certain nombre d’approches aux problèmes de la modération des contenus qui sont mieux adaptées pour assurer la protection globale de la liberté d’expression et des autres droits fondamentaux en ligne.

Au minimum, des changements fondamentaux dans l’approche d’entreprises comme Facebook sont nécessaires. Facebook doit améliorer la clarté et le détail de ses normes communautaires, afin de mieux les aligner sur les lois internationales en matière de droits de l’homme, et être beaucoup plus transparent, notamment par le partage de données plus complètes sur ses décisions et processus de modération de contenu. Nous faisons également campagne en faveur d’un élargissement et d’une amélioration de sa procédure d’appel, afin de donner aux utilisateurs plus de pouvoir pour contester les enlèvements injustifiés.

A lire  Quel est le rapport entre Facebook et Donald Trump ?

Au-delà de cela, nous préconisons une forme complète de décentralisation connue sous le nom de dégroupage. Le “regroupement” de différents services par les sociétés de médias sociaux dominantes est ce qui leur permet d’avoir un degré de contrôle aussi important sur la liberté d’expression en ligne. En contrôlant à la fois l’hébergement du contenu sur une plateforme et les décisions relatives à la modération de ce contenu, les entreprises sont en mesure d’exercer un pouvoir considérable et largement inexplicable sur ce que nous disons en ligne, et les alternatives qui pourraient offrir une meilleure protection de nos droits sont empêchées d’entrer sur le marché. Le dégroupage fait référence à la séparation des services d’hébergement et de modération de contenu. Grâce au dégroupage, les plateformes de médias sociaux dominantes seraient toujours en mesure de modérer le contenu sur leurs plateformes, mais elles seraient également obligées de permettre à leurs concurrents de fournir des services de modération de contenu concurrents sur leurs plateformes. Cela donnerait aux utilisateurs un plus grand choix quant au type de contenu qu’ils souhaitent pouvoir afficher et voir sur leurs médias sociaux, et permettrait probablement l’émergence de nouveaux fournisseurs qui protègent mieux les droits à la liberté d’expression et à la vie privée.

En outre, ARTICLE 19 soutient la création d’organismes plus indépendants et plus complets pour superviser les pratiques de modération de contenu, sous la forme de conseils des médias sociaux (SMC). Les SMC sont un mécanisme de conformité volontaire, transparent et multipartite qui superviserait les pratiques de modération de contenu des plateformes de médias sociaux sur la base des normes internationales en matière de droits de l’homme.

A lire  TikTok contre Facebook - Les États-Unis pourraient-ils vraiment interdire TikTok ?

Si la proposition d’ARTICLE 19 de créer des conseils de médias sociaux présente des similitudes avec le FOB, elle en diffère sensiblement en ce sens que les SMC sont fondés sur les normes internationales en matière de droits de l’homme, sont totalement indépendants de toute entreprise, ont des normes élevées d’ouverture et de transparence, et fonctionneront à proximité des utilisateurs locaux et de la complexité des contextes dans lesquels les décisions de modération de contenu sont prises.

À un moment où les initiatives législatives s’appuient souvent sur des mécanismes d’autorégulation (dans un cadre juridique de corégulation) pour traiter un certain nombre de questions complexes relatives aux contenus en ligne, nous pensons que le SMC offre un modèle qui garantit pleinement la protection du droit fondamental à la liberté d’expression.

En fin de compte, donc, si la création du FOB marque un progrès significatif de la part de Facebook, ce n’est qu’un petit pas vers la protection effective de la liberté d’expression et d’autres droits en ligne.

Laisser un commentaire

Please enter your comment!
Please enter your name here

les + lus

Les utilisateurs de WhatsApp peuvent désormais faire leurs achats directement depuis les chats

Facebook a fait un grand effort pour étendre ses fonctions de shopping à toute sa gamme d'applications. Facebook...

La Chine et Huawei déplacent des centres de données dans des collines creusées

Quanchao Technology, un site d'information technologique chinois, a publié des photos d'une montagne creusée que Huawei a transformée en un centre...

La mise à jour 1.2 de The Outer Worlds Switch améliore les graphismes

La mise à jour 1.2 d'Outer World Switch a été publiée. Elle vise à améliorer les performances et les visuels du...

Google va désormais permettre aux utilisateurs de gérer l’accès aux fichiers Google Drive directement depuis Gmail

Cette fonction fonction fonctionnera pour les utilisateurs de Gmail sur le web, sur Android et sur iOS Google...

Nous utilisons des cookies pour vous offrir la meilleure expérience en ligne. En acceptant, vous acceptez l'utilisation de cookies conformément à notre politique de confidentialité des cookies.

Privacy Settings saved!
Paramètres de confidentialité

Lorsque vous visitez un site Web, il peut stocker ou récupérer des informations sur votre navigateur, principalement sous la forme de cookies. Contrôlez vos services de cookies personnels ici.

Veuillez noter que les cookies essentiels sont indispensables au fonctionnement du site, et qu’ils ne peuvent pas être désactivés.

Pour utiliser ce site Web, nous utilisons les cookies suivant qui sont techniquement nécessaires
  • wordpress_test_cookie
  • wordpress_logged_in_
  • wordpress_sec

Pour des raisons de performance, nous utilisons Cloudflare en tant que réseau CDN. Cela enregistre un cookie "__cfduid" pour appliquer les paramètres de sécurité par client. Ce cookie est strictement nécessaire pour les fonctionnalités de sécurité de Cloudflare et ne peut pas être désactivé.
  • __cfduid

Refuser tous les services
Accepter tous les services
error: