Vu sur Facebook

Facebook teste la possibilité d’alerter les usagers sur les contenus extrémistes

Ce nouveau dispositif pourrait demander aux utilisateurs de prévenir le réseau social si leurs amis deviennent radicaux. Les opposants dénoncent un «environnement orwellien».

Facebook a commencé à tester une nouvelle fonctionnalité d’alertes demandant notamment aux utilisateurs s’ils pensent que leurs amis deviennent extrémistes, suscitant l’inquiétude vendredi des conservateurs américains.

Le porte-parole de Facebook, Andy Stone, a expliqué sur Twitter qu’il s’agissait d’une initiative du réseau social visant à combattre l’extrémisme violent. Selon Facebook, les fonctions de «Redirect Initiative» visent à orienter les personnes utilisant des termes de recherche liés à la haine ou à la violence vers des ressources ou groupes d’éducation ou de sensibilisation.

Suprématie blanche
Ainsi, selon Facebook, les recherches en lien avec la suprématie blanche aux États-Unis sont dirigées vers le groupe Life After Hate qui s’est donné pour but d’aider les gens à quitter les groupes d’extrême droite, en particulier suprémacistes.

Les captures des alertes partagées sur Twitter montrent des messages demandant aux utilisateurs s’ils craignent qu’une de leurs connaissances devienne extrémiste ou s’ils ont été eux-mêmes exposés à des contenus extrémistes. Ils ont alors la possibilité de cliquer sur un lien pour «avoir de l’aide» ou de fermer le pop-up.

«Je suis très préoccupé par le fait que certains technocrates de gauche créent un environnement orwellien où les gens sont arbitrairement réduits au silence ou bannis pour avoir dit quelque chose que la ‘police de la pensée’, n’aime pas», s’est inquiété Nicholas Freitas, un Républicain de Virginie, qui a partagé une de ces alertes Facebook sur Twitter. Facebook et d’autres plateformes en ligne font l’objet de pressions pour mettre un terme à la diffusion de fausses informations qui peuvent conduire à des violences.

Civilité
Le réseau social a récemment renforcé ses outils automatiques pour aider les modérateurs des groupes qui s’efforcent de maintenir la civilité des échanges. Les outils automatiques de Facebook vérifient les publications dans les groupes et fils d’actualités qui violent les règles de la plateforme en matière de contenu acceptable.

En juin, Facebook a suspendu l’ancien président américain Donald Trump pour deux ans pour avoir encouragé ses partisans lors de l’attaque du Capitole du 6 janvier à Washington.

Digital Manager - Chef de projet chez Alixcom Dakar | E-mail: saliou@dakar-echo.com | +221 77 962 92 15

Articles Similaires

1 sur 8

Laisser une réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *