Facebook ajoute un outil qui renforce la modération des fausses informations dans ses groupes

311

Meta a ajouté jeudi un outil qui permet aux administrateurs de groupes Facebook de filtrer automatiquement les contenus qui ont été reconnus comme de fausses informations, à l’approche des élections de mi-mandat américaines, propices aux vagues de désinformation sur le réseau social. «Pour s’assurer que les contenus soient plus fiables (…), les administrateurs de groupe peuvent automatiquement mettre en attente les messages contenant des informations établies comme fausses par les vérificateurs tiers, afin de pouvoir les examiner avant de les supprimer», a expliqué Tom Alison, le directeur de l’application Facebook, dans un communiqué jeudi. 

La plateforme avait déjà donné plus d’outils aux responsables de groupes pour mieux modérer les contenus, mais reste accusée par de nombreuses ONG et autorités de ne pas lutter suffisamment contre la désinformation. Plus d’1,8 milliard de personnes utilisent les groupes Facebook tous les mois. Parents d’élèves, fans d’artistes et voisins s’y retrouvent pour échanger des nouvelles et organiser des activités, mais aussi pour discuter de politique. Meta s’est vu reprocher de ne pas suffisamment policer des groupes qui ont contribué à la radicalisation politique de certains individus, notamment lors des élections américaines de 2020.

L’Agence France-Presse participe dans une trentaine de pays au «Third party fact-checking», programme de vérification par des tiers développé par Facebook depuis 2016.Une soixantaine de médias à travers le monde, généralistes ou spécialisés, font également partie de ce programme. Si une information est diagnostiquée comme fausse ou trompeuse par l’un de ces médias, les utilisateurs de Facebook sont moins susceptibles de la voir apparaître dans leur fil d’actualité. Et si ceux-ci la voient ou tentent de la partager, Facebook leur suggère la lecture de l’article de vérification.