Le conseil de surveillance de Facebook lui demande de clarifier sa politique de modération

225

Le conseil de surveillance de Facebook a  rendu ses premières décisions sur la très controversée politique de modération du réseau social, mais des interrogations subsistent sur la portée réelle de ce conseil des sages au-delà d’une poignée de contentieux. L’instance indépendante a jugé «vagues» certaines règles de la plateforme et annulé quatre décisions de supprimer des contenus d’utilisateurs, sur cinq cas examinés. Elle a par exemple demandé à Facebook de remettre la photo d’un sein (publiée dans le cadre d’une campagne sur le dépistage du cancer), selon un communiqué publié jeudi dernier. Elle a aussi tranché en faveur d’un utilisateur français qui évoquait un prétendu scandale à l’Agence nationale du médicament, le régulateur du secteur de la santé, et jugeait que l’hydroxychloroquine pouvait sauver des vies, dans un groupe consacré au Covid-19. Pour Facebook, cette publication présentait «un risque imminent (…) de danger physique», mais pour le conseil de surveillance, le règlement du site sur la désinformation et le danger physique imminent étaient «indûment vagues». Les membres du conseil de surveillance – des personnalités de la société civile – sont chargés d’évaluer des décisions de la plateforme sur certains contenus jugés problématiques. Leurs décisions sont contraignantes et ils espèrent, à travers leurs recommandations, faire jurisprudence sur les questions majeures qui taraudent le réseau. Facebook est tiraillé depuis des années entre respect de la liberté d’expression et nécessité de protéger les individus des incitations à la violence, harcèlement en ligne et autres publications qui peuvent rendre la plateforme infréquentable pour certains utilisateurs, et donc pour les annonceurs. La poignée de 1ers cas dont s’est saisi le conseil concerne 4 continents – Europe, Amérique du Nord, Asie et Amérique du Sud – et des  situations géopolitiques comme les tensions politiques en Birmanie ou le conflit entre l’Azerbaïdjan et l’Arménie. Il s’agit de contenus publiés en octobre et novembre, supprimés par Facebook pour avoir enfreint ses règles sur les discours de haine, les organisations dangereuses ou encore la nudité. Le groupe californien a indiqué avoir déjà rétabli 3 contenus. «Le conseil soulève des préoccupations légitimes quand il dit que nous pourrions être plus transparents sur nos règles concernant la désinformation et le Covid-19», a admis Monika Bickert, une vice-présidente de Facebook. Elle a déclaré que les recommandations auraient un «impact durable», mais a aussi précisé que l’approche du réseau sur la nécessité de fournir des informations correctes sur le coronavirus, approuvées par les organisations de santé, «ne changerait pas». Le fondateur et patron de Facebook, Mark Zuckerberg, avait annoncé fin 2019 ce projet d’une sorte de «Cour suprême», ayant le dernier mot sur les contenus controversés sur Facebook et Instagram. Elle a vu le jour fin 2020, mais beaucoup d’observateurs estiment que son influence réelle sera limitée. «Aucun conseil ne peut remplacer un contrôle véritablement indépendant, ancré dans l’Etat de droit. Ne nous laissons pas distraire par un petit nombre de cas triés sur le volet et à portée limitée», a tweeté Marietje Schaake, une directrice du centre de recherche sur les technologies et la gouvernance de l’université Stanford. «C’est de la surveillance de pacotille», a renchéri une association anti-Facebook, ironiquement baptisée «Real Facebook Oversight Board» («Véritable Conseil de surveillance de Facebook»). Le conseil «ne va pas s’attaquer de façon significative aux très nombreux torts facilités par Facebook», a-t-elle assuré, évoquant la présence sur Facebook de groupes d’extrême droite violents, décidés à en découdre avec le gouvernement américain.