Meta ne parvient pas à détecter les mèmes et les insinuations promouvant le négationnisme, conclut un comité de surveillance

(JTA) – Une publication Instagram utilisant un mème de Bob l’éponge pour promouvoir le négationnisme a réussi à échapper au système de suppression de ce contenu de Meta, soulevant des questions sur la capacité de l’entreprise à lutter contre certaines formes indirectes de discours de haine, a conclu un comité de surveillance indépendant dans une affaire publiée. Mardi.

Cette découverte fait suite à une analyse de la manière dont Meta a traité un article présentant un mème de Squidward, un personnage de la série de dessins animés Bob l’éponge, intitulé « Faits amusants sur l’Holocauste ». Une bulle à côté du personnage contenait des mensonges et des déformations sur l’Holocauste, notamment de fausses affirmations selon lesquelles 6 millions de Juifs n’auraient pas pu être assassinés et que les cheminées des crématoires d’Auschwitz n’auraient été construites qu’après la Seconde Guerre mondiale.

Malgré six plaintes d’utilisateurs qui ont généré quatre avis automatisés et deux évaluations humaines, la publication est restée en vigueur de septembre 2020 jusqu’à l’année dernière, lorsque le conseil de surveillance de Meta a décidé d’examiner la situation et que la société a ensuite annoncé que la publication avait violé sa politique contre les discours de haine. La publication a même survécu à deux plaintes d’utilisateurs survenues après l’adoption par Meta en octobre 2020 d’une nouvelle règle élargissant sa politique en matière de discours de haine pour interdire explicitement la négation de l’Holocauste.

Dans le cadre de son examen de l’affaire Bob l’éponge, le Conseil de surveillance a chargé une équipe de chercheurs de rechercher le négationnisme sur les plateformes de Meta. Il n’a pas été difficile de trouver des exemples, notamment des publications utilisant le même mème Squidward pour promouvoir d’autres types de récits antisémites. Les utilisateurs tentent d’échapper au système de détection et de suppression de Meta, ont découvert les chercheurs. Les voyelles sont remplacées par des symboles, par exemple, et les dessins animés et les mèmes offrent un moyen de nier implicitement l’histoire de l’Holocauste sans dire directement qu’il n’a pas eu lieu.

La modération du contenu sur les réseaux sociaux est une tâche notoirement difficile. Certaines plateformes, comme X, anciennement connue sous le nom de Twitter, ont adopté une approche plus non interventionniste, préférant réduire la surveillance plutôt que de se tromper et de risquer d’étouffer les discours légitimes, ce qui a entraîné pour X la prolifération de l’antisémitisme et de l’extrémisme.

Meta est allée dans le sens d’une modération accrue, acceptant même de donner au Conseil de surveillance le pouvoir de prendre des décisions contraignantes en cas de litiges concernant des violations des politiques de contenu de la plateforme. La vigilance de Meta a conduit dans certains cas à la suppression accidentelle de contenus destinés à critiquer les discours de haine ou à sensibiliser le public à l’Holocauste. Le Conseil de surveillance a exhorté à plusieurs reprises Meta à affiner ses algorithmes et ses processus afin de réduire les risques d’erreurs et d’améliorer la transparence lorsqu’il s’agit d’appliquer l’interdiction du négationnisme.

Meta a mis en place son comité de surveillance au milieu d’une controverse croissante sur la manière dont l’entreprise gère la modération du contenu. Cette décision a ouvert Meta à un nouvel examen mais n’a pas arrêté les critiques. Lorsque, par exemple, le panel a annoncé l’affaire Bob l’éponge et demandé des commentaires au public, il a reçu une vague de réponses critiques de la part de groupes juifs et autres.

« La négation et la distorsion de l’Holocauste sur les plateformes Meta, sur n’importe quel forum, en ligne ou hors ligne, constituent sans équivoque un discours de haine », a écrit la Ligue anti-diffamation dans son commentaire. « Le Conseil de surveillance doit ordonner à Meta d’agir en conséquence en supprimant rapidement les messages violant comme celui en cause dans cette affaire. Attendre que les appels soient portés devant le Conseil de surveillance est inacceptable.

Pendant ce temps, un autre commentateur a qualifié l’ADL d’influence négative sur les pratiques de modération de contenu de Meta, qualifiant le groupe d’« organisation non représentative de gauche démocrate ».

« Meta a perdu toute intégrité dans ce domaine étant donné son niveau sérieux de censure hyper partisane de niveau orwellien », a écrit le commentateur, qui s’est identifié comme étant Brett Prince.

Dans l’affaire Bob l’éponge, le comité de surveillance a formulé deux nouvelles séries de recommandations pour Meta. Il a déclaré qu’il est difficile d’évaluer dans quelle mesure Meta applique son interdiction du négationnisme, car les modérateurs humains n’enregistrent pas la raison spécifique pour laquelle ils ont supprimé un élément de contenu, une pratique que le panel a exhorté Meta à changer.

Le panel a également appris qu’en mai 2023, Meta triait toujours les avis sur la base d’une politique d’automatisation adoptée à la suite de l’apparition de la pandémie de COVID, de sorte que les appels des utilisateurs contre les décisions des utilisateurs étaient rejetés à moins qu’ils ne soient jugés « à haut risque ». Il est inapproprié de maintenir cette politique en place aussi longtemps, a déclaré le panel.

La propagation de la haine et de la désinformation sur les réseaux sociaux est devenue un problème aigu à la suite de l’attaque du Hamas contre Israël le 7 octobre, alors que les plateformes sont inondées de représentations de violence explicite et de propagande liée à la guerre. Face aux circonstances, le Conseil de surveillance a adopté une procédure accélérée pour examiner les cas litigieux.

Cet article a été initialement publié sur JTA.org.

★★★★★

Laisser un commentaire