(La Lettre Sépharade) — Les outils automatisés de modération de contenu déployés dans un contexte « d’augmentation du contenu violent et graphique » sur Facebook et Instagram après le 7 octobre sont allés trop loin en supprimant les publications que les utilisateurs des réseaux sociaux auraient dû pouvoir voir, a déclaré un comité de surveillance indépendant de leur la société mère, Meta, a statué mardi.
Cette découverte résulte d’un examen de deux cas dans lesquels des modérateurs humains avaient restauré du contenu que la modération informatique avait supprimé. L’une concernait une vidéo Facebook semblant montrer un terroriste du Hamas en train d’enlever une femme le 7 octobre. L’autre était une vidéo Instagram semblant montrer les conséquences d’une frappe près de l’hôpital Al-Shifa à Gaza.
Ces cas ont été les premiers traités par le Conseil de surveillance du Meta dans le cadre d’un nouveau processus accéléré destiné à permettre des réponses plus rapides aux problèmes urgents.
Dans les deux cas, les messages ont été supprimés parce que Meta avait abaissé la barre lorsque ses programmes informatiques signaleraient automatiquement le contenu relatif à Israël et à Gaza comme violant les politiques de l’entreprise en matière de contenu violent et graphique, de discours de haine, de violence et d’incitation, ainsi que d’intimidation et de harcèlement. .
« Cela signifie que Meta a utilisé ses outils automatisés de manière plus agressive pour supprimer les contenus susceptibles de violer ses politiques », a déclaré le conseil d’administration dans sa décision. « Bien que cela réduise la probabilité que Meta ne parvienne pas à supprimer le contenu en infraction qui pourrait autrement échapper à la détection ou lorsque la capacité d’examen humain était limitée, cela a également augmenté la probabilité que Meta supprime par erreur du contenu non-violant lié au conflit. »
La semaine dernière, a écrit le conseil d’administration, la société n’avait toujours pas relevé les « seuils de confiance » par rapport à ceux d’avant octobre. 7 niveaux, ce qui signifie que le risque de suppression de contenu inapproprié reste plus élevé qu’avant l’attaque.
Le conseil de surveillance exhorte Meta – comme il l’a fait dans plusieurs cas précédents – à affiner ses systèmes pour se prémunir contre les algorithmes suppriment de manière incorrecte les publications destinées à éduquer ou à contrer l’extrémisme. La suppression accidentelle de contenus éducatifs et informatifs tourmente l’entreprise depuis des années, par exemple, lorsque Meta a interdit la négation de l’Holocauste en 2020.
« Ces décisions ont été très difficiles à prendre et ont nécessité des discussions longues et complexes au sein du conseil de surveillance », a déclaré Michael McConnell, président du conseil d’administration, dans un communiqué. « Le conseil s’est attaché à protéger le droit à la liberté d’expression des personnes de tous bords au sujet de ces événements horribles, tout en veillant à ce qu’aucun des témoignages n’incite à la violence ou à la haine. Ces témoignages sont importants non seulement pour les intervenants, mais aussi pour les utilisateurs du monde entier qui recherchent des informations diverses et actuelles sur des événements révolutionnaires, dont certains pourraient constituer des preuves importantes de violations graves potentielles des droits de l’homme et du droit humanitaire international.
Meta n’est pas la seule société de médias sociaux à faire l’objet d’un examen minutieux en raison de sa gestion des contenus liés à la guerre entre Israël et le Hamas. TikTok a suscité des critiques quant à la prévalence du contenu pro-palestinien sur la plateforme vidéo populaire. Et mardi, l’Union européenne a annoncé une enquête formelle sur X, la plateforme anciennement connue sous le nom de Twitter, en utilisant les nouveaux pouvoirs réglementaires accordés l’année dernière et à la suite d’une première enquête sur l’augmentation des « contenus terroristes et violents et des discours de haine » après le 7 octobre.