Les géants des médias sociaux ont-ils censuré les publications sur Israël et Gaza ?

Presque aussi vite que les publications sur Israël et Gaza sur les réseaux sociaux ont commencé à se multiplier, les plaintes de censure des deux côtés se sont également multipliées. Les messages ont été identifiés comme discours de haine et supprimés ; les influenceurs ont insisté sur le fait qu’ils avaient été bannis de l’ombre – un terme désignant le moment où les messages d’un utilisateur sont laissés mais que l’algorithme ne les montre pas aux utilisateurs – notant des vues plus faibles que d’habitude sur les messages sur Israël, Jérusalem-Est ou Gaza. Il y a eu des allégations de censure des deux côtés du spectre politique, mais le problème semble être plus systémique et bien documenté parmi ceux qui publient du contenu pro-palestinien.

Ce n’est pas seulement une théorie du complot.

La semaine dernière, Instagram a publié des excuses sur Twitter expliquant qu’un problème avait conduit à la non-publication d’histoires Instagram ou à la disparition d’histoires archivées, entraînant des rapports de silence de la part de ceux qui plaident autour d’événements à Jérusalem-Est et en Colombie, où des manifestations anti-gouvernementales ont abouti à affrontements sanglants avec la police.

« Il s’agit d’un problème technique mondial répandu qui n’est lié à aucun sujet particulier », a déclaré l’équipe de communication d’Instagram dans un communiqué sur Twitter. Une autre déclaration plus longue publiée le lendemain citait spécifiquement Jérusalem-Est dans ses excuses, réaffirmant qu’Instagram n’avait aucune intention de supprimer les voix qui en parlaient.

Pendant ce temps, Instagram cachait ou supprimait également automatiquement les publications taguées avec al-Aqsa, en anglais et en arabe. L’étiquette fait référence à l’enceinte de la mosquée Aqsa, le troisième lieu saint de l’islam, dans la vieille ville de Jérusalem, connue des Juifs sous le nom de Mont du Temple, et a été le site d’un conflit intense entre la police israélienne et les fidèles musulmans au début de l’escalade actuelle.

Instagram avait signalé « alaqsa » comme étant associé à « la violence ou à une association terroriste ». L’étiquette a été utilisée à la fin du Ramadan alors que la violence éclatait entre la police israélienne et les Palestiniens sur le lieu saint, et de nombreuses personnes essayant d’attirer l’attention sur la violence ont vu leurs messages bloqués juste au moment où la police israélienne a pris d’assaut le terrain avec des balles en caoutchouc et des grenades assourdissantes, blessant 220 Palestiniens.

Gomme sur le poteau du smartphone.

Par iStock

Le problème de marquage a depuis été résolu, grâce aux employés qui l’ont signalé en interne, et Facebook s’est excusé ; un message interne obtenu par Buzzfeed News a déclaré que les messages avaient été signalés parce qu’al-Aqsa « est aussi le nom d’une organisation sanctionnée par le gouvernement des États-Unis ». Ces deux problèmes ont eu un impact disproportionné sur les postes palestiniens, bloquant des postes par dizaines de milliers.

Des voix israéliennes se sont également plaintes de la censure, bien qu’à ce jour, il n’y ait aucun rapport faisant état d’un régime systémique ayant un impact aussi large que la question d’al-Aqsa. L’écrivain Hen Mazzig a fait supprimer une infographie défendant Israël, bien qu’elle ait été rétablie plus tard ; Le message de Mazzig avait été en réponse à une infographie virale anti-israélienne qui n’était pas censurée.

Un autre compte, @the.israel.files, a également publié des plaintes concernant la censure et supprimé des messages, tandis que plusieurs influenceurs de style de vie qui ont publié du contenu pro-israélien ont vu leur nombre de vues chuter, suggérant qu’ils avaient été bannis pour avoir publié du contenu pro-israélien.

Cette semaine, les Forces de défense israéliennes se sont plaintes que l’un de leurs tweets avertissant d’une alerte à la roquette n’avait pas été autorisé à être publié. Mais comme le suggère sa propre capture d’écran, le tweet a probablement été bloqué car Twitter n’autorise pas les publications identiques dans un court laps de temps.

Les utilisateurs d’autres plateformes de médias sociaux, notamment Twitter et TikTok, ont exprimé des plaintes similaires. Rest of World, un média mondial à but non lucratif, a rapporté que Venmo signalait et retardait les paiements répertoriés dans le « fonds de secours d’urgence palestinien », mais les paiements répertoriés avec des phrases pro-palestiniennes similaires telles que « Free Palestine » ou « Palestinian Fund » ont été traités sans retard.

Un porte-parole de Venmo a déclaré que les problèmes étaient « liés à l’OFAC », se référant aux réglementations du Bureau de contrôle des avoirs étrangers du département américain du Trésor, qui dispose d’une liste de groupes et d’organisations sous sanctions américaines, y compris tous les groupes soupçonnés d’être contrôlés par le Hamas.

Les messages tombent rarement dans des catégories simples

La modération lors d’événements qui se déroulent rapidement est un cauchemar pour les plates-formes technologiques, qui se retrouvent les arbitres de questions complexes sur ce qui compte comme désinformation, discours de haine ou incitation dans une situation dans laquelle la vérité n’est souvent pas claire et les événements changent rapidement.

Les organes de presse du monde entier ont rapporté que les troupes israéliennes avaient envahi Gaza tard jeudi, par exemple, sur la base d’une déclaration inexacte qu’un porte-parole de Tsahal a faite à des journalistes internationaux. Certains analystes pensent que l’erreur, qui a pris plus de deux heures à Tsahal pour la corriger, était intentionnelle, faisant partie d’un stratagème pour attirer les combattants du Hamas dans des tunnels souterrains qu’Israël ciblait avec des frappes aériennes et de l’artillerie.

Les messages montrant de la violence sont limités, sauf s’ils sont jugés éducatifs ou destinés à sensibiliser à un événement mondial. Pourtant, les Palestiniens rapportent que leurs messages ont été supprimés parce qu’ils sont trop violents, et en outre, ils se sont plaints de l’application des normes occidentales à d’autres régions et des normes linguistiques là où elles n’ont pas de sens.

La modération lors d’événements qui se déroulent rapidement est un cauchemar pour les plateformes technologiques, qui se retrouvent les arbitres de questions complexes

La question de savoir ce qui compte comme discours de haine est également délicate.

La question de savoir si l’antisionisme équivaut à l’antisémitisme a été vivement débattue dans toute la communauté juive ; ceux qui pensent que l’antisionisme est intrinsèquement antisémite ont exigé que les messages antisionistes soient supprimés pour discours de haine, tandis que ceux qui pensent que la critique de l’État d’Israël n’est pas intrinsèquement antisémite critiquent la discrimination des plateformes si les messages antisionistes sont supprimés. Le fait que l’antisionisme soit parfois, mais pas toujours, associé à un antisémitisme manifeste, comme l’utilisation interchangeable des termes sionistes et juifs, n’aide pas à clarifier la situation.

La définition de Facebook du discours de haine stipule : « Nous définissons le discours de haine comme une attaque directe contre des personnes sur la base de ce que nous appelons des caractéristiques protégées : race, origine ethnique, origine nationale, handicap, appartenance religieuse, caste, orientation sexuelle, sexe, identité de genre et maladie grave. Nous définissons les attaques comme des discours violents ou déshumanisants, des stéréotypes nuisibles, des déclarations d’infériorité, des expressions de mépris, de dégoût ou de rejet, des injures et des appels à l’exclusion ou à la ségrégation.

La définition comprend également « certaines protections pour des caractéristiques telles que la profession, lorsqu’elles sont référencées avec une caractéristique protégée » comme l’ethnicité ou la religion.

Publication bloquée sur les réseaux sociaux.

Par iStock

Bien que la définition se décline en exemples détaillés, il est presque impossible d’identifier et de répertorier toutes les formes potentielles de haine.

Dans un événement mondial où de nombreuses caractéristiques protégées, telles que l’ethnicité, l’origine nationale et la religion, font toutes l’objet de discours, il est difficile de modérer assez la conversation des utilisateurs, dont beaucoup sont profondément bouleversés et enclins aux déclarations au vitriol.

D’autres déclarations interdites incluent l’expression d’un désir de ségrégation ou d’exclusion d’un groupe, qui surgit également dans les discussions sur la situation en Israël et en Cisjordanie, qui incluent souvent des opinions sur l’endroit où les frontières devraient être tracées pour limiter les mouvements des Palestiniens ou des Juifs israéliens. .

Dans tous ces cas, la frontière entre l’opinion controversée et la désinformation ou le discours de haine est difficile à déterminer. Dans une situation aussi chargée qu’en Israël, à Gaza et à Jérusalem, beaucoup pensent que l’opinion de l’autre partie est objectivement trompeuse ou haineuse, signalant les messages et les comptes avec lesquels ils ne sont pas d’accord – un problème avec lequel la propre section des commentaires de Forward se débat.

Comment les plateformes s’adaptent et s’appliquent

La plupart des plateformes, y compris Facebook, Instagram et TikTok, utilisent de plus en plus la technologie et les algorithmes pour modérer les discours et incitations à la haine.

Facebook, qui partage une équipe de modération avec Instagram, a mis à jour sa technologie pour aider à identifier les «nouvelles formes de discours incendiaires», selon un rapport de mai 2020. La société a déclaré au Forward que l’amélioration et l’augmentation de l’utilisation des algorithmes dans le processus de modération aident veiller à ce que les examinateurs consacrent plus de temps à l’examen des cas vraiment limites.

Facebook s’associe également à des experts et des organisations locales pour aider à contextualiser les problèmes, et a déclaré au Forward que l’entreprise compte plus de 35 000 personnes travaillant sur la sûreté et la sécurité, dont 15 000 réviseurs de contenu.

La société a déclaré que l’équipe est composée de locuteurs de langue maternelle qui « comprennent le contexte et les nuances culturelles locales » ; ils ont également déclaré que leurs politiques étaient « extrêmement prescriptives » pour aider à garantir l’objectivité.

Toute dépendance à des algorithmes pour signaler et supprimer des messages signifie que la nuance humaine peut se perdre

Lorsque des événements d’actualité changent une situation, le contenu est souvent « transféré » à une équipe de gestion des risques et de réponse qui est mieux qualifiée pour passer des appels difficiles, selon un rapport de Vice. Dans ce cas, Facebook a déclaré avoir créé un « centre d’opérations spéciales », composé d’experts de toute l’entreprise, y compris des locuteurs natifs de l’arabe et de l’hébreu.

Pourtant, toute dépendance à l’égard d’algorithmes pour signaler et supprimer des messages signifie que la nuance humaine peut se perdre. Même les modérateurs humains qui examinent les messages individuels doivent souvent être profondément ancrés dans la langue et le discours d’une communauté particulière pour espérer comprendre efficacement le poids des différents termes ou accusations.

Ces questions sont pertinentes pour toute plate-forme de sortie ou participant à toute discussion publique sur les événements mondiaux, y compris les médias. Mais alors que ces médias ont des journalistes concentrés sur les détails d’une histoire de rupture, les modérateurs de contenu des médias sociaux sont souvent des entreprises tierces assises dans des centres d’appels essayant de suivre les directives à puces qui leur sont émises. Bien que des experts puissent élaborer des lignes directrices, il s’agit d’une armée d’individus qui statuent sur des cas individuels. Ils voient du porno de vengeance et de la cruauté envers les animaux aux côtés de messages sur Israël ou Gaza, et ils « manquent souvent de contexte culturel ou politique » pour appliquer pendant les 30 secondes qu’ils passent sur chaque message, selon une enquête de The Verge.

Compte tenu du volume de publications sur les réseaux sociaux chaque jour, il est difficile d’imaginer un meilleur système de modération. Mais il est tout aussi clair que celui-ci est défectueux.

★★★★★

Laisser un commentaire