Twitter donne au discours de haine en ligne sa plus grande plate-forme – Pourquoi ?

Image de Thinkstock

Au cours des derniers mois, les attaques antisémites et la pêche à la traîne ont atteint des niveaux apparemment sans précédent sur les sites de médias sociaux.

Le problème est devenu si grave que la Ligue anti-diffamation a créé un groupe de travail pour lutter contre les discours de haine en ligne. (Leur premier rapport sera publié ce mercredi.)

Bien sûr, le plus gros problème, ce sont ceux qui publient tous ces commentaires haineux.

Mais il y a aussi l’entreprise qui fournit la plateforme que les trolls aiment le plus : Twitter.

Pour être juste, combattre les trolls en ligne est une tâche de Sisyphe. Mais les experts disent que Twitter est le pire contrevenant parmi les grands géants des médias dans la lutte contre les discours de haine. Facebook ou Google font un bien meilleur travail, disent-ils.

Par exemple, lorsque le rédacteur en chef du New York Times, Jonathan Weisman, a quitté Twitter cet été, ce n’était pas à cause de l’assaut d’une semaine de commentaires antisémites sur Twitter. C’est parce que Twitter a refusé de faire quoi que ce soit à ce sujet.

Après que Weisman ait annoncé publiquement qu’il quittait le site de médias sociaux malgré ses 35 000 abonnés, Twitter a commencé à supprimer certains des tweets haineux. Mais cela a laissé d’autres avec un contenu similaire rester.

« J’attends un signe de Twitter indiquant qu’il se soucie de savoir si sa plate-forme devient un cloaque de haine. Jusque-là, sayonara », a écrit Weisman en juin.

Image par capture d’écran

Andre Oboler, un universitaire qui étudie les médias sociaux, affirme que le manque d’action de Twitter reflète sa culture d’entreprise.

« Le problème de Twitter est qu’ils n’ont pas encore reconnu le préjudice causé par le discours de haine et, par conséquent, ils ne croient pas fermement en la suppression du discours de haine », a déclaré Oboler au Forward.

Oboler est l’auteur du « Rapport sur la mesure de la haine – L’état de l’antisémitisme dans les médias sociaux » que l’Institut australien de prévention de la haine en ligne a publié en février.

L’étude a suivi plus de 2 000 publications antisémites sur Twitter, Facebook et YouTube sur une période de 10 mois. Pendant ce temps, seuls 20 % ont été supprimés par les sites de médias sociaux.

Facebook a eu le meilleur taux de réponse et a supprimé environ 75 % des publications faisant la promotion de la violence contre les Juifs. En comparaison, Twitter n’a supprimé qu’un quart des tweets antisémites.

En ce qui concerne le discours de haine, Twitter est au niveau de Facebook il y a six ans, a déclaré Oboler.

(Encore pire que Twitter, YouTube n’a supprimé qu’environ un dixième du contenu antisémite, selon l’étude. La plate-forme vidéo n’est cependant pas utilisée pour harceler des individus spécifiques.)

Ce graphique du rapport montre combien de messages antisémites signalés sont restés en ligne.

« Ce qui manque à Twitter, c’est une véritable responsabilité sociale des entreprises », a déclaré Oboler au Forward.

« Twitter n’a ni la volonté ni les systèmes appropriés pour gérer le problème qui sévit sur leur plate-forme », a-t-il ajouté.

Son sentiment est reflété par le parlement britannique. Leur rapport sur « l’antisémitisme au Royaume-Uni » qui a été publié cette semaine déchire Twitter. « Dans le contexte de revenus mondiaux de 2,2 milliards de dollars, il est déplorable que Twitter continue d’agir comme un hôte inerte pour de vastes pans de discours de haine et d’abus antisémites », indique le rapport.

Le rapport du parlement britannique poursuit en disant que l’entreprise dispose des ressources nécessaires pour mettre fin à ce problème, mais ne les utilise pas. Ils exigent que Twitter « identifie de manière proactive les utilisateurs haineux et abusifs » et affecte davantage de personnel à leurs équipes de sécurité.

« Il est honteux qu’un individu doive tolérer des niveaux aussi épouvantables d’abus antisémites pour utiliser Twitter – une plate-forme de médias sociaux désormais considérée comme une exigence pour toute personnalité publique », écrivent les auteurs du rapport.

Lorsqu’on lui a demandé de commenter, un porte-parole de Twitter a déclaré au Forward que « les comportements haineux n’ont pas leur place sur Twitter et nous continuerons à nous attaquer de front à ce problème ».

« Les gens doivent se sentir en sécurité pour parler librement et il y a une distinction claire entre la liberté d’expression et les comportements qui incitent à la violence et à la haine », a ajouté le porte-parole.

Dans sa lutte continue contre les discours de haine, l’entreprise de technologie essaie de « tirer parti des incroyables capacités de la plateforme pour donner du pouvoir aux voix positives, combattre les préjugés et s’attaquer aux causes profondes de l’intolérance ».

Le porte-parole de la société a également souligné les règles qui interdisent le harcèlement et les comportements haineux « sur la base de la race, de l’ethnicité, de l’origine nationale, de l’orientation sexuelle, du sexe, de l’identité de genre, de l’appartenance religieuse, de l’âge, du handicap ou de la maladie ». La politique de comportement abusif n’autorise pas non plus « les comptes dont le but principal est d’inciter à faire du mal aux autres sur la base de ces catégories ».

Malgré leurs bonnes intentions, Twitter ne fait pas du bon travail dans l’application de ses propres règles.

Il existe de nombreux exemples de cela, mais illustrons-le avec ce tweet que j’ai reçu il y a quelques mois lorsque j’ai commencé à travailler pour le Forward.

Image par capture d’écran

Le nom d’écran et l’image utilisés par ce troll de Twitter sont Kurt Meyer, un nazi et membre de la Waffen-SS qui a été condamné à mort pour crimes de guerre après la fin de la Seconde Guerre mondiale.

Les trois parenthèses autour de mon nom sont appelées un symbole d’écho, une tendance récente « alt right » pour identifier les Juifs sur Twitter. La Ligue anti-diffamation le décrit comme similaire à l’étoile juive et l’a ajouté à sa base de données en ligne de symboles de haine.

Le symbole d’écho est difficile à surveiller pour Twitter, car la plupart des moteurs de recherche ignorent les signes de ponctuation. Ils doivent donc compter sur les personnes qui les signalent.

Lorsque j’ai signalé le tweet à Twitter, j’ai reçu un e-mail disant qu’ils avaient « déterminé que le compte n’enfreignait pas les règles de Twitter sur les comportements abusifs ».

J’ai répondu, expliquant les parenthèses et la signification historique du nom de Kurt Meyer, mais la réponse était la même.

Pour l’instant, le compte est toujours en ligne et continue de harceler les journalistes juifs.

« En général, les sites de médias sociaux comme Twitter n’ont pas été très bons du tout pour faire respecter leurs propres politiques anti-haine », a déclaré Mark Potok, un haut responsable du Southern Poverty Law Center, une organisation de surveillance de droite. dit le Forward.

Au fil des ans, Twitter lui-même a reconnu leur problème avec la police des discours de haine.

« Nous sommes nuls pour gérer les abus et les trolls sur la plate-forme et nous le faisons depuis des années », a déclaré le PDG de l’époque, Dick Costolo, dans une note interne obtenue par The Verge il y a deux ans.

« Nous allons commencer à expulser ces gens à droite et à gauche et nous assurer que lorsqu’ils lanceront leurs attaques ridicules, personne ne les entendra », a-t-il ajouté.

Mais dans les années qui ont suivi, ce n’est pas devenu une priorité.

Sous l’actuel PDG de Twitter, Jack Dorsey, « l’entreprise va dans la bonne direction, mais dans ce domaine, elle n’a pratiquement rien fait », a déclaré le rabbin Abraham Cooper, qui supervise le projet Digital Terrorism and Hate au Simon Wiesenthal Center de Los Angeles. , a déclaré à Haaretz. « Peut-être que cela va enfin les réveiller. »

Twitter fait un bien meilleur travail en matière de lutte contre le terrorisme. Entre février et août 2016, ils suspendu 235 000 comptes pour la promotion du terrorisme.

« Twitter fait des efforts considérables pour supprimer le contenu faisant la promotion du terrorisme, qui est illégal aux États-Unis, mais fait beaucoup moins d’efforts en ce qui concerne le contenu faisant la promotion de discours de haine », a déclaré l’expert en haine en ligne Oboler dans un communiqué.

D’autre part, « les entreprises de médias sociaux comme Facebook font des efforts considérables pour accroître l’identification et la suppression des contenus haineux en ligne ».

Une grande différence entre Twitter et Facebook est que les utilisateurs de Twitter sont souvent anonymes, tandis que Facebook essaie d’appliquer une politique de nom clair.

Ils soutiennent que les gens sont moins susceptibles d’intimider et de menacer des étrangers en ligne lorsqu’ils doivent utiliser leur vrai nom et qu’ils sont associés à leur famille et à leurs amis.

« Il n’y a pas de place pour les discours de haine sur Facebook », a déclaré un porte-parole de l’entreprise au Forward. « Si quelqu’un signale un discours de haine sur Facebook, nous examinerons le rapport et supprimerons immédiatement le contenu s’il enfreint nos normes communautaires. »

Facebook étend également son « Initiative de courage civil en ligne » qui accorde des crédits publicitaires à un large éventail de groupes essayant de contrer les messages extrémistes.

Google utilise quant à lui l’intelligence artificielle dans sa lutte contre le harcèlement en ligne. Leur filiale, Jigsaw, a créé un outil appelé Conversation AI qui est conçu pour repérer – et aussi modérer – les discours de haine.

Selon les ingénieurs, la machine est beaucoup plus rapide et efficace que les humains ne pourraient jamais l’être. En tant que programme pilote, le New York Times a commencé à utiliser l’IA pour modérer sa section de commentaires.

Tout le monde ne croit pas que la surveillance des discours de haine en soi est une bonne chose. « La liberté d’expression n’est pas seulement dans la constitution », a déclaré le champion de la liberté d’expression Lee Rowland au Forward. « Cela fait aussi partie de qui nous sommes. »

Rowland est avocat principal à l’American Civil Liberties Union (ACLU).

L’ACLU est « préoccupée par les règles des grands sites de médias sociaux » et par la façon dont ces entreprises technologiques censurent les discours, a déclaré Rowland. « Nous craignons que la censure puisse appauvrir la conversation. »

Au lieu d’interdire certains discours, les entreprises devraient faire un effort pour permettre aux utilisateurs de choisir ce qu’ils voient eux-mêmes et ce qu’ils ne voient pas, a déclaré Rowland au Forward.

Une exception est lorsque les personnes sont ciblées individuellement. « Nous reconnaissons que lorsqu’une personne est victime de harcèlement ou de menaces, cela peut faire taire cette personne », a-t-elle déclaré. « Les menaces et le harcèlement doivent être interdits. »

La situation est différente en Europe, où – contrairement aux États-Unis – de nombreux pays ont des lois contre les discours de haine.

En mai dernier, l’Union européenne a publié un « code de conduite » en ligne en collaboration avec Facebook, Twitter, YouTube et Microsoft.

Le code visait à lutter contre les discours de haine, le racisme et la xénophobie à travers l’Europe et oblige les entreprises à examiner la «majorité des notifications valides pour la suppression des discours de haine illégaux» en moins de 24 heures.

Mais les entreprises technologiques ne sont pas liées à ces règles ici chez elles, ce que le rabbin Cooper du Wiesenthal Center a durement critiqué.

« La haine est la haine, et si quelque chose d’offensant est supprimé parce qu’il est publié depuis l’Allemagne, alors ils devraient volontairement supprimer le contenu s’il est publié depuis les États-Unis », a-t-il déclaré à Haaretz.

Face au ralentissement de la croissance et à la diminution des revenus publicitaires, associés à des essaims d’utilisateurs quittant Twitter en raison du harcèlement en ligne, la société a créé le « Twitter Trust & Safety Council » en février dernier.

« Pour garantir que les gens puissent continuer à s’exprimer librement et en toute sécurité sur Twitter, nous devons fournir plus d’outils et de politiques », a écrit Patricia Cartes, responsable de la sensibilisation aux politiques mondiales de Twitter. article de blog annonçant le conseil.

Des organisations comme l’ADL et le Southern Poverty Law Center (SPLC) font partie de ce conseil qui conseille Twitter, et l’ADL travaille également sur un rapport individuel de leur groupe de travail anti-discours de haine qui sera publié mercredi.

Alors que beaucoup voient le conseil comme un pas dans la bonne direction, nous sommes maintenant huit mois plus tard et peu de choses ont changé.

Je pense « qu’ils doivent accélérer les choses », a déclaré Heidi Beirich du SPLC à ThinkProgress. «En fin de compte, ils permettent que cela se produise sur leur plate-forme alors que leur position est contre cela. Ils pourraient s’en occuper.

Lilly Maier est stagiaire en nouvelles au Forward. Rejoignez-la au [email protected] ou sur Twitter à @lillymmaier

★★★★★

Laisser un commentaire