Le comité de surveillance du méta se prononcera – à une vitesse inhabituelle – sur deux messages supprimés liés à la guerre entre Israël et le Hamas

(La Lettre Sépharade) – Le comité indépendant qui statue sur les différends au sein de la plus grande société de médias sociaux au monde reprend deux articles contestés sur la guerre en cours entre Israël et le Hamas, dans des affaires ayant des conséquences potentielles sur la manière dont les utilisateurs pourront parler de la guerre en ligne.

Ces cas sont les premiers à être traités dans le cadre d’une nouvelle procédure accélérée adoptée par le conseil de surveillance de Meta, propriétaire de Facebook et Instagram, plus tôt cette année.

Les deux appels concernent des publications sur la guerre des deux côtés du conflit. L’une concerne une vidéo Facebook montrant un militant du Hamas en train d’enlever une femme lors des attaques du groupe terroriste du 7 octobre en Israël. L’autre était une vidéo Instagram montrant les conséquences d’une frappe devant l’hôpital Al-Shifa dans la bande de Gaza.

Meta avait initialement supprimé les deux vidéos, affirmant qu’elles violaient les conditions d’utilisation de l’entreprise, qui interdisent spécifiquement le partage de contenu violent. Mais l’entreprise a depuis changé d’avis, en restaurant les deux avec des balises avertissant du contenu graphique. Le conseil de surveillance a déclaré qu’il rendrait une décision sur la question dans les 30 jours et que l’entreprise était tenue de suivre les décisions du conseil.

Les médias sociaux sont devenus le principal moyen par lequel la plupart des pays du monde s’engagent dans la guerre, alors que de plus en plus d’images et de vidéos prétendant provenir d’Israël et de Gaza circulent en ligne – rejoignant un ragoût de contenu qui comprend une grande quantité de désinformation et falsifié ou mal étiqueté. images. Meta et d’autres sociétés de médias sociaux, X/Twitter et TikTok, ont eu du mal à concilier la liberté d’expression sur leurs plateformes et la limitation des images ou des images violentes. la propagation de la propagande terroriste.

Dans le cas des publications litigieuses, Meta a initialement affirmé que les deux avaient violé ses règles sur le partage de contenus violents et graphiques. L’entreprise a également désigné le 7 octobre comme une attaque terroriste, sous réserve des règles interdisant sur ses plateformes tout contenu montrant des « victimes identifiables » d’une telle attaque. Il a fréquemment mis à jour ses propres règles depuis le 7 octobre, déterminant plus récemment que les images d’otages diffusées « afin de sensibiliser et de condamner les attaques » sont autorisées.

« L’objectif de Meta est de permettre aux gens de s’exprimer tout en supprimant les contenus préjudiciables », a écrit mardi la société dans une mise à jour de ses politiques. « Si l’intention de l’utilisateur de partager le contenu n’est pas claire, nous péchons par excès de sécurité et le supprimons. »

La vidéo controversée du 7 octobre sur Facebook a été publiée par un utilisateur qui semblait condamner le Hamas et « exhorter[d] aux gens de regarder la vidéo pour avoir une « compréhension plus profonde » de l’horreur avec laquelle Israël s’est réveillé le 7 octobre 2023 », selon la description du message faite par le comité de surveillance. Le forum n’a pas partagé le message lui-même, mais la description suggère que la vidéo montrait Noa Argamani, devenue l’un des premiers symboles de la crise des otages après avoir été enlevée avec son petit ami au festival de musique Nova. Elle reste otage à Gaza.

Entre-temps, la vidéo censée montrer le bombardement de l’hôpital a été publiée par un utilisateur qui a qualifié l’armée israélienne d’« occupation usurpatrice » et a tagué diverses organisations de défense des droits humains, a indiqué le comité. L’hôpital Al-Shifa est devenu l’épicentre à la fois de l’opération militaire israélienne et de la guerre de l’information plus vaste, alors qu’Israël a pris pour cible l’hôpital en affirmant que le Hamas l’utilisait comme centre de commandement – une affirmation qu’Israël a ensuite soutenue par faire visiter aux médias un réseau de tunnels relié à l’hôpital.

Même si les deux publications ont été rétablies, les décisions du conseil de surveillance à leur sujet pourraient affecter la manière dont Meta modère le contenu sur la guerre et la permissivité de l’entreprise à l’égard des images représentant ses victimes. Le conseil de surveillance de Meta s’est occupé d’autres questions juives dans le passé, notamment l’incapacité de l’entreprise à supprimer un message niant l’Holocauste et sa décision de supprimer le message d’un journaliste critiquant les éloges de Kanye West à l’égard d’Hitler.

« Les situations de crise ne sont pas une excuse pour que les plateformes de médias sociaux suspendent les règles ou ne recourent pas à la censure, elles rappellent qu’il faut redoubler d’efforts pour protéger la voix et la sécurité », a déclaré Thomas Hughes, directeur de l’administration du Conseil de surveillance, dans un communiqué. . « Le conflit entre Israël et le Hamas souligne les nombreux défis posés à la modération des contenus en période de crise. Le Conseil d’administration a hâte d’examiner la manière dont Meta donne suite à ses engagements en matière de droits de l’homme, ainsi que les recommandations passées du Conseil d’administration sur la manière de gérer les crises.

Sheryl Sandberg, ancienne dirigeante juive du Meta, s’est également retrouvée prise au piège d’une guerre de l’information liée au conflit. son affirmation selon laquelle le Hamas aurait violé des victimes israéliennes du 7 octobre a été contestée sur les plateformes mêmes qu’elle supervisait.

TikTok et X ont fait l’objet de vives critiques pour avoir permis la diffusion de contenus antisémites sur leurs plateformeset — dans le cas de X — pour le propre engagement du propriétaire Elon Musk avec le contenu antisémite.

★★★★★

Laisser un commentaire