Meta a annoncé mardi qu'elle ne vérifierait plus les publications, un changement majeur dans sa politique de modération. Auparavant, les sites de Meta, notamment Instagram et Facebook, ajoutaient des avertissements aux publications susceptibles de diffuser de la désinformation sur des sujets tels que les vaccins contre le coronavirus, les élections ou toute autre théorie du complot courante.
La fonction de vérification des faits a été initialement instituée après la première victoire de Trump, en 2016, lorsque les commentateurs se sont plaints de la propagation virale de fausses informations sur les plateformes de Meta ; Meta a entamé un partenariat avec des agences de presse telles que Associated Press pour aider à vérifier les informations publiées.
Cette fonction sera remplacée par des notes ajoutées par les utilisateurs, une claire imitation de la fonction actuelle « Community Note » sur X, ajoutée après qu'Elon Musk ait repris la plateforme. Les notes de la communauté permettent aux utilisateurs eux-mêmes de vérifier les informations sur la plate-forme, que d'autres utilisateurs peuvent ensuite évaluer comme utiles ou non. Sur X, pour éviter les abus de la fonction et résister aux préjugés, les utilisateurs qui ont voté différemment sur d'autres notes doivent s'entendre sur l'utilité d'une note pour qu'elle soit publiée ; il reste à voir comment Meta gérera le potentiel d’utilisation abusive de la fonction.
Meta, dans un communiqué, a qualifié le changement de solution visant à « annuler la dérive de la mission qui a rendu nos règles trop restrictives et trop sujettes à une application excessive ». Mais Mark Zuckerberg, dans une déclaration vidéo, a également reconnu que les changements risquaient d'aggraver des problèmes tels que les discours de haine sur la plateforme.
« C'est un compromis », a-t-il déclaré. « Cela signifie que nous allons détecter moins de mauvaises choses, mais nous réduirons également le nombre de publications et de comptes de personnes innocentes que nous supprimons accidentellement. »
Le New York Timesen rendant compte de la nouvelle politique, a observé que la nouvelle focalisation sur la liberté d'expression plutôt que sur la sécurité était probablement une tentative de plaire ou du moins d'apaiser le nouveau président. Trump dénonce depuis longtemps les préjugés sur les plateformes de médias sociaux ; Meta était l’une des nombreuses plateformes à interdire Trump après l’insurrection du 6 janvier.
Dans sa déclaration vidéo, Zuckerberg a explicitement cité la victoire de Trump comme l'une des raisons derrière la nouvelle politique, affirmant que les « récentes élections » semblaient être un « point de bascule culturel vers une nouvelle priorité à la parole ».
Et, apparaissant sur « Fox & Friends », qui serait l'une des émissions préférées du président élu, le chef de la politique mondiale de Meta, Joel Kaplan, a déclaré qu'il y avait « trop de parti pris politique » dans le programme de vérification des faits, confirmant les plaintes de Trump.
Ces dernières années, même avec la fonction de vérification des faits, Meta a eu du mal à contrôler efficacement l’antisémitisme et d’autres formes de complot et de discours de haine sur ses plateformes, supprimant parfois les publications légitimes des médias tout en laissant subsister des violations évidentes.
Meta n'est pas la seule plateforme de médias sociaux à modifier ses politiques de modération de contenu avant le retour de Trump au pouvoir. YouTube a également levé l'interdiction de prétendre que les élections de 2020 avaient été volées. Et de nombreuses autres entreprises technologiques, dont Apple et Amazon, se sont précipitées pour féliciter Trump pour sa victoire.