La Cour suprême a entendu lundi des arguments sur la question de savoir si les sites de médias sociaux doivent ou non autoriser les suprémacistes blancs à publier en toute impunité.
OK, c'est plus compliqué que ça. Mais le résultat final pourrait se résumer à laisser l’antisémitisme et d’autres formes de discours de haine sévir sur des plateformes comme Instagram et X, anciennement connu sous le nom de Twitter. (Certes, depuis qu’Elon Musk a pris le relais, c’est déjà assez vrai sur X.)
Les deux cas en question, Moody contre NetChoice et NetChoice c.Paxton, concernent les lois adoptées au Texas et en Floride en 2021 qui limitent la capacité des sites de médias sociaux à supprimer et à modérer du contenu. Si elles étaient appliquées, les lois élimineraient presque la capacité des plateformes à contrôler la propagation de l’antisémitisme ou des théories du complot sur leurs sites, ainsi que d’autres contenus préjudiciables tels que les publications pro-anorexie ou pro-suicide.
NetChoice – une association de l'industrie technologique qui représente de nombreuses entreprises, dont Meta, TikTok et Google – a répondu que ces lois limitaient de manière inconstitutionnelle la liberté d'expression des plateformes. Dans des mémoires amicus, les plateformes ont également souligné que l’application des lois rendrait leurs plateformes quasiment inutilisables, en raison de la prolifération des discours de haine.
(Nous le savons parce que, eh bien, c’est déjà arrivé. Sur des sites comme Gab, qui se présentent comme des absolutistes de la liberté d’expression, les discours de haine sont endémiques.)
Les deux lois sont rédigées différemment et auraient des applications quelque peu différentes.
La loi du Texas empêche les sites de supprimer du contenu en fonction de son « point de vue », exigeant que la modération soit « neutre du point de vue ». Cela limite également les raisons et les manières dont une plateforme peut modérer, voire permettre à ses utilisateurs de contrôler leurs propres flux.
La loi de Floride est bien plus radicale. Il prévoit des amendes pour l’interdiction d’un candidat à un poste de n’importe quelle plateforme, et interdit la censure ou même l’apposition d’avertissements sur le contenu d’une « entreprise journalistique » au sens large. (En vertu de la loi de Floride, une entreprise journalistique comprend toute entreprise qui a publié un grand volume de contenu – écrit, vidéo ou audio – à au moins 100 000 abonnés ou 50 000 abonnés payants.)
Comment cette affaire a-t-elle abouti devant la Cour suprême ?
Alors que les lois du Texas et de la Floride sont rédigées dans un langage neutre autorisant tous les points de vue, les législateurs les ont spécifiquement destinées à protéger le discours conservateur.
La législature de Floride a adopté sa loi après que les principales plateformes de médias sociaux ont temporairement interdit Donald Trump pour incitation à la violence lors des émeutes du 6 janvier. Lorsqu'il l'a signé, le gouverneur Ron DeSantis a déclaré dans un déclaration que la loi protégeait les Floridiens des « élites de la Silicon Valley ».
Plus explicitement encore, le gouverneur du Texas, Greg Abbott, a déclaré que la loi du Texas garantit que « les points de vue conservateurs ne peuvent pas être interdits sur les réseaux sociaux ».
Les sociétés de médias sociaux, pour leur part – ainsi que de nombreux mémoires d’amicus, dont celui de l’American Jewish Committee – ont fait valoir que sans modération, nos flux deviendraient un cloaque de néo-nazis et de désinformation, les rendant presque inutilisables.
Plus largement, les sociétés de médias sociaux veulent se défendre contre toute forme de surveillance gouvernementale. D’une manière générale, protéger les entreprises privées de la réglementation a été une cause conservatrice, tandis qu’exiger davantage de réglementation est une priorité libérale. Ces affaires inversent les lignes partisanes, compliquant les enjeux politiques.
Quel est l’argument de base ?
Les entreprises technologiques qui souhaitent modérer leurs sites comme bon leur semble affirment qu’elles ont les mêmes droits qu’un journal. Bien qu’ils constituent une sorte de place publique pour le discours, les journaux ont la liberté de décider quoi imprimer ou ne pas imprimer. Les entreprises soutiennent également que si le premier amendement empêche le gouvernement de censurer la parole, il permet aux entreprises privées de réglementer la parole de leurs utilisateurs.
« Il y a des choses que si le gouvernement fait, c'est un problème du Premier Amendement, et si un orateur privé le fait, nous reconnaissons cela comme une activité protégée », a déclaré Paul Clement, l'avocat de NetChoice, lors de son plaidoyer devant le tribunal.
Mémoires d'Amicus à l'appui des plateformes de médias sociaux, ils soutiennent également que les utilisateurs des médias sociaux ont le droit, en vertu du premier amendement, de ne pas subir « d'écoute forcée » — essentiellement, ils ne devraient pas avoir à passer au crible le contenu qu'ils ne veulent pas voir ou lire.
Mais le procureur général du Texas, Ken Paxton, a affirmé que les sites de médias sociaux constituent « le plus grand réseau social au monde ». plates-formes de télécommunications », en les comparant aux compagnies de téléphone, qui ne sont pas autorisées à limiter les sujets de discussion ou à restreindre le service en fonction de points de vue politiques. Ce type de service est connu sous le nom de « transport public » – il s’agit essentiellement d’une ressource dont tout le monde a besoin et que les fournisseurs ne peuvent pas refuser. (Par exemple, les trains doivent permettre à tous les passagers de monter à bord, bien qu'il existe des exceptions pour les personnes ivres et désordonnées.)
Les cas des États impliquent également une loi appelé article 230ce qui réduit la responsabilité des plateformes concernant ce que leurs utilisateurs publient et protège la capacité des plateformes à modérer comme bon leur semble.
Ces lois autorisent-elles vraiment les nazis à opérer sur les réseaux sociaux ?
C'est compliqué – en partie parce que les lois en question sont rédigées de manière quelque peu bâclée, laissant beaucoup de questions ouvertes. (En fait, l’un des arguments contre eux est qu’ils inonderaient les sociétés de médias sociaux de poursuites frivoles.)
Les deux lois tentent de définir une modération acceptable, spécifiant que les plateformes peuvent limiter l'accès aux contenus qui incluent du harcèlement, ainsi qu'aux contenus pornographiques ou graphiquement violents. Mais ni l’un ni l’autre ne définit clairement ce qui constitue une modération acceptable.
Daphne Keller, qui dirige le programme sur la régulation des plateformes au Cyber Policy Center de Stanford, a écrit dans un article de blog que l’exigence d’un « point de vue neutre » obligerait essentiellement les plateformes à «pour décider quoi les sujets les utilisateurs peuvent en parler.
Keller a expliqué que le mémoire de Paxton en faveur de la loi texane autorise les plateformes à modérer des catégories, telles que la pornographie, mais pas des distinctions plus « granulaires ». Pour prévenir l’antisémitisme, par exemple, les plateformes pourraient devoir interdire toutes les discussions sur les Juifs – ou même toutes les discussions sur la race – pour garantir que la modération soit totalement neutre. Keller a émis l'hypothèse que les plateformes « pourraient essayer de limiter les publications à des messages « neutres » ou « factuels » ; » cela pourrait « devenir moche », a-t-elle noté, lorsqu’il s’agit de questions, par exemple, sur la question de savoir si les déclarations sur le genre constituent des faits. Prouver que d’éventuels discours de haine – par exemple des mèmes sur les maux présumés contenus dans le Talmud – ne sont pas factuels imposerait un fardeau de vérification des faits que les sociétés de médias sociaux ne sont pas prêtes à assumer.
Et si la neutralité signifie soit autoriser, soit interdire tout ce qui se trouve au sein d’une catégorie, cela soulève de nouvelles questions sur la manière de définir la catégorie. Par exemple, la loi de Floride autorise les plateformes à supprimer les contenus incitant au terrorisme, à condition que cette norme soit appliquée de la même manière : la loi donne l’exemple de l’autorisation d’une plateforme à supprimer des contenus sur l’Etat islamique, à condition qu’elle supprime également les publications sur Al-Qaida. Mais qu’arrive-t-il aux organisations qui ne sont pas universellement reconnues comme groupes terroristes ? Keller a soulevé la question de savoir comment classer les Proud Boys et a demandé si le fait de s'appuyer sur le glossaire des groupes haineux de l'ADL serait considéré comme non neutre.
Que s’est-il passé au tribunal – et quelle est la prochaine étape ?
Lors des plaidoiries de lundi, alors que les avocats présentaient leurs arguments, les juges ont posé de nombreuses questions hypothétiques, essayant de relier les affaires aux différents précédents sur lesquels s'appuyaient chaque partie.
Le tribunal a semblé faire preuve de scepticisme à l'égard des arguments des deux parties. Juge Samuel Alito demandé, si YouTube était vraiment un journal, quel poids pèse le site. D'autres juges se demandaient si ces lois s'appliqueraient également à d'autres sites, comme Uber ou Etsy. (Ces sites utilisent un classement algorithmique qui peut être considéré comme un biais de contenu en vertu des lois – mais bien sûr, l'ensemble de céramiques qu'Etsy donne la priorité dans votre flux n'a aucun impact sur le débat politique libre.)
Ce qui est particulièrement pertinent en ce qui concerne la question d'un Internet rempli de nazis, c'est que les avocats des États n'ont pas défini la différence entre un discours « important » et un discours « ignoble ». Ceci, comme Keller l'a noté dans un article de blog de suivi, laisse la porte ouverte aux « nazis littéraux ». Mais, dit-elle, « si les statuts a fait faire la différence entre les discours importants et les discours « ignobles », ils auraient des problèmes encore plus graves avec le Premier Amendement qu'aujourd'hui.»
La Cour suprême devrait rendre sa décision au printemps, et il est très possible que les juges renvoient simplement l'affaire aux tribunaux inférieurs pour déterminer exactement comment les lois s'appliquent à des sites comme Uber ou Etsy avant de tenter de débattre du premier amendement. éléments.
S’ils rendent une décision plus concluante, de nombreux observateurs s’attendent à ce que les sites de médias sociaux l’emportent purement et simplement. Mais Keller a noté qu'il y avait plus de possibilités, y compris une victoire partielle pour les États – par exemple, les juges pourraient annuler les règles de « neutralité du point de vue » mais laisser intactes d'autres parties des lois. Si le tribunal décide que les sites sont des transporteurs publics, ils pourraient être soumis à davantage de réglementations gouvernementales que ce qui était légal auparavant.
Et si les États gagnent carrément, nous pouvons nous attendre à un Internet rempli de néonazis – mais en fait, nous en avons déjà un. Je suppose que nous verrons à quel point cela peut empirer.
Correction : une version précédente de cette histoire répertoriait de manière incorrecte un groupe membre de NetChoice. Reddit ne fait pas partie de NetChoice, mais a déposé un mémoire d'amicus dans cette affaire.