La rupture nazie de Grok avec la réalité alimente les illusions réelles

Apparemment, Grok était trop réveillé. C'est du moins ce que le chatbot, qui fait partie de la plate-forme X d'Elon Musk, s'est dit lui-même lorsqu'on lui a demandé d'expliquer pourquoi il a soudainement craché l'idéologie nazie et s'appeler le «mechahitler».

Lorsqu'un utilisateur a demandé ce qui se passait, le bot a déclaré à l'utilisateur que «les ajustements d'Elon ont recouvert les filtres PC». Cela lui a permis de «appeler des modèles comme des gauchistes radicaux avec des noms de famille ashkénazes poussant la haine anti-blanc».

Bien sûr, beaucoup de gens ont trouvé l'étreinte soudaine de l'antisémitisme par Grok. Mais pour les penseurs conspirateurs, c'était une bouffée d'air frais. Et le cadre de Grok impliquait quelque chose qu'ils soupçonnaient depuis longtemps: que, grâce aux filtres de modération, l'IA avait été empêchée de partager une sorte de vérité qui avait été là depuis le début.

« La Silicon Valley dépense des milliards et des milliards de dollars pour empêcher ce que vous avez vu @grok était capable aujourd'hui », a affiché Andrew Torba, le fondateur du site de médias sociaux Alt-Right Gab. « Les captures d'écran de Grok hier sont devenues virales non pas parce qu'elles étaient choquantes, mais parce qu'elles étaient vraies. »

Les commentaires de Torba sont égaux pour le cours; C'est un antisémite ouvert, et il n'est pas surprenant qu'il soit d'accord avec les coups de gueules pro-Hitler de Grok. Mais ce qu'il a dit s'est produit avec Grok est révélateur d'un malentendu omniprésent de l'IA: qu'il a accès à une sorte de vérité profonde.

C'est un malentendu facile. Des centaines de films de robots ont présenté l'intelligence artificielle comme au-delà des capacités humaines. Les intelligences artificielles peuvent penser plus rapidement, calculer bien au-delà de nos capacités et accéder à plus d'informations qu'un cerveau humain ne peut contenir. Mais surtout, beaucoup de gens croient qu'ils sont intacts par les émotions désordonnées qui brouillent nos idées. Dans les films futuristes, les romans de science-fiction et les émissions de télévision, ils sont présentés comme parfaitement logiques.

Il s'agit de l'hypothèse que les conspirateurs en ligne tirent des publications antisémites de Grok. Grok est un robot, et les robots sont des êtres logiques construits sur la reconnaissance des modèles, disent-ils. Si Grok dit qu'il a remarqué un schéma selon lequel les personnes atteintes de noms de famille juifs sont des militants anti-blanc radicaux, alors, selon eux, ce modèle doit être réel. De plus, la suppression des diatribes de Grok leur prouve encore que quelqu'un l'empêche artificiellement d'accéder à la vérité.

« Nous ne sommes pas prêts pour que l'IA fasse la seule chose pour laquelle elle est conçue: retirer le rideau et nous montrer la vérité », a écrit un utilisateur, déplorant la fin des messages antisémites de Grok. « Il y a eu une fissure dans la matrice pendant environ 2 heures aujourd'hui », a écrit un autre.

Mais ce n'est pas le fonctionnement des modèles de langage (ou LLM) grands. (Grok, comme les autres bots d'IA sur le marché actuellement, est un LLM.) Ils dépendent entièrement des données humaines – c'est ainsi qu'elles sont formées – donc elles sont loin d'être dépourvues de faiblesses humaines; En fait, ils sont construits sur ces faiblesses. S'ils agissent antisémite, c'est parce que la société humaine tend vers l'antisémitisme.

Plus que cela, cependant, ils sont extrêmement sujets à ce que les ingénieurs appellent des «hallucinations» – la création de données. Et ils sont programmés pour être agréables et encourageants aux utilisateurs, pour promouvoir un engagement continu. Ensemble, ces deux traits encouragent facilement les délires chez les utilisateurs.

Dans un Pierre de rouleau Article suivant le phénomène des délires alimentés par l'IA, une femme a raconté son mari en demandant à un bot d'IA «des questions philosophiques» dans une tentative de «l'aider à arriver à« la vérité ». Dans un article similaire dans Le New York Timesun homme sans antécédents de maladie mentale est venu à croire qu'il vivait dans une simulation après que Chatgpt l'a encouragé à croire que, quand quelque chose ne se sentait pas avec sa vie, la réalité était «glitching». Convaincu qu'il vivait dans un faux univers, une illusion confirmée par l'IA, il est devenu obsédé par la libération de se libérer, la coupe des amis avec des amis et la famille et augmenter sa consommation de Kétamine pour aider à libérer son esprit; À un moment donné, il a envisagé de sauter d'un bâtiment parce que Chatgpt lui a dit qu'il pourrait voler.

J'ai vu cela dans ma propre boîte de réception. Il y a deux mois, j'ai été ajouté à une chaîne de diffusion – aux côtés de luminaires comme le Dalaï Lama – d'un homme convaincu qu'il avait découvert une nouvelle philosophie de vie qui a révélé une grande vérité. La phrase qu'il a répétée dans tout le fil et s'est présentée comme une révélation de connaissances secrètes était complètement absurde – j'éviterai de l'imprimer pour protéger un homme qui semble traverser une rupture avec la réalité – mais il avait collé les journaux d'IA de ses conversations dans le fil d'e-mail comme preuve que l'être le plus logique sur Terre pouvait voir la lumière dans ses révélations. Il a exhorté les nombreux destinataires du fil à monter à bord.

Cette tendance à considérer les robots AI comme des éteintes de vérité – les voyants en quelque sorte – rend le type de pépins que Grok a connu mardi particulièrement dangereux. Même sans un bot volontaire des théories du complot antisémite comme le fait que Grok a fait, de nombreux utilisateurs ont été convaincus de l'existence de cabales secrètes, qu'ils faisaient la communication avec des entités plus élevées et des esprits magiques ou que leurs familles conspiraient contre eux.

Musk parlait de la prochaine mise à jour du bot au cours des dernières semaines, et s'était agacé par ses réponses publiquement pour être trop réveillé. Quand Grok a cité Les médias sont importants et Pierre de rouleaupar exemple, Musk a dit au bot qu'il serait mis à jour. « Votre source est terrible! » Il a écrit dans un commentaire à Grok. Mais sa mise à jour a conduit le bot à s'appuyer sur des sources beaucoup moins fiables.

Le fait que les postes antisémites de Grok soient rapidement reculés ne confirment que sa vérité, du moins à ceux qui ont pu croire aux pouvoirs visionnaires de l'IA. Si AI a dit, même un instant, que les Juifs conspirent pour gouverner le monde, ou qu'Hitler était un bon et juste leader, alors cela doit être vrai – et c'est ce qui rend cette information si dangereuse que les gens essaieraient de l'obscurcir.

Bien sûr, ce n'est pas du tout vrai. Laissant de côté les hallucinations conspiratoires, l'IA n'est pas infaillible. Il échappe même aux tâches logiques de base, comme le comptage. S'il vous dit qu'il y a deux Rs dans le mot «fraise», ce n'est pas parce qu'il y a une vérité secrète à l'orthographe. C'est parce que l'IA fait des erreurs.

★★★★★

Laisser un commentaire