Netanyahou est-il mort ? Tel Aviv a-t-il été rasé ? Les vidéos d’IA dominent la guerre en Iran.

(JTA) — Cette semaine, le Premier ministre israélien Benjamin Netanyahu a publié une vidéo inhabituelle : il achète du café dans un café de la région de Jérusalem.

Ce n’était pas une situation typique en temps de guerre, où l’on peut plus souvent voir Netanyahu donner des discours enregistrés ou faire le tour des dégâts causés par les missiles en Israël. Mais le Premier ministre était venu avec une mission importante : démystifier les allégations virales faisant état de sa mort.

Ces affirmations, qui ont été relayées par les médias officiels iraniens la semaine dernière, ont été reprises jeudi par les utilisateurs des réseaux sociaux après que Netanyahu a donné sa première conférence de presse pendant la guerre.

En zoomant sur les détails de ce discours apparemment inoffensif, certains ont affirmé que Netanyahu avait un doigt supplémentaire sur la main droite et des dents manquantes, des signes qui, selon eux, étaient des indices clés du contenu généré par l’IA.

« Imaginez que Netanyahu soit réellement mort toute la semaine dernière », a écrit Guy Christensen, influenceur pro-palestinien de TikTok, dans un article sur X. « C'est trop beau pour être vrai, mais Israël utilise depuis lors des vidéos de Netanyahu générées par l'IA. On ne peut qu'espérer. »

Depuis le café Sataf, Netanyahu a publié sa réponse au complot, en publiant dimanche une vidéo de lui commandant un café, discutant avec des baristas et disant aux Israéliens que les guerres contre l’Iran et le Hezbollah au Liban se déroulaient bien.

« Ils disent que je suis quoi? » » disait la légende. Se moquant de l'idée qu'il avait été tué, il a plaisanté : « Je meurs d'envie de café ! » Puis, faisant allusion aux spéculations sur la vidéo précédente, il demande : « Voulez-vous compter le nombre de doigts ? » avant de lever chaque main avec les doigts tendus.

Mais plutôt que d’étouffer les allégations de sa mort, la réponse du dirigeant israélien a plutôt suscité davantage de spéculations, les utilisateurs des réseaux sociaux remettant en question des détails de la vidéo, notamment l’apparence physique de sa tasse de café. Dans une autre vidéo publiée par Netanyahu lundi, certains utilisateurs des réseaux sociaux ont souligné un clip où une bague semble disparaître de sa main dans l’une des images.

« ISRAËL : 'Benjamin Netanyahu est toujours en vie. Voici une autre vidéo de lui réalisée par IA comme preuve. Fais-moi confiance, mon Dieu', a écrit le podcasteur antisémite Stew Peters dans un article sur X.

Le flot d'affirmations conspiratrices sur la mort du dirigeant israélien, qui comprenait également une image générée par l'IA le montrant extrait des décombres, souligne le défi croissant que représente la lutte contre la désinformation à l'ère de l'intelligence artificielle et des deepfakes viraux, en particulier en période de conflit.

La guerre avec l’Iran a produit un flot absolu d’images fabriquées, provenant de clips générés par l’IA et diffusés par des comptes pro-iraniens prétendant montrer des frappes de missiles détruisant Tel Aviv ou la capture des troupes américaines par les forces iraniennes. La société israélienne de détection de désinformation Cyabra a déclaré avoir identifié des réseaux contenant des dizaines de milliers de comptes qui ont généré du matériel recueillant 145 millions de vues au cours des deux premières semaines de la guerre – presque tous pro-iraniens, et principalement sur TikTok. (La société a déclaré lors de la dernière guerre Israël-Iran, en juin 2025, que la panne d’Internet en Iran avait réprimé les fermes de robots de désinformation qui s’y trouvaient.)

« La campagne ne s'est pas propagée de manière organique. Des modèles de coordination clairs ont été identifiés, notamment des récits répétés, des vidéos et des légendes identiques, des groupes de hashtags fixes et des publications en rafale synchronisées », a déclaré Cyabra dans son rapport publié vendredi. « Ces tactiques ont permis au réseau d’inonder rapidement l’environnement informationnel et de dominer les discussions en ligne à des moments clés du conflit. »

Les vidéos ont laissé certains critiques d’Israël convaincus que le pays a été frappé bien au-delà de ce qui a été officiellement rapporté.

Mais même la télévision israélienne n’a pas été à l’abri, diffusant elle aussi sa propre désinformation – bien qu’involontairement.

La Douzième chaîne d'informations a diffusé la semaine dernière un clip de vision nocturne qui, selon elle, montrait des bombardiers furtifs américains B-2 au-dessus de l'Iran volant en formation avec des avions de combat F-18.

En quelques heures, le clip a été identifié non pas comme une sortie du Pentagone, comme l’avait suggéré à l’antenne le correspondant militaire de la Douzième chaîne, Nir Dvori, mais comme une séquence du simulateur de vol de combat Digital Combat Simulator World. Itay Blumental, l'homologue de Dvori chez la chaîne publique rivale Kan, a écrit sur X que les images étaient « en effet incroyables, mais également tirées d'un jeu vidéo », partageant le même clip YouTube de mars 2023.

Lors de l'émission de lundi soir, Dvori s'est excusé et a déclaré que l'erreur était « entièrement la mienne », mais n'a pas précisé à quelle séquence il faisait référence, laissant les téléspectateurs qui avaient manqué le segment précédent avec peu d'indications sur ce qui n'allait pas. Le réseau d’information a également présenté ses excuses, affirmant qu’il « examinerait ses procédures ».

La Quatorzième chaîne de droite a également diffusé le clip – à plusieurs reprises.

i24 News a commis une erreur similaire, a rapporté le journal Haaretz, en diffusant une vidéo qu'il considère comme une séquence apparente d'une frappe américaine contre l'Iran, bien que le clip provienne également de Digital Combat Simulator World.

Ces segments sont rapidement devenus du matériel Internet, les utilisateurs des médias sociaux ridiculisant les réseaux d’information et publiant leurs propres « images de guerre exclusives » ironiques.

Omer Babai, qui dirige les réseaux sociaux de Kan, a publié un GIF sur X du jeu vidéo de tir Chicken Invaders, affirmant qu'il montrait « des bombardiers américains dans le ciel iranien ».

Un autre utilisateur de X a plaisanté : « Nir Dvori : l’Iran a dispersé des mines dans le détroit d’Ormuz », à côté d’une capture d’écran du jeu PC vintage Minesweeper.

Un troisième a posté une image de « Digger », un incontournable du jeu vidéo des années 1990, avec la légende : « Images exclusives de Sinwar dans les tunnels de Gaza », faisant référence au chef du Hamas tué par Tsahal. Street Fighter et Pac-Man ont également fait des apparitions.

La Quatorzième chaîne, largement considérée comme sympathique à l’égard du Premier ministre Benjamin Netanyahu, n’est pas étrangère à la diffusion d’images douteuses. Plus tôt dans la guerre, la chaîne a diffusé une vidéo qui, selon elle, montrait des foules à Téhéran semblant exprimer leur soutien au Premier ministre israélien en scandant « Bibi joon » – un terme persan d’affection traduit grossièrement par « chère Bibi ». Mais le vérificateur israélien en ligne FakeReporter a déclaré plus tard que le chant avait été généré par l’intelligence artificielle.

Mais les gaffes du B2 ne sont qu’une facette d’un phénomène beaucoup plus vaste.

Un clip viral, partagé sur X, TikTok et d’autres plateformes, semblait montrer des missiles pilonnant Tel Aviv et des immeubles s’effondrant sous un barrage. L'AFP et plusieurs autres médias ont découvert qu'il avait été généré à l'aide de l'IA, citant des distorsions révélatrices dans les voitures, les toits, les traînées de fumée et même l'emplacement d'un drapeau israélien sans mât. Le chatbot Grok AI sur X a cependant contribué à amplifier la vidéo, avec des assurances répétées que « la vidéo est réelle », a rapporté l'AFP.

Après que la vidéo ait été révélée comme étant générée par l’IA, un compte X sous le nom d’Abdulruhman Ismail, l’un des premiers à partager les images dans un message qui a attiré 4 millions de vues, a déclaré qu’il la laisserait en ligne « parce que la scène reflète douloureusement ce que Gaza a enduré sous les bombardements israéliens ». Il a ajouté : « Je garde ce message par souci de transparence. La vidéo n'est peut-être pas réelle, mais la dévastation qu'elle évoque est réelle et elle reflète ce que les Palestiniens ont vécu. »

Pendant la guerre de juin 2025, des comptes pro-Iran ont également fait circuler de fausses vidéos et images prétendant montrer des frappes dévastatrices à Tel-Aviv ainsi que des forces iraniennes abattant des F-35 israéliens.

Le fil australien AAP a démystifié plusieurs contrefaçons de ce cycle de conflit, notamment une vidéo affirmant qu'une frappe iranienne avait mis le feu à un bâtiment de la CIA à Dubaï, ainsi qu'une image fabriquée prétendant montrer le défunt guide suprême iranien, l'ayatollah Ali Khamenei, mort sous un tas de décombres.

Un autre clip fabriqué de toutes pièces, qui a accumulé des dizaines de millions de vues, prétendait montrer le Burj Khalifa englouti par les flammes alors que la foule se précipitait dans sa direction.

Le Tehran Times a également partagé de fausses images et de faux rapports faisant état de dégâts importants causés au quartier général de la Cinquième flotte de la marine américaine à Bahreïn.

L'ambassade d'Iran en Autriche a publié une image d'IA du sac à dos d'un enfant, affirmant qu'elle avait été prise à l'école Minab en Iran qui a été touchée le premier jour de la guerre.

Tasnim, l'agence de presse iranienne affiliée à l'État, a partagé une image générée par l'IA sur X prétendant montrer une installation radar américaine au Qatar détruite lors d'une frappe iranienne, a rapporté le New York Times. Le journal affirme que la propagande iranienne « semble davantage axée sur l’influence du public international », décrivant « le succès de la contre-offensive de Téhéran en termes expansifs ».

Mais le responsable produit de X a déclaré à la BBC que 99 % des comptes diffusant des vidéos de guerre générées par l'IA essayaient de « monétiser les jeux », en publiant du contenu sensationnel pour accumuler de l'engagement et pouvoir prétendre à des paiements via le programme de revenus des créateurs de la plateforme. Le géant des médias sociaux a annoncé qu'il suspendrait temporairement du programme les créateurs s'ils publiaient des vidéos de conflits armés générées par l'IA sans révéler qu'elles étaient fausses.

Le politicien britannique George Galloway a publié la semaine dernière une vidéo contenant des images d’IA dans laquelle il raconte que « l’apocalypse brûle Tel Aviv », que la ville « ressemble désormais à Gaza » et que les défenses aériennes au-dessus de Tel Aviv ne sont « plus opérationnelles ». Il dit que ses informations proviennent d’amis de la « rue Sheinkin, à Tel Aviv, près de la place Dizengoff ».

L’ancien porte-parole israélien Eylon Levy s’est emparé du canard, publiant des vidéos de réaction de scènes de plage baignées de soleil et une de lui-même sur la place Dizengoff, sirotant nonchalamment un café glacé avec la place intacte derrière lui.

Certaines personnes ont répondu à la vidéo en encourageant Levy, affirmant qu’eux aussi profitaient d’une belle journée dans un Tel Aviv pratiquement intact. Mais d’autres ont résisté aux preuves présentées devant eux. « Propagande juive bon marché », a écrit un intervenant. « C'est fondamentalement aplati. »

★★★★★

Laisser un commentaire