Les cyber-détectives israéliens traquent les colporteurs de fausses nouvelles

Cet été, dans l’environnement politique très chargé de la campagne électorale américaine, une vidéo montrant la présidente de la Chambre des représentants Nancy Pelosi en train de brouiller son discours est rapidement devenue virale. Il s’est avéré que la vidéo avait été trafiquée – juste un exemple de la façon dont la technologie peut être utilisée pour induire le public en erreur.

La portée mondiale des réseaux sociaux signifie que les marques, les gouvernements et les individus sont désormais constamment menacés par des acteurs malveillants diffusant des contenus malveillants et de soi-disant fausses nouvelles qui peuvent briser des réputations en quelques minutes.

Les vidéos non authentiques, les fausses informations et les faux profils sur les réseaux sociaux jouent un rôle de plus en plus inquiétant dans la politique et la formation de l’opinion publique. Selon un sondage du Pew Research Center, quelque 82% des Américains ont déclaré craindre que les fausses nouvelles puissent influencer le résultat de l’élection présidentielle de 2020.

La startup israélienne Cyabra fait partie d’une nouvelle génération d’entreprises pionnières dans les solutions pour trouver et arrêter la désinformation en ligne. Cyabra, dont l’équipe comprend des vétérans de l’unité de cyberguerre de l’armée israélienne, s’appuie sur la reconnaissance d’images, l’intelligence artificielle, l’apprentissage automatique et des algorithmes qui parcourent des millions de publications et de profils sur les réseaux sociaux pour identifier les informations suspectes en ligne.

Avant les récentes élections dans un pays, Facebook et Twitter ont déclaré avoir identifié plusieurs centaines de faux comptes. Cyabra a identifié quelque 150 000 mauvais acteurs sur ces plateformes essayant d’influencer ces mêmes électeurs.

« Nous créons les outils pour essayer d’éradiquer ces campagnes qui font boule de neige », a expliqué le co-fondateur et PDG Dan Brahmy. « Nous voulons désosser ce problème de personnes diffusant des informations qui ne sont pas réelles. »

La société, fondée en 2018, a été mandatée par plusieurs gouvernements – dont le département d’État américain – de grands médias et des multinationales pour identifier les informations susceptibles de causer du tort ou de la confusion.

Les clients recherchent des mots-clés et, en quelques minutes, le logiciel de Cyabra examine environ 250 mesures qui identifient les bots, les marionnettes et les trolls, produisant un rapport sur le pourcentage de publications sur les réseaux sociaux sur les sujets qui sont associées à de faux profils présumés et à d’autres mauvais acteurs. Il identifie également les principaux acteurs qui orchestrent les attaques planifiées en analysant leur authenticité et en mesurant leur influence.

Le nom de l’entreprise, une combinaison des mots « cyber » et de l’expression du magicien « abracadabra », souligne l’immédiateté des résultats qu’elle produit.

Cyabra peut également identifier les manipulations visuelles et détecter les fausses menaces profondes. Sur la base des informations recueillies, l’entreprise peut également suggérer des moyens de contrer l’attaque.

« Par exemple, il peut alerter une organisation de presse sur le fait que 95 % des publications sur un certain sujet proviennent de comptes associés à des trolls ou des bots, de sorte que l’organisation de presse peut choisir comment gérer ou ne pas gérer le sujet. « , a déclaré Brahmy. « Nous produisons cela rapidement, car avec un cycle de nouvelles aussi court, il n’y a que peu de temps pour réagir. »

Dans une récente exécution de son logiciel, Cyabra a découvert que plus de 30 % des comptes Twitter associés au soutien de l’Azerbaïdjan dans son conflit en cours avec l’Arménie étaient faux, et a également retracé nombre de ces comptes jusqu’à la Turquie, un ennemi politique de longue date de Arménie.

Le service est également pertinent pour les marques grand public. Il peut identifier si des avis trompeurs ou préjudiciables sur les produits proviennent de personnes réelles ou de faux comptes.

Cyabra n’est pas basé sur des déclarations de vérification des faits, mais sur les modèles et les origines des publications, a expliqué Brahmy.

« Nous ne regardons pas les mots », a-t-il déclaré. « Nous nous appuyons sur un ensemble de données d’engagements passés et présents pour identifier les informations présumées fausses ou non fiables qui ne proviennent pas de personnes réelles. »

Outre les fausses nouvelles qui influencent la politique, l’équipe de Brahmy peut conseiller les entreprises commerciales sur les sources de discussions en ligne sur leurs produits ou leurs marques, en particulier celles qui pourraient nuire à leur réputation.

La startup est maintenant en train d’élargir son équipe de 10 à 30 personnes alors qu’elle intensifie ses efforts pour atteindre de nouveaux clients à travers le monde. Cyabra affirme qu’il ne s’agit que de l’un des nombreux outils que les clients peuvent utiliser pour comprendre et évaluer les informations en ligne.

« Notre travail consiste à aider les gens à porter de meilleures lunettes afin qu’ils puissent prendre des décisions », a déclaré Brahmy.

Les entreprises de médias sociaux ont récemment intensifié leurs efforts pour combattre et prévenir la désinformation et les campagnes de fausses nouvelles, travaillant souvent aux côtés des gouvernements et des startups technologiques. Dans les jours qui ont suivi l’élection présidentielle américaine tendue de 2020, des plateformes comme Twitter et Facebook ont ​​signalé et supprimé de grandes quantités d’informations, suscitant des accusations de censure de la part des parties qui ont publié les informations. Et l’été dernier, dans son Deep Fake Detection Challenge, Facebook a produit et publié des milliers de vidéos deepfake – des images générées par ordinateur de personnes faisant et disant des choses qu’elles n’ont jamais faites ou dites – afin que les startups puissent les utiliser comme ensemble de données pour former des algorithmes et développer des systèmes pour reconnaître les futures contrefaçons profondes.

Deepfakes, bots et autres formes de désinformation restent l’un des plus grands défis de la société dans le monde, avec de plus en plus de voix appelant à des solutions.

« C’est une menace qui démantèle notre démocratie », a déclaré Nina Jankowicz, spécialiste de la désinformation au Wilson Center, un groupe de réflexion non partisan à Washington, DC et auteur de « Comment perdre la guerre de l’information : la Russie, les fausses nouvelles et l’avenir de Conflit », lors d’une récente audition de la Chambre des représentants des États-Unis sur la menace de la désinformation en ligne. « La désinformation est une menace pour la démocratie, quel que soit le parti politique dont elle profite ou qu’elle soit étrangère ou nationale dans sa source, et il est plus que temps que les États-Unis commencent à relever ce défi à la fondation même de notre pays et de son valeurs. »

Brahmy admet que le défi de résoudre le problème est énorme, mais aussi passionnant. « Aujourd’hui, le monde de la désinformation est toujours un océan bleu, il reste un long chemin à parcourir », a déclaré Brahmy. « Mais nous essayons de faire une brèche et d’apporter un peu de clarté au monde. »

Pour en savoir plus sur Cyabra, Cliquez ici.

★★★★★

Laisser un commentaire