Une start-up de cybersécurité fondée en Israël lève 40 millions de dollars pour aider à atténuer les menaces pesant sur les applications d’IA

Legit Security, une start-up de cybersécurité fondée en Israël, a annoncé mercredi avoir obtenu 40 millions de dollars auprès d’investisseurs pour aider les entreprises à protéger leurs applications génératives basées sur l’IA contre les menaces malveillantes et les failles de sécurité.

Le cycle de financement de série B a été mené par la société américaine de capital-risque CRV avec la participation des investisseurs existants, le fonds de capital-risque israélien Cyberstarts, la société d’investissement internationale Bessemer Venture Partners et la société de capital-risque de la Silicon Valley TCV. Ce nouveau capital porte le total des fonds levés jusqu’à présent par Legit Security à 77 millions de dollars.

Ces derniers mois, une vague de startups de cybersécurité fondées en Israël et cherchant à développer des solutions pour répondre aux besoins croissants des entreprises en matière de sécurité ont réussi à lever des capitaux alors que le secteur suscite l’intérêt des investisseurs privés malgré une crise mondiale du financement technologique.

Les entreprises s’appuient de plus en plus sur des logiciels pour mener leurs activités et la transformation numérique déplace les centres de données vers le cloud. Le rythme rapide du changement a également ouvert la voie à davantage de canaux d’attaque non protégés ciblés par les cybercriminels.

Basée à Palo Alto, en Californie, Legit Security a été fondée en septembre 2020 par le PDG Roni Fuchs, le CTO Liav Caspi et le vice-président de la R&D Lior Barak, diplômés de l’unité 8200 des forces de défense israéliennes. La startup a développé une plateforme de sécurité qui, selon elle, aide les entreprises et les organisations protègent les chaînes d’approvisionnement logicielles et les applications contre les attaques de menaces en découvrant et en atténuant les vulnérabilités depuis l’étape de développement du code jusqu’au déploiement dans le cloud. Parmi les clients de Legit Security utilisant la plateforme figurent Google, NYSE, Kraft Heinz, Takeda Pharmaceuticals et d’autres entreprises Fortune 500.

Une chaîne d’approvisionnement logicielle est l’écosystème de systèmes, d’infrastructures, de processus et de personnes impliquées dans le développement de logiciels. La plate-forme de Legit Security analyse les pipelines de développement logiciel à la recherche de lacunes et de fuites, ainsi que l’infrastructure et les systèmes de développement au sein de ces pipelines. D’ici 2025, environ 45 % des entreprises et organisations dans le monde auront subi des attaques contre leurs chaînes d’approvisionnement en logiciels, soit trois fois plus qu’en 2021, selon un rapport de Gartner.

La startup a déclaré qu’elle utiliserait les fonds de série B pour développer « les ventes, le marketing et la R&D, ainsi que pour faire face à la menace émergente de l’intelligence artificielle et des grands modèles linguistiques (LLM) dans le développement de nouvelles applications ».

Les équipes de développement de logiciels exploitent de plus en plus le code généré par l’IA et intègrent des LLM dans leurs applications, « mais ces technologies d’IA introduisent également une classe en expansion rapide de nouvelles menaces de sécurité », a déclaré Legit Security dans un communiqué.

« Nous avons fondé Legit Security avec pour mission de sécuriser les logiciels du monde entier avec une plateforme qui gère en permanence la sécurité des applications, du code au cloud », a déclaré Fuchs. «Grâce à cet investissement, notre mission gagne en traction et en rapidité, notamment de nouvelles capacités permettant d’étendre la visibilité, la sécurité et la gouvernance au code généré par l’IA et aux grands modèles linguistiques (LLM) intégrés dans les applications.»

Cette décision intervient alors que de plus en plus de développeurs de logiciels travaillant dans des environnements cloud utilisent des assistants de code basés sur l’IA tels que GitHub Copilot ou Tabnine, ouvrant ainsi une série de nouveaux risques pour la confidentialité des données et la protection des données sensibles. En conséquence, les grandes entreprises technologiques telles qu’Apple et Samsung empêcheraient leurs employés d’utiliser des outils d’IA générative tels que ChatGPT d’OpenAI et les assistants de code d’IA pour empêcher les fuites d’informations privées.

★★★★★

Laisser un commentaire