IA et Cybersécurité : Plus rapide, plus simple, plus efficace
Ces dernières années, l’intelligence artificielle (IA) s’est progressivement intégrée à la chaîne de valeur de la cybersécurité. Aujourd’hui, elle est sur toutes les lèvres. Les attentes sont fortes, parfois même démesurées.
Mais concrètement, comment l’IA peut-elle renforcer l’efficacité, la rapidité et la robustesse des systèmes de cybersécurité ?
Les avantages surpassent-ils les risques ? Et comment s’assurer que les solutions d’IA restent conformes aux réglementations en constante évolution ?
Plongeons dans le sujet aux côtés de nos experts en cybersécurité et intelligence artificielle pour explorer les véritables enjeux et les opportunités à saisir.
L’IA se décline sous de multiples formes : Machine Learning, analytics intelligents, IA générative
Les avancées en intelligence artificielle (IA) apportent déjà des contributions significatives à la cybersécurité dans un large éventail d’applications, allant de l’amélioration de la détection des cybermenaces au renforcement de la protection des systèmes. Les algorithmes alimentés par l’IA et les techniques de machine learning révolutionnent la manière dont nous identifions et atténuons les menaces. Grâce à la capacité d’analyser d’immenses volumes de données en temps réel, l’IA améliore la rapidité et la précision de la détection, permettant aux systèmes de sécurité d’identifier et de répondre aux menaces de manière plus efficace. Les algorithmes d’IA peuvent apprendre à partir de données et de schémas historiques, améliorant continuellement leur capacité à détecter et à prévenir des cyberattaques sophistiquées.
De plus, l’IA permet d’automatiser des tâches de routine, libérant ainsi les analystes en cybersécurité pour qu’ils se concentrent sur des activités plus complexes, comme la chasse aux menaces ou la réponse aux incidents. En exploitant la puissance de l’IA, les organisations peuvent renforcer leurs défenses et garder une longueur d’avance sur l’évolution des menaces. Par exemple, l’IA peut être utilisée pour créer des règles de détection afin de réduire le temps de réponse en cas d’intrusion ou pour alerter les clients en cas de menace. Sans oublier sa capacité à aider les systèmes à se rétablir après une attaque.
« Dans nos Security Operations Centers (SOC), l’IA a le potentiel d’accélérer les processus, d’améliorer notre compréhension et même de former nos collaborateurs – à un moment où le secteur fait face à une pénurie importante de talents en cybersécurité. Bien entendu, il est essentiel de s’assurer de la maturité de la technologie en menant des études et des tests approfondis. L’IA nous apporte un premier niveau d’assistance », souligne Paul Chauchis, SOC & Infrastructure Architect chez Thales.
Mettre l’IA générative en action chez Thales
En s’appuyant sur un modèle français (Mistral AI), les équipes de Thales ont intégré leur propre expertise pour développer une solution dédiée basée sur l’IA générative : GenAI4AID, ainsi que plusieurs cas d’usage spécifiques visant à renforcer nos services de cybersécurité managés. Parmi ces cas d’usage : l’automatisation de la construction de SOC pour accélérer les déploiements, l’investigation de menaces pour améliorer la qualification, et l’optimisation des réponses d’urgence. GenAI4AID est déjà utilisé par certains de nos clients pour aider nos ingénieurs cyber et data à améliorer la détection d’intrusions. Il permet d’automatiser la gestion des règles, facilitant ainsi leur création et leur test.
« GenAI nous permet de définir et de mettre en œuvre des règles de détection plus rapidement, que nous utilisons pour identifier des comportements suspects et des vulnérabilités. Par exemple, l’un de nos cas d’usage basés sur l’IA générative consiste à concevoir des règles de détection qui simplifient le processus de vérification en fournissant des explications textuelles du risque identifié », explique Adrien Becue, expert en cybersécurité et intelligence artificielle chez Thales.
En intégrant des algorithmes d’IA et des modèles de machine learning dans les workflows de nos SOC, nous sommes en mesure d’analyser et de corréler efficacement de vastes volumes de données de sécurité en temps réel, afin d’identifier les schémas et anomalies pouvant signaler une attaque. L’utilisation de l’IA renforce également nos capacités de détection proactive, nous permettant d’anticiper les menaces émergentes et de réagir rapidement aux incidents. Son intégration dans nos opérations SOC nous permet d’offrir à nos clients des services de cybersécurité avancés et complets, garantissant la protection de leurs actifs et systèmes critiques dans un paysage de menaces en constante évolution.
En tant que fournisseur de services de sécurité managés (MSSP), nous collaborons avec des partenaires majeurs tels que Microsoft, IBM ou Google, à la pointe de l’intelligence artificielle. Nous tirons parti de leurs technologies génératives comme Copilot ou Gemini, ainsi que des capacités prédictives intégrées à leurs produits, pour améliorer la qualité de nos services managés. Cela nous permet d’optimiser la détection et la réponse face aux incidents de sécurité de nos clients.
Fort potentiel et tests rigoureux
« Les attentes sont élevées vis-à-vis de l’IA, mais il subsiste un écart avec la réalité du terrain. Beaucoup de nos clients recherchent les solutions les plus rapides, efficaces et rentables. C’est exactement ce que nous visons, quelle que soit la technologie utilisée — en gardant toujours un œil attentif sur le rapport coût-bénéfice de l’intégration de l’IA. Pour les gouvernements et les organisations internationales, la minimisation des risques est également une priorité. Ils doivent pouvoir faire confiance aux résultats générés par l’IA pour leurs prises de décision critiques. Si nous utilisons l’IA, elle doit donc être fiable et bien entraînée — c’est pourquoi nos équipes sont elles-mêmes leurs clientes les plus exigeantes », souligne Thierry Hua, architecte de solutions en cybersécurité chez Thales.
Garantir une IA conforme et robuste
La technologie IA progresse rapidement. Il est donc essentiel de s’assurer que les produits intégrant de l’IA soient sécurisés, transparents et de haute qualité, surtout dans le contexte des nouvelles réglementations comme l’AI Act. Pour aider nos clients à se mettre en conformité avec ce cadre européen, mais aussi avec le RGPD, DORA ou encore NIS2, nos équipes de conseil en conformité et gouvernance apportent un accompagnement sur mesure.
Les produits IA doivent également être robustes, car les attaquants perfectionnent leurs techniques pour cibler les systèmes IA. Ces attaques incluent : empoisonnement des données, attaques d’évasion, attaques oracle, ou encore vol de données d'entraînement des chatbots. Nous menons des attaques adversariales sur des infrastructures cibles représentatives, afin d’identifier les vulnérabilités potentielles — rendant la tâche plus difficile aux vrais cybercriminels.
Ces tests sont réalisés par notre Laboratoire d’évaluation en sécurité et fiabilité, qui évalue la robustesse et la sécurité des produits matériels et logiciels intégrant de l’IA. L’objectif : préparer les futures certifications des solutions avec IA.
En novembre 2023, notre équipe Friendly Hackers a remporté le challenge CAID organisé par le Ministère des Armées, visant à tester la capacité des attaquants à exploiter les vulnérabilités intrinsèques des modèles d’IA. Cette victoire démontre nos compétences techniques pour tester la sécurité des algorithmes IA, protéger les jeux de données d’entraînement et la propriété intellectuelle. En identifiant les failles, nous pouvons recommander des contre-mesures pertinentes dans une logique de sécurité renforcée.
Nouvelles applications, mêmes exigences
L’IA est-elle une solution miracle en cybersécurité ? Non, mais elle représente déjà un levier puissant pour rendre les systèmes plus efficaces — à condition que les produits soient rigoureusement testés et encadrés. Cette approche innovante, mais prudente, est au cœur de notre stratégie : fournir la solution la plus adaptée à chaque client, en utilisant l’IA uniquement lorsqu’elle apporte une valeur prouvée et un risque maîtrisé.
« Si nous voulons proposer des solutions innovantes, performantes et fiables, nous devons prendre le temps de bien faire les choses, en gardant toujours en ligne de mire la qualité, la robustesse et la précision. À l’avenir, nous continuerons à optimiser nos cas d’usage actuels de l’IA tout en en explorant de nouveaux, notamment dans la prévention et la protection », conclut Adrien.
Envie de savoir comment l’IA peut renforcer votre stratégie de cybersécurité ?
Vous cherchez à déployer des règles de détection plus rapidement et efficacement ?