object.title
Cyber AI 2025

Ouverture

Lors de la table ronde avec la ministre et le président du Campus Cyber, plusieurs points clés ont été abordés. La ministre a souligné que la France dispose des meilleurs talents, des infrastructures de pointe et de plus de 500 start-ups. Elle a insisté sur la nécessité d'adopter une vision internationale et diplomatique, tout en évitant les fractures avec les pays du Sud.

Les enjeux sociétaux, économiques et diplomatiques ont été mis en avant, ainsi que l'importance des talents, comme l'a démontré Deepseek. Pour rester compétitifs, il est crucial d'être plus optimistes et de valoriser nos atouts. Les initiatives comme Mistral, H et Kyutai ne sont pas suffisamment mises en valeur.

La santé et l'intelligence artificielle sont des domaines où nous excellons. L'IA joue également un rôle crucial dans la cybersécurité. L'annonce d'Inesia, une collaboration entre l'ANSSI, l'INRIA et le PNL, en est un exemple concret.

Cependant, les modèles d'IA peuvent être la cible d'attaques. Un appel à projets a été lancé pour sensibiliser les entreprises aux risques associés.

IA de Confiance

Lors de la deuxième table ronde, qui réunissait des représentants d'Orange, Microsoft, La Poste et Frédéric O (ancien ministre du numérique et fondateur d'une start-up), plusieurs sujets ont été abordés concernant l'IA de confiance.

Madame Bilbao (Microsoft) a évoqué le watermarking, ainsi que l'utilisation de l'IA par les cyber-attaquants. Le contrôle des plateformes sociales et la formation pour sensibiliser à l'information et aux fake news ont également été discutés.

Monsieur Heydemann de Orange Cyber Defense a souligné le besoin de confiance pour favoriser l'adoption de l'IA et la compétitivité des entreprises, tout en abaissant les barrières à l'entrée. Monsieur Poupard de Dicaposte a insisté sur l'importance d'Enisia, affirmant que, une fois la peur dissipée, il est possible de distinguer ce qui peut être objectivé du reste. Enisia est désormais en place, et les pays riches en tireront une valeur diplomatique. Des exercices de crise côté cyber ont également été mentionnés.

Frédéric O a mis en garde sur le contexte d'apprentissage et la priorité au hardware. Microsoft a présenté la vision inclusive de la société, fournissant des boîtes à outils pour l'IA et sa maîtrise par les entreprises, tout en soulignant l'importance des besoins en électricité et en eau pour une solution durable. Ils ont également insisté sur le fait qu'il ne peut y avoir de confiance sans partage de la valeur, et que leur approche consiste à avoir un écosystème ouvert. L'accessibilité a également été un point clé pour Microsoft.

Présentation de Fortinet

Lors de la présentation de Fortinet, plusieurs points ont été abordés. Ils ont réitéré les préoccupations classiques concernant les deepfakes et les fuites de données. La course au MTTR (Mean Time to Resolution) a été mise en avant, avec des playbooks générés par l'IA permettant de réduire le temps de résolution des incidents de quelques heures à quelques minutes.

Fortinet a mis en garde sur la compatibilité entre les différentes générations d'IA et la qualité des données utilisées. Ils ont également souligné que l'IA arrive en dernier dans la chaîne "people-process-techno", et non en premier.

Cependant, la présentation a semblé manquer de maturité en termes d'augmentation de la productivité, à l'exception de la création de tableaux de bord automatiques et de l'aide au codage pour les non-spécialistes. Mon impression générale était que Fortinet poussait principalement pour leurs propres solutions plutôt que la valeur de l’IA dans la cyber.

Automatisation et IA pour la Défense

Lors de la présentation de Cloudflare, plusieurs points importants ont été abordés. Le contexte a été réexpliqué, mettant en lumière les défis actuels tels que les attaques de type "zero-day", le temps d'exploitation et la durée avant la mise en place de correctifs, ainsi que les attaques DDoS qui battent des records en termes de taille, atteignant des pics de 5,6 tera requêtes par seconde.

Cloudflare a présenté ses infrastructures, notamment la présence de centres de données dans 50 villes équipées de GPU NVIDIA sur un total de 330 villes réparties dans 120 pays. Cela permet à 95% de la population mondiale d'avoir un temps de latence inférieur à 50 ms, avec un réseau de 13 000 partenaires.

L'IA est utilisée comme détecteur de requêtes, déterminant si elles doivent être bloquées. Cloudflare, qui protège 19% des sites web, dispose des données nécessaires pour détecter efficacement les problèmes sur Internet et fournir une intelligence des menaces de haute qualité, capable de repérer les signaux faibles. Plus de 40% des entreprises du Fortune 1000 utilisent leurs services.

Cloudflare utilise plus de 50 modèles d'IA générative (modèle fondation après de zéro par fortinet), ce qui leur permet de détecter les failles à l'avance grâce à une intelligence des menaces efficace (WAF automatique). Par exemple, le 17 janvier, Cloudflare a poussé une règle pour Ivanti Pulse avant même l'apparition de la CVE.

Le CAPTCHA de Cloudflare utilise l'IA pour reconnaître les humains et valider les CAPTCHA, offrant ainsi une meilleure expérience utilisateur.

En conclusion, bien que la présentation ait semblé être une plaquette commerciale mais les chiffres et le fait d'avoir des IA génératives internes (fondations développées en interne) sont un vrai apport dans la compréhension des sujets cybers infra.

Protéger votre Réputation face aux Agents LLM

Akamai a changé le sujet de sa présentation au dernier moment, passant de la protection des LLM (Large Language Models) à la protection contre les LLM, d'où le nouveau titre.

Ils ont mis en avant les risques de perte de contrôle de la propriété commerciale et de contributions non rémunérées, car les LLM peuvent réutiliser les informations fournies. De plus, la consommation de ressources et la distinction entre les utilisateurs légitimes et les bots ont été abordées.

Il a été noté que si les agents LLM sont bloqués, cela pourrait permettre à un concurrent de prendre le marché, ce qui pourrait également entraîner des hallucinations et des fake news.

Akamai a proposé une stratégie basée sur les IA, consistant soit à bloquer les agents, soit à alerter en cas de détection.

IAM et IA : Memority

Memority, une société française, a présenté sa solution IAM IA (Identity and Access Management), qui n'est pas encore en production. Leur solution IAM peut être déployée sur site ou dans le cloud et inclut la gestion des droits, la provision, le SSO (Single Sign-On) et l'authentification multi-facteurs. Ils visent une certification SecNumCloud en 2027.

Déployer une solution IAM est complexe, notamment en raison de la certification des droits, qui est très consommatrice de ressources, des rôles orphelins et de la gestion des rôles, qui est difficile à maintenir dans le temps à mesure que le système d'information évolue. Les règles d'authentification ajoutent également à cette complexité.

Les modèles statiques et IAM (IAM as a Service) sont compliqués à gérer. Memority propose une solution pour détecter les anomalies par rapport aux collègues et de manière dynamique, comme les connexions anormales (par exemple, depuis l'étranger ou à des horaires inhabituels).

L'IA permet également de discuter des règles et des droits sans nécessiter de compétences techniques, ce qui améliore la productivité. Elle aide également à la maintenance des règles et des comptes orphelins. Cependant, pour les comptes orphelins, la corrélation simple avec la présence, l'IP, etc., reste basique.

Memority envisage un futur où l'AIBAC (AI based Access Control) remplacera l'ABAC (Attribute-Based Access Control), l'ORBAC (Organization-Based Access Control) et le RBAC (Role-Based Access Control) pour la gestion des droits. L'IA suggère et l'humain valide et enrichit, ce qui rend l'AIBAC compatible avec les anciennes méthodes comme le RBAC.

Memority définira un risque dynamique, enrichi par des statistiques, car une personne mobile représente par exemple plus de risques, ce qui facilitera la vie du RSSI (Responsable de la Sécurité des Systèmes d'Information).

Dell et IA Factory

Dell a présenté ses perspectives sur l'IA agentique en 2025 et l'IA multimodale. Huggingface, avec son million de modèles, illustre l'innovation algorithmique des IAs. Deux tendances majeures ont été identifiées : l'IA privée pour des cas d'usage business et la mutliplication des cas IA en entreprises.

Les avancées dans ce domaine sont dues au matériel, aux données et aux algorithmes. Cependant, il est important de noter que 90% des données sont privées, ce qui met en avant la centralité de la donnée. Dell a évoqué des cas d'usage tels que les jumeaux numériques d'une ville et l'optimisation de la chaîne d'approvisionnement.

La question de la quantification du gain de productivité reste complexe, sans réponse simple. Le choix du modèle dépend des cas d'usage spécifiques, et l'utilisation d'un modèle directement en entreprise n'est pas toujours pertinente.

Pour gérer ces données, Dell propose l'idée d'un data lake. Les problèmes antérieurs à l'IA, comme le pilotage des données, réapparaissent. La révolution de l'IA repose d'abord sur les données et leur organisation.

Il est crucial de comprendre la localité des données pour une IA de confiance. Dell a souligné que les LLMs les plus susceptibles d'être conformes à la RGPD sont français comme Mistral

En termes d'infrastructures :

  • 90% des données sont privées.
  • 50% des nouvelles données proviennent du edge (par exemple, les caisses connectées des supermarchés).

Dell préconise d'amener l'IA aux données plutôt que l'inverse. Quelques types de menaces exacerbées par l'IA ont été identifiées :

  • L'ingénierie sociale.
  • La fraude au président par deepfake.
  • L'infection et l'empoisonnement.

Bien que cette présentation soit une introduction à l'IA, elle met en avant le besoin général plutôt que de vendre un produit spécifique ce qui était agréable.

CIO de BNP

BNP est partenaire de Mistral et utilise l'IA à grande échelle, avec 5000 licences Copilot déployées. L'accès aux données est un enjeu majeur, et l'avancement se fait étape par étape. Avec 180 000 employés, BNP a mis en place une large communication, suivie par des communautés et des POC.

L'environnement doit obligatoirement être sécurisé. La bataille pour les talents se joue dans les écoles, avec de nombreux nouveaux métiers autour de l'IA.

Les freins à l'IA ? Les processus de l'entreprise doivent être revus pour la transformation et la formation des équipes. Un DSI doit anticiper l'interopérabilité, le système et le monitoring. Aujourd'hui, l'innovation avance rapidement, mais il faut maintenir un rythme acceptable pour la formation. BNP travaille avec Dell sur ces points.

L'infrastructure et les enablers doivent permettre d'intégrer ces innovations. BNP compte 2800 experts en cybersécurité pour monitorer, identifier et résoudre les problèmes en temps réel, avec l'aide de l'IA.

La légitimité de l'Europe repose sur ses meilleurs mathématiciens et chercheurs, et il faut en être fier. En termes de résilience, BNP dispose d'une équipe dédiée à l'IA pour la sécurité, avec des checks nécessaires, y compris la résilience. Ils ont une solution de backup et un bouton d'arrêt pour l'IA.

Quels nouveaux métiers ? BNP a formé un groupe de travail pour cela, notamment autour du MLOps (bien que le terme exact ne soit pas connu). Actuellement, BNP n'a pas d'agent autonome dans son système d'information.

Quevlar AI (collaboration avec Nomios)

La solution Quevlar permet de réaliser des investigations de niveau 1 et 2, réduisant le temps de traitement de 30 minutes à 3 minutes, et améliorant ainsi le MTTR (Mean Time to Resolution). Elle garantit également une qualité constante des investigations approfondies et ajoute des informations supplémentaires à l'analyse, souvent omises par manque de temps.

Sentinel One : Impact de l'IA en Sécurité

Sentinel One a abordé trois thèmes principaux :

  • Les deepfakes.
  • Les nouvelles surfaces d'attaque créées par l'IA.
  • La défense alimentée par l'IA.

Les menaces identifiées incluent les attaques sur la chaîne d'approvisionnement, les ransomwares (optimisés par l'IA), les systèmes non patchés, et les cyberattaques améliorées par l'IA (malwares polymorphes et phishing personnalisé).

L'IA a transformé la désinformation, notamment avec les deepfakes, bien que ceux-ci ne nécessitent pas toujours l'IA (par exemple, tronquer le contexte). Les deepfakes peuvent également être utilisés à des fins éducatives, comme des simulations médicales ultra-réalistes.

Les attaques utilisant les LLM (Large Language Models) incluent l'optimisation des payloads, la réduction du besoin d'expertise technique pour le codage, la recherche de failles, et une augmentation de l'ingénierie sociale.

Sentinel One utilise l'IA pour l'analyse comportementale sans signature, avec une analyse continue des signaux via l'EDR (Endpoint Detection and Response). À l'avenir, ils prévoient d'anticiper les menaces en analysant les logs internes ou le dark web.

La détection autonome est facilitée par l'IA et Purple AI, un agent conversationnel qui aide à l'analyse et gère les requêtes techniques, pouvant également fournir des résumés. La prochaine étape est de passer du mode copilote à l'autopilote, gérant les alertes les plus simples.

Lors du FIC, un "capture the flag" sera organisé pour comparer un néophyte utilisant Purple AI à un expert.

Mindflow : Agent et Hyper Automatisation

Mindflow est un équivalent de n8n (no-code plateforme), où chaque étape du workflow est une description pour un LLM. Un exemple donné est l'automatisation de l'investigation IP. L'avantage réside dans les centaines de connecteurs disponibles.

RAPID7 : Cloud, ML et IA à Protéger

Selon les données de 2023, 82% des décideurs IT prévoient d'investir dans l'IA pour la cybersécurité, dont 67% pour le support client (tickets). RAPID7 a présenté les nouvelles menaces, déjà décrites dans d'autres ateliers, telles que les deepfakes et la facilité de coder un virus.

Cependant, RAPID7 a affirmé qu'il n'y a pas de nouvelles attaques spécifiques à l'IA (point sur lequel tous les autres intervenants et moi-même est en désaccord), bien que des concepts comme le model poisoning et les prompts injections existent. L'IA est utilisée dans la détection et la réponse dans le cloud. Ils ont constaté une augmentation des factures et des intrusions.

Rien de passionnant sur l’atelier.

IA SPM

Des connecteurs valident l'utilisation des API d'IA fournies par les CSP. Intéressant pour l’utilisation IA venant des CSP (si ce n’est indispensable). Les solutions de Palo alto et Wiz permettent toutes deux de se sécuriser. Le manque restera les modèles customs ou venant de l’open source (huggingface). Palo alto doit revenir vers moi avec ce point précisément.

Vision de Google en matière de Cyber IA (top)

Google a d'abord montré ses compétences en IA, mentionnant des modèles comme Gemma et le prix Nobel de chimie obtenu grâce à l'IA. Selon Google, les quatre piliers à prendre en compte sont le modèle, l'infrastructure, les données et les applications.

Google a souligné la nécessité d'une AI Red Team. https://saif.google est un framework de sécurité adaptée à l'IA, présenté comme une alternative au NIST AI RMF et plus précis que l'ANSSI.

Google a également mentionné l'utilisation de l'IA pour la sécurité, notamment dans Workspace et Google Play Protect. Ils traitent 100 millions de spams par minute, utilisant une IA avec 200 millions de paramètres, mais pas de l'IA générative.

IDECSI Copilot à Sécuriser

IDECSI a présenté la solution Copilot, qui traite 2 milliards de fichiers par jour sur Microsoft 365. L'IA renforce l'utilisation du shadow IT, et Copilot commence à passer à l'échelle.

D’après eux, maîtriser les risques de Microsoft 365, deux aspects sont essentiels :

  1. Les risques liés aux données.
  2. Le volume et l'obsolescence des données.

Les problèmes identifiés incluent un historique non maîtrisé, une mauvaise gestion des droits et l'utilisation par erreur de données obsolètes. La donnée provient des métiers, mais personne n'en est responsable, ce qui pose un problème pour le RSSI.

IDECSI propose la solution Détox, qui comprend une partie sans intervention humaine. Le processus se déroule en trois étapes :

  1. Vérification et audit.
  2. Corrections.
  3. Mesure des gains et répétition tous les six mois.

Cette méthode offre un double gain : rendre Copilot plus pertinent et valider la sécurité des données. La responsabilité est remise aux métiers, là où se trouve l'information.

Les avantages de cette méthode incluent :

  • Réduction des risques.
  • Optimisation du stockage.
  • Meilleure maîtrise des données.
  • Vue centralisée sur le tenant.
  • Augmentation de la capacité d'action des utilisateurs.
  • Meilleure connaissance et points d'attention du SI.

Microsoft Security : Sécuriser l'Adoption de l'IA (second best presentation)

Microsoft Security a présenté les défis liés à l'adoption de l'IA. Le premier risque est la fuite d'informations, bien que l'empoisonnement des modèles n'ait pas été abordé. La présentation s'est concentrée sur le PaaS et le SaaS, avec une majorité de cas concernant le PaaS (et demain le SaaS avec Copilot).

Pour le SaaS, les piliers NIST sont : découverte, protection et gouvernance. Copilot assure la sécurité des données au repos et en transit, maintient la propriété, protège les droits d'auteur et s'engage à respecter les règles de conformité de l'UE.

L'IA responsable doit être inclusive, confidentielle, responsable, impartiale, transparente et fiable. Azure Content Safety est intégré par défaut dans les services, filtrant les promptes injections, les discours haineux, etc. Il est donc crucial de vérifier les sources pour une utilisation de confiance.

Il est important d'identifier les IA utilisées (DSPM for IA, Data Security Posture Management for AI) et de détecter les usages à risques par population. DSPM for IA permet de bloquer certains SaaS pour documents, comme une prévention des pertes de données.

Le tagging automatique et l'élévation des données sont également essentiels. Par exemple, un IBAN classé C2 devient C3 si Copilot crée un fichier Excel avec tous les IBAN disponibles, ce qui pose des problèmes complexes.

En termes de gouvernance, le logiciel doit alerter les métiers pour éviter de submerger la sécurité.

Conclusion

L'événement a été très commercial, avec les éditeurs mettant en avant leurs solutions. Cependant, les gains réels restent flous pour la plupart des présentations, avec peu de retours d'expérience concrets. Malgré cela, nous pouvons observer que les risques liés à l'IA ont été bien identifiés par les pures players du domaine et que le métier se forme petit à petit.

 

Fabien CELLIER
Practice Leader IA