Le manuel du RSSI : Pourquoi la défense contre l'IA commence par le contexte, pas par le battage médiatique
TheCISO's Playbook est une série en cours qui présente les points de vue stratégiques des principaux dirigeants du secteur de la cybersécurité. Ce billet présente Mark Hughes, associé directeur mondial, services de cybersécurité chez IBM.
Lorsque Mark Hughes, associé directeur mondial des services de cybersécurité chez IBM, pense à l'IA dans le domaine de la cybersécurité, il ne pense pas seulement en termes de risques. Il constate un changement fondamental des deux côtés du champ de bataille.
D'une part, les attaquants utilisent l'IA pour agir plus rapidement, plus précisément et de manière plus évasive. D'autre part, les défenseurs ont désormais accès à des outils qui promettent une meilleure observabilité, une prise de décision plus rapide et une automatisation sans précédent.
Mais voilà le hic : ces outils ne fonctionnent que si les défenseurs comprennent le contexte de leur utilisation de l'IA, depuis les données qu'elle ingère jusqu'aux décisions qu'elle prend, en passant par les modèles qu'elle exécute.
Selon Mark, la façon dont vous sécurisez et exploitez l'IA aujourd'hui, en particulier le contexte autour de vos données, modèles et flux de travail, déterminera si vous gardez une longueur d'avance sur les attaquants ou si vous vous laissez distancer rapidement.
J'ai rencontré Mark pour discuter de ce qui différencie une véritable défense par l'IA de tout le battage médiatique et des raisons pour lesquelles il faut commencer par comprendre le contexte de ce qui se passe dans votre réseau.
L'IA alimente des attaques plus rapides et plus intelligentes
En tant que responsable des services de cybersécurité d'IBM, Mark est aux premières loges pour voir comment les cybercriminels tirent déjà parti de l'IA.
"Nous constatons que l'IA est utilisée de manière à rendre les menaces traditionnelles plus rapides, plus précises et plus nuisibles", a-t-il déclaré.
Cela inclut un meilleur hameçonnage, une reconnaissance plus intelligente et même les premiers exemples d'IA attaquant l'IA en manipulant les messages-guides et en empoisonnant les modèles.
Nous constatons que l'IA est utilisée de manière à rendre les menaces traditionnelles plus rapides, plus précises et plus nuisibles.
Mais surtout, l'IA donne de la vitesse aux attaquants. Mark a déclaré qu'il voyait des attaques qui prenaient auparavant des heures ou des jours être effectuées en quelques minutes.
Cette accélération rapide modifie les enjeux pour les défenseurs. La détection, le confinement et la réaction ne peuvent plus être manuels. C'est pourquoi Mark pense que la défense simultanée, et non les flux de travail séquentiels, est le seul modèle viable pour l'avenir.
"Avec l'IA, vous n'attendez pas qu'une équipe enquête, puis qu'une autre équipe contienne. Les agents font ces choses simultanément", a-t-il déclaré. "C'est là tout l'intérêt de l'utilisation de l'IA à des fins défensives : elle change le rythme.
Ne vous contentez pas d'utiliser l'IA, sécurisez-la
Alors que la plupart des conversations sur la sécurité se concentrent aujourd'hui sur la défense contre l'IA, Mark estime que les organisations doivent également sécuriser l'IA qu'elles déploient en interne. L'IA non sécurisée utilisée à l'intérieur de votre réseau est tout aussi dangereuse que les attaques générées par l'IA provenant de l'extérieur.
Il présente trois piliers essentiels pour sécuriser les outils d'IA de votre organisation :
1. Sécurisez les données qui entrent dans les modèles d'IA
Selon Mark, vous ne pouvez pas sécuriser l'IA sans d'abord sécuriser les données de formation et d'entrée. Il s'agit notamment d'appliquer des contrôles d'accès aux données, de prévenir les fuites d'informations personnelles identifiables (IPI) et de comprendre qui (ou quoi) utilise les données, d'autant plus que les identités non humaines telles que les agents d'intelligence artificielle prolifèrent.
2. Sécuriser les modèles eux-mêmes
"Nous avons vu des organisations télécharger des modèles publics avec peu de tests et commencer à les utiliser", a déclaré Mark.
C'est dangereux. Les modèles doivent être vérifiés, testés et contrôlés, en particulier lorsqu'ils proviennent de sources externes.
3. Sécuriser les résultats et le comportement
Mark a mis en garde contre les attaques par injection rapide, les réglages fins manipulés et les résultats qui s'éloignent de l'intention. "Beaucoup de gens ne vérifient même pas si les résultats de leur modèle sont exacts ou sûrs", a-t-il déclaré. "C'est là que le risque pénètre dans votre organisation.
Pour faire face à ces menaces croissantes, Mark recommande d'utiliser des cadres tels que le Top 10 de l'OWASP pour les grandes applications de modèles de langage, que MITRE a également intégré dans son cadre ATT& CK. Il s'agit d'une ressource fondamentale, qui couvre tout, de l'empoisonnement des modèles à l'excès d'agence.
Le contexte est le plan de contrôle de l'IA
Mark insiste surtout sur la nécessité d'obtenir le contexte de ce qui se passe dans votre réseau.
Il ne s'agit pas d'une visibilité générique, mais plutôt de comprendre quelles données entrent dans vos modèles, d'où elles proviennent, qui y accède, comment le modèle a été testé et à quoi sert réellement le résultat.
Selon Mark, ce niveau de contexte est ce qui distingue le déploiement sécurisé de l'IA de l'expérimentation dangereuse. Et c'est là que les plateformes qui offrent une observabilité comme Illumio Insights, qui exploite la puissance de la sécurité basée sur les graphes, se hissent au sommet.

Mark a expliqué que les graphiques de sécurité ne montrent pas seulement les contrôles, mais aussi les relations entre les systèmes, les agents et les comportements. "Cela vous donne le contexte nécessaire pour prendre des décisions plus intelligentes ou, mieux encore, pour laisser l'IA les prendre à votre place", a-t-il déclaré.
La sécurité basée sur l'IA et les agents est l'avenir
Pour Mark, l'avenir de la cybersécurité réside dans les systèmes pilotés par des agents. Les agents dotés d'IA peuvent surveiller les environnements, partager des signaux, prendre des décisions et appliquer des contrôles en temps réel.
Une vulnérabilité est découverte et un agent d'intelligence artificielle ajuste instantanément les politiques et les règles. D'autres agents vérifient le changement, contiennent les systèmes affectés et mettent à jour les journaux de conformité, le tout sans intervention humaine.
"Ce scénario n'est pas hypothétique", a déclaré Mark. "Nous voyons déjà des entreprises libérer 30 à 40% de leurs équipes pour les opérations de sécurité à haut volume afin qu'elles puissent se concentrer sur d'autres priorités. Tout cela grâce à l'introduction d'une main-d'œuvre numérique chargée de la détection, de la réaction et même de la conformité".
Quel est le meilleur point de départ pour la transformation de l'IA ? Votre centre d'opérations de sécurité (SOC). Mark considère qu'il s'agit de la partie de la pile où les améliorations de l'IA apportent les gains les plus rapides.
Son conseil aux responsables de la sécurité : "Ne vous contentez pas d'arracher et de remplacer. Trouvez un partenaire ou une plateforme qui peut compléter ce que vous avez déjà avec des agents qui peuvent accélérer votre équipe, augmenter la précision et couper à travers le bruit".
À partir de là, les équipes doivent donner la priorité à l'endiguement des brèches. "L'IA ne va pas empêcher toutes les violations, mais elle peut absolument les empêcher de se propager", a-t-il déclaré.
N'arrachez pas et ne remplacez pas. Trouvez un partenaire ou une plateforme qui peut compléter ce que vous avez déjà avec des agents qui peuvent accélérer votre équipe, augmenter la précision et couper à travers le bruit.
Les attaquants n'attendent pas pour utiliser l'IA. Vous ne pouvez pas non plus.
Les attaquants ont dépassé le stade de l'expérimentation de l'IA. Ils l'utilisent déjà et le font bien.
De l'ingénierie sociale au mouvement latéral, le paysage des menaces devient plus rapide, plus intelligent et plus difficile à défendre.
C'est pourquoi il n'est plus possible d'attendre pour élaborer des stratégies de défense renforcées par l'IA.
"Vous avez besoin de contexte, de visibilité et de simultanéité", a déclaré Mark. "Les agents d'intelligence artificielle rendent tout cela possible, mais seulement si vous les déployez maintenant.
La sécurité de l'IA commence par le contexte. Découvrez Illumio Insights gratuitement dès aujourd'hui pour obtenir une observabilité en temps réel, basée sur les graphes, qui détecte et contient les attaques.
.png)


_(2).webp)
