Pourquoi OpenClaw (anciennement connu sous le nom de Clawdbot) est un signal d'alarme pour la sécurité des agents d'intelligence artificielle
En janvier, deux mois seulement après son lancement, un assistant IA open-source appelé Clawdbot est devenu viral. En l'espace de quelques jours, le projet a connu une véritable fièvre : entre le 26 janvier et le 1er février, ses étoiles GitHub ont explosé, passant de 9 000 à plus de 100 000.
Les développeurs ont été séduits. La promesse était irrésistible : une IA personnelle avec des "mains". Il pourrait lire vos courriels, naviguer sur le web, exécuter des commandes shell et développer de nouvelles compétences à la volée.
Mais l'autonomie qui la rend utile est précisément ce qui en fait un handicap.
Les chercheurs en sécurité ont rapidement découvert les conséquences : plus de 4 500 instances étaient exposées à l'internet public et des centaines de "compétences" malveillantes avaient déjà inondé le dépôt de plugins du projet. Les vulnérabilités liées à l'exécution de code à distance (RCE) ont transformé toute installation de Clawdbot en un nouveau point d'appui pour les attaquants.
Pour ne rien arranger, le projet a été contraint de changer deux fois de nom en l'espace de quelques jours - d'abord pour Moltbot, puis pour OpenClaw - en raison de problèmes de marques déposées. Cette instabilité a créé une ouverture parfaite pour les escrocs et les pirates informatiques qui ont détourné des comptes sociaux et publié de faux plugins pour exploiter la confusion.
OpenClaw est un conte d'avertissement des temps modernes. C'est aussi un aperçu du prochain grand défi en matière de sécurité des entreprises. En effet, les agents d'intelligence artificielle ne se contentent plus de discuter, ils agissent. Ils ont besoin d'un accès approfondi pour faire leur travail, et cet accès fait d'eux la menace ultime de l'intérieur.
Les agents d'intelligence artificielle sont la nouvelle menace interne
Ce changement se produit plus rapidement que la plupart des équipes de sécurité ne le pensent. Gartner prévoit que 40% des applications d'entreprise intégreront des agents d'IA d'ici à la fin de 2026, contre moins de 5% en 2025. Selon PwC, 79% des organisations ont déjà adopté des agents d'intelligence artificielle dans une certaine mesure. Les entreprises sont aujourd'hui confrontées à un rapport de 82 à 1 entre les identités des machines et les identités humaines.
Ces agents ne sont pas de simples chatbots. Ils agissent. Ils se connectent à des bases de données, appellent des API, accèdent à des systèmes de fichiers, envoient des courriers électroniques et déclenchent des flux de travail. Ils fonctionnent avec des informations d'identification et des autorisations qui leur permettent d'accéder en profondeur à l'infrastructure de l'entreprise.
Selon Wendi Whitmore, Chief Security Intelligence Officer de Palo Alto Networks, les agents d'intelligence artificielle représentent la nouvelle menace interne. S'adressant au site d'information technologique The Register, elle a déclaré que lorsque les attaquants compromettent un environnement aujourd'hui, ils ne se contentent plus de suivre le schéma traditionnel consistant à se déplacer latéralement vers un contrôleur de domaine et à se débarrasser des informations d'identification Active Directory. Au lieu de cela, ils s'adressent directement au LLM interne et commencent à l'interroger pour qu'il fasse le travail de reconnaissance à leur place.
"La situation va probablement empirer avant de s'améliorer", a-t-elle déclaré.
La fondation OWASP a reconnu cette évolution en publiant, fin 2025, le Top 10 des applications agentiques. La liste identifie des risques tels que le détournement des objectifs des agents, l'utilisation abusive d'outils, l'abus d'identité et les agents malhonnêtes opérant en dehors des limites prévues.
La sécurité des agents d'IA n'est plus une préoccupation théorique. Les chercheurs en sécurité ont déjà documenté des attaques réelles exploitant chaque catégorie.
Vous ne pouvez pas sécuriser l'IA que vous ne pouvez pas voir
Le fait est que la plupart des organisations n'ont aucune idée de ce à quoi leurs agents d'intelligence artificielle se connectent.
L'indice de sécurité des données 2026 de Microsoft a révélé que les organisations déploient l'IA générative et agentique plus rapidement que leurs contrôles de sécurité ne peuvent s'adapter.
L'étude a révélé que l'IA générative est désormais impliquée dans 32% des incidents liés à la sécurité des données. Interrogés sur leur plus grand défi, 29% des répondants ont cité le manque d'intégration entre les plates-formes de sécurité et de gestion des données comme leur principale lacune en matière de visibilité.
C'est le problème fondamental.
Les agents couvrent les nuages, les applications SaaS et les systèmes sur site. Ils contournent les contrôles d'identité habituels. Ils créent des angles morts dans le dispositif de sécurité.
Sans visibilité sur ce que font les agents et où ils se connectent, les équipes de sécurité ne voient rien venir.
C'est là qu'Illumio Insights comble une lacune critique en matière de visibilité. En observant le trafic réel et le comportement des communications dans les environnements hybrides, Insights montre comment les agents, les charges de travail et les services communiquent réellement, et non pas comment les équipes supposent qu'ils le font.
Vous ne pouvez pas élaborer des politiques de sécurité efficaces pour les agents d'intelligence artificielle sans d'abord comprendre leur comportement réel. Quelles sont les API qu'ils appellent ? Quelles bases de données interrogent-ils ? Quels sont les services qu'ils atteignent ?
Les réponses à ces questions doivent venir de l'observation et non de suppositions.
Limiter les déplacements latéraux des agents légitimes
Les agents d'IA légitimes ont besoin d'un accès au réseau.
Un agent commercial doit atteindre le CRM. Un agent d'assistance doit avoir accès au système de billetterie. Un assistant de codage doit interagir avec les référentiels et les pipelines CI/CD.
Le blocage de tout accès va à l'encontre de l'objectif premier du déploiement d'agents.
La solution n'est pas de bloquer tout accès. Il s'agit de délimiter précisément l'accès en fonction des besoins réels de chaque agent.
C'est là que la microsegmentation à partir de solutions comme Illumio Segmentation devient essentielle. Grâce à la segmentation, les entreprises peuvent limiter les agents à des zones de réseau, des bases de données ou des services spécifiques nécessaires à leurs tâches.
Si un agent est compromis par une injection rapide ou tout autre vecteur d'attaque, le rayon d'action est contenu. L'agent ne peut atteindre que ce qu'il a été explicitement autorisé à atteindre.
Le principe est que les agents doivent disposer du minimum d'accès nécessaire à l'accomplissement de leurs tâches. De même que chaque entrepreneur ne bénéficie pas d'un accès complet au réseau, les autorisations des agents doivent être limitées à ce dont ils ont manifestement besoin.
Cela signifie que lorsque des violations se produisent, elles coûtent beaucoup moins cher. Les attaquants ne peuvent pas passer d'un point d'appui initial à des actifs de grande valeur.
Comment sécuriser les agents d'IA : visibilité d'abord, application ensuite
La bonne approche pour sécuriser les agents d'intelligence artificielle suit une séquence claire.
Commencez par visibilité. Inventoriez tous les agents, les API qu'ils appellent et les données auxquelles ils accèdent. Cartographiez leurs modes de communication actuels. Comprendre ce qu'est un comportement normal.
Élaborez ensuite des politiques basées sur ce que vous observez. Appliquer l'accès au moindre privilège à chaque identité d'agent. Créez des règles de segmentation qui permettent aux agents d'accéder uniquement aux ressources dont ils ont besoin. Dans la mesure du possible, remplacez les informations d'identification statiques par des jetons à courte durée de vie.
Enfin, appliquez ces politiques en temps réel. Surveillez les anomalies. Détecter lorsqu'un agent tente d'atteindre quelque chose en dehors de son champ d'action autorisé. Avoir la capacité de contenir ou d'arrêter les agents qui se comportent de manière inattendue.
Il s'agit de la même approche qui fonctionne pour sécuriser n'importe quelle charge de travail. Les agents d'IA sont simplement un autre type de charge de travail, qui se trouve être autonome et potentiellement plus dangereux s'il est compromis.
Les principes fondamentaux de la segmentation s'appliquent directement : tout voir, comprendre les dépendances, élaborer des politiques basées sur la réalité et appliquer des frontières qui limitent les mouvements latéraux.
L'alerte a été donnée par OpenClaw. Le risque lié aux agents d'IA est une réalité.
OpenClaw était un coup de semonce. Les vulnérabilités découvertes dans le cadre de ce projet sont présentes dans d'innombrables déploiements d'agents d'intelligence artificielle dans les entreprises.
La différence entre un incident circonscrit et une violation catastrophique se résume souvent à une question : lorsque l'agent a été compromis, que pouvait-il atteindre ?
Les organisations qui déploient des agents d'IA doivent répondre à cette question avant les attaquants.
La voie à suivre commence par la visibilité de ce à quoi les agents se connectent réellement. Il se poursuit avec des politiques qui appliquent le principe du moindre privilège au niveau du réseau. Il en résulte une segmentation qui contient le rayon de l'explosion en cas de problème.
Vos agents sont déjà en train de se connecter. La question est de savoir si vous savez quoi et si vous avez les moyens de limiter les dégâts si l'un d'entre eux se retourne contre vous.
Vous vous inquiétez de tout ce que vos agents d'intelligence artificielle peuvent atteindre ? Essayez Illumio Insights gratuitement dès aujourd'hui pour obtenir une observabilité complète et en temps réel de vos environnements.


.webp)


