/
Resiliencia cibernética

Por qué OpenClaw (anteriormente conocido como Clawdbot) es una llamada de atención para la seguridad de los agentes de IA

En enero, apenas dos meses luego de su lanzamiento, un asistente de inteligencia artificial de código abierto llamado Clawdbot se volvió viral. En cuestión de días, el proyecto alcanzó un punto álgido: entre el 26 de enero y el 1 de febrero, sus estrellas en GitHub pasaron de 9.000 a más de 100.000.

Los desarrolladores quedaron enganchados. La promesa era irresistible: una IA personal con “manos”. Podría leer sus emails, navegar por el sitio web, ejecutar comandos de shell y desarrollar nuevas habilidades sobre la marcha.

Pero la autonomía que lo hace útil es precisamente lo que lo convierte en un lastre.

Los investigadores de seguridad descubrieron rápidamente las consecuencias: más de 4.500 instancias quedaron expuestas a la Internet pública y cientos de "habilidades" maliciosas ya inundaron el repositorio de complementos del proyecto. Las vulnerabilidades de ejecución remota de código (RCE) convirtieron cualquier instalación de Clawdbot en un nuevo punto de apoyo para los atacantes.

Para complicar aún más las cosas, el proyecto se vio obligado a cambiar su nombre dos veces en cuestión de días (primero a Moltbot y luego a OpenClaw) debido a problemas de marca registrada. La inestabilidad creó una oportunidad perfecta para los estafadores y piratas informáticos de criptomonedas, que secuestraron cuentas sociales y publicaron complementos falsos para explotar la confusión.

OpenClaw es una historia de advertencia de la era moderna. También es un anticipo del próximo gran desafío de seguridad empresarial. Esto se debe a que los agentes de IA ya no solo chatean: también actúan. Necesitan acceso profundo para hacer su trabajo, y ese acceso los convierte en la máxima amenaza interna.

Los agentes de IA son la nueva amenaza interna

El cambio está ocurriendo más rápido de lo que la mayoría de los equipos de seguridad imaginan. Gartner proyecta que el 40% de las aplicaciones empresariales incorporarán agentes de IA para fines de 2026, frente a menos del 5% en 2025. Según PwC, el 79% de las organizaciones ya adoptaron agentes de IA en algún grado. Las compañías ahora se enfrentan a una proporción de 82 a 1 entre identidades de máquinas e identidades humanas.

Estos agentes no son simples chatbots. Ellos actúan. Se conectan a bases de datos, llaman a API, acceden a sistemas de archivos, envían emails y activan flujos de trabajo. Operan con credenciales y licencias que les permiten acceder a las profundidades de la infraestructura empresarial.

Según Wendi Whitmore, directora de inteligencia de seguridad de Palo Alto Networks, los agentes de IA representan la nueva amenaza interna. En declaraciones al sitio de noticias tecnológicas The Register, dijo que cuando los atacantes comprometen un entorno hoy en día, ya no solo seguirán el manual tradicional de mover lateralmente a un controlador de dominio y deshacer de las credenciales de Active Directory. En lugar de ello, van directamente al LLM interno y comienzan a consultarlo para que realice el trabajo de reconocimiento por ellos.

"Probablemente va a empeorar mucho antes de mejorar", dijo.  

La Fundación OWASP reconoció este cambio cuando publicó el Top 10 de aplicaciones agenticas a fines de 2025. La lista identifica riesgos como el secuestro de objetivos del agente, el uso indebido de herramientas, el abuso de identidad y los agentes corruptos que operan fuera de sus límites previstos.  

La seguridad del agente de IA ya no es una preocupación teórica. Los investigadores de seguridad ya documentaron ataques reales que explotan cada categoría.

No puedes proteger la IA que no puedes ver

El hecho es que la mayoría de las organizaciones no tienen idea a qué se conectan sus agentes de IA.

El Índice de seguridad de datos 2026 de Microsoft descubrió que las organizaciones están implementando IA generativa y agente más rápido de lo que sus controles de seguridad pueden adaptar.  

La investigación descubrió que la IA generativa ahora está involucrada en el 32% de los incidentes de seguridad de datos. Cuando se les preguntó cuál era su mayor desafío, el 29% de los encuestados citó la débil integración entre la seguridad de datos y las plataformas de gestión de datos como su principal brecha de visibilidad.

Éste es el problema fundamental.  

Los agentes abarcan nubes, aplicaciones SaaS y sistemas locales. Evitan el control de identidad estándar. Crean puntos ciegos en toda la postura de seguridad.  

Sin visibilidad de lo que hacen los agentes y dónde se conectan, los equipos de seguridad trabajan a ciegas.

Aquí es donde Illumio Insights llena un vacío crítico de visibilidad. Al observar el comportamiento real del tráfico y la comunicación en entornos híbridos, Insights muestra cómo los agentes, las cargas de trabajo y los servicios se comunican realmente, no como los equipos suponen que lo hacen.

No es posible crear políticas de seguridad eficaces para los agentes de IA sin comprender primero su comportamiento real. ¿A qué API llaman? ¿Qué bases de datos consultan? ¿A qué servicios llegan?  

Las respuestas a estas preguntas deben surgir de la observación, no de suposiciones.

Limitar el movimiento lateral de los agentes legítimos

Los agentes de IA legítimos necesitan acceso a la red.  

Un agente de ventas necesita acceder al CRM. Un agente de soporte necesita acceso al sistema de tiquetes. Un asistente de codificación necesita interactuar con repositorios y pipelines de CI/CD.  

Bloquear todo acceso frustra el propósito de implementar agentes en primer lugar.

La respuesta no es bloquear todo acceso. Se trata de limitar el acceso con precisión en función de lo que realmente necesita cada agente.

Aquí es donde la microsegmentación de soluciones como Illumio Segmentation se vuelve esencial. Mediante la segmentación, las organizaciones pueden limitar los agentes a zonas de red, bases de datos o servicios específicos necesarios para sus tareas.  

Si un agente se ve comprometido mediante una inyección rápida o cualquier otro vector de ataque, el radio de explosión queda contenido. El agente sólo puede alcanzar aquello que se le permitió explícitamente alcanzar.

El principio es que los agentes deben tener el acceso mínimo necesario para realizar sus tareas. Así como no a todos los contratistas se les otorga acceso completo a la red, las licencias de los agentes deben limitar a lo que evidentemente necesitan.  

Esto significa que cuando ocurren infracciones, el costo es significativamente menor. Los atacantes no pueden pasar del punto de apoyo inicial a activos de alto valor.

Cómo proteger a los agentes de IA: primero la visibilidad, luego la aplicación

El enfoque correcto para proteger a los agentes de IA sigue una secuencia clara.  

Empezar con visibilidad. Inventariar todos los agentes, las API a las que llaman y los datos a los que acceden. Mapear sus patrones de comunicación reales. Comprenda cómo es el comportamiento normal.

Luego, desarrolle políticas basadas en lo que observe. Aplicar acceso con privilegios mínimos a cada identidad de agente. Cree reglas de segmentación que permitan a los agentes acceder únicamente a los recursos que necesitan. Reemplace las credenciales estáticas con tokens de corta duración siempre que sea posible.

Por último, aplicar esas políticas en tiempo real. Monitorizar anomalías. Detecta cuando un agente intenta alcanzar algo fuera de su alcance permitido. Tener la capacidad de contener o apagar agentes que se comporten de manera inesperada.

Este es el mismo enfoque que funciona para proteger cualquier carga de trabajo. Los agentes de IA son simplemente otro tipo de carga de trabajo, una que resulta ser autónoma y potencialmente más peligrosa si se ve comprometida.  

Los fundamentos de la segmentación se aplican directamente: ver todo, comprender las dependencias, crear políticas basadas en la realidad y aplicar límites que limiten el movimiento lateral.

OpenClaw fue la advertencia. El riesgo de los agentes de IA es la realidad.

OpenClaw fue un disparo de advertencia. Las vulnerabilidades descubiertas en ese proyecto existen en innumerables implementaciones de agentes de IA en todo el panorama empresarial.  

La diferencia entre un incidente contenido y una violación catastrófica a menudo se reduce a una pregunta: cuando el agente se vio comprometido, ¿qué podía alcanzar?

Las organizaciones que implementan agentes de IA deben responder esa pregunta antes de que lo hagan los atacantes.  

El camino a seguir comienza con tener visibilidad de a qué se conectan realmente los agentes. Continúa con políticas que imponen el mínimo privilegio a nivel de red. Y el resultado es una segmentación que contiene el radio de la explosión cuando algo sale mal.

Tus agentes ya se están conectando a las cosas. La pregunta es si sabes qué es y si tienes los controles para limitar el daño si uno de ellos se vuelve contra ti.

¿Le preocupa todo lo que sus agentes de IA pueden alcanzar? Prueba Illumio Insights gratis hoy para obtener una observabilidad completa y en tiempo real en todos sus entornos.

Artículos relacionados

Experimente Illumio Insights hoy

Vea cómo la observabilidad impulsada por IA le ayuda a detectar, comprender y contener amenazas más rápido.