Por que o OpenClaw (anteriormente conhecido como Clawdbot) é um alerta para a segurança de agentes de IA
Em janeiro, apenas dois meses após seu lançamento, um assistente de IA de código aberto chamado Clawdbot viralizou. Em questão de dias, o projeto atingiu o auge: entre 26 de janeiro e 1º de fevereiro, suas estrelas no GitHub explodiram de 9.000 para mais de 100.000.
Os desenvolvedores ficaram fascinados. A promessa era irresistível: uma IA pessoal com "mãos". Ele poderia ler seus e-mails, navegar na web, executar comandos do shell e desenvolver novas habilidades instantaneamente.
Mas a autonomia que a torna útil é exatamente o que a torna um problema.
Os pesquisadores de segurança descobriram rapidamente as consequências: mais de 4.500 instâncias foram expostas à internet pública e centenas de "skills" maliciosas já haviam inundado o repositório de plugins do projeto. As vulnerabilidades de execução remota de código (RCE) transformaram efetivamente qualquer instalação do Clawdbot em uma nova porta de entrada para atacantes.
Para complicar ainda mais as coisas, o projeto foi forçado a mudar de nome duas vezes em questão de dias — primeiro para Moltbot e depois para OpenClaw — devido a problemas com marcas registradas. A instabilidade criou a oportunidade perfeita para golpistas e hackers de criptomoedas, que sequestraram contas de redes sociais e publicaram plugins falsos para explorar a confusão.
OpenClaw é um conto preventivo da era moderna. É também uma prévia do próximo grande desafio de segurança empresarial. Isso porque os agentes de IA não estão mais apenas conversando — eles estão agindo. Eles precisam de acesso privilegiado para realizar seus trabalhos, e esse acesso os torna a maior ameaça interna.
Agentes de IA são a nova ameaça interna.
Essa mudança está acontecendo mais rápido do que a maioria das equipes de segurança percebe. A Gartner prevê que 40% dos aplicativos corporativos incorporarão agentes de IA até o final de 2026, um aumento em relação aos menos de 5% em 2025. Segundo a PwC, 79% das organizações já adotaram agentes de IA em algum grau. Atualmente, as empresas enfrentam uma proporção de 82 identidades de máquina para cada identidade humana.
Esses agentes não são meros chatbots. Eles agem. Eles se conectam a bancos de dados, chamam APIs, acessam sistemas de arquivos, enviam e-mails e acionam fluxos de trabalho. Eles operam com credenciais e permissões que lhes permitem acessar níveis profundos da infraestrutura corporativa.
De acordo com Wendi Whitmore, Diretora de Inteligência de Segurança da Palo Alto Networks, os agentes de IA representam a nova ameaça interna. Em entrevista ao site de notícias de tecnologia The Register, ela disse que, quando os invasores comprometem um ambiente hoje em dia, eles não seguem mais apenas a estratégia tradicional de se mover lateralmente para um controlador de domínio e extrair credenciais do Active Directory. Em vez disso, eles vão direto ao LLM interno e começam a consultá-lo para que faça o trabalho de reconhecimento por eles.
"Provavelmente vai piorar muito antes de melhorar", disse ela.
A Fundação OWASP reconheceu essa mudança quando divulgou a lista dos 10 principais aplicativos agentes no final de 2025. A lista identifica riscos como sequestro de objetivos do agente, uso indevido de ferramentas, abuso de identidade e agentes desonestos operando fora dos limites pretendidos.
A segurança dos agentes de IA deixou de ser uma preocupação teórica. Pesquisadores de segurança já documentaram ataques reais que exploram cada uma dessas categorias.
Você não pode proteger a IA que não consegue ver.
O fato é que a maioria das organizações não tem ideia de com o que seus agentes de IA estão se conectando.
O Índice de Segurança de Dados da Microsoft de 2026 constatou que as organizações estão implementando IA generativa e agente mais rapidamente do que seus controles de segurança conseguem se adaptar.
A pesquisa descobriu que a IA generativa está agora envolvida em 32% dos incidentes de segurança de dados. Ao serem questionados sobre o maior desafio, 29% dos entrevistados citaram a fraca integração entre as plataformas de segurança e gestão de dados como a principal lacuna de visibilidade.
Este é o problema fundamental.
Os agentes abrangem nuvens, aplicativos SaaS e sistemas locais. Eles burlam o monitoramento de identidade padrão. Eles criam pontos cegos em toda a postura de segurança.
Sem visibilidade sobre o que os agentes estão fazendo e onde estão se conectando, as equipes de segurança estão operando às cegas.
É aqui que o Illumio Insights preenche uma lacuna crítica de visibilidade. Ao observar o tráfego real e o comportamento da comunicação em ambientes híbridos, o Insights mostra como agentes, cargas de trabalho e serviços realmente se comunicam — e não como as equipes presumem que se comunicam.
Não é possível criar políticas de segurança eficazes para agentes de IA sem primeiro compreender seu comportamento real. Quais APIs eles utilizam? Que bases de dados eles consultam? A que serviços eles têm acesso?
As respostas a essas perguntas devem vir da observação, não da suposição.
Limitar a movimentação lateral de agentes legítimos
Agentes de IA legítimos precisam de acesso à rede.
Um agente de vendas precisa acessar o CRM. Um agente de suporte precisa ter acesso ao sistema de tickets. Um assistente de programação precisa interagir com repositórios e pipelines de CI/CD.
Bloquear todo o acesso anula o propósito de implantar agentes.
A solução não é bloquear todo o acesso. O objetivo é delimitar o acesso com precisão, com base no que cada agente realmente precisa.
É aqui que a microsegmentação, oferecida por soluções como o Illumio Segmentation, se torna essencial. Por meio da segmentação, as organizações podem limitar os agentes a zonas de rede, bancos de dados ou serviços específicos necessários para suas tarefas.
Se um agente for comprometido por meio de injeção imediata ou qualquer outro vetor de ataque, o raio de explosão será contido. O agente só pode alcançar aquilo que lhe foi explicitamente permitido alcançar.
O princípio é que os agentes devem ter o acesso mínimo necessário para realizar suas tarefas. Assim como nem todos os contratados recebem acesso total à rede, as permissões dos agentes devem ser limitadas ao que eles comprovadamente precisam.
Isso significa que, quando ocorrem violações de segurança, elas custam significativamente menos. Os atacantes não conseguem mudar o foco da posição inicial para ativos de alto valor.
Como proteger agentes de IA: visibilidade primeiro, depois aplicação de medidas.
A abordagem correta para proteger agentes de IA segue uma sequência clara.
Comece com visibilidadeInventariar todos os agentes, as APIs que eles chamam e os dados que acessam . Mapeie seus padrões reais de comunicação. Entenda como é o comportamento normal.
Em seguida, elabore políticas com base no que você observar. Aplique o princípio do menor privilégio a todas as identidades de agentes. Crie regras de segmentação que permitam aos agentes acessar apenas os recursos de que precisam. Substitua as credenciais estáticas por tokens de curta duração sempre que possível.
Por fim, aplique essas políticas em tempo real. Monitore em busca de anomalias. Detectar quando um agente tenta acessar algo fora do seu escopo permitido. Ter a capacidade de conter ou desativar agentes que se comportem de maneira inesperada.
Essa é a mesma abordagem que funciona para proteger qualquer carga de trabalho. Os agentes de IA são simplesmente outro tipo de carga de trabalho, que por acaso é autônoma e potencialmente mais perigosa se comprometida.
Os princípios fundamentais da segmentação aplicam-se diretamente: visualizar tudo, compreender as dependências, criar políticas baseadas na realidade e impor limites que restrinjam a movimentação lateral.
O aviso era o OpenClaw. O risco inerente aos agentes de IA é uma realidade.
OpenClaw foi um tiro de advertência. As vulnerabilidades descobertas nesse projeto existem em inúmeras implementações de agentes de IA em todo o cenário empresarial.
A diferença entre um incidente contido e uma violação catastrófica muitas vezes se resume a uma pergunta: quando o agente foi comprometido, aonde ele podia chegar?
As organizações que implementam agentes de IA precisam responder a essa pergunta antes que os invasores o façam.
O caminho a seguir começa com a visibilidade sobre a que os agentes estão realmente se conectando. Continua com políticas que reforçam o princípio do privilégio mínimo no nível da rede. E resulta em uma segmentação que contém o raio de explosão quando algo dá errado.
Seus agentes já estão se conectando aos dispositivos. A questão é se você sabe o quê, e se tem os controles para limitar os danos caso um deles se volte contra você.
Preocupado com tudo o que seus agentes de IA podem alcançar? Experimente o Illumio Insights gratuitamente. Hoje mesmo, para obter observabilidade completa e em tempo real em todos os seus ambientes.


.webp)


