/
Resiliência cibernética

Agentes de IA estão se tornando funcionários digitais. Eis como a política de confiança zero os protege.

Josh Woodruff, fundador e CEO da Massive Scale AI.

Quando é que uma grande mudança na segurança empresarial se revela?

Josh Woodruff esperava que isso acontecesse durante uma investigação de violação de segurança ou um exercício de resposta a incidentes. Em vez disso, aconteceu durante uma apresentação em uma conferência.

O apresentador mostrou um painel de controle com a atividade em um grande ambiente corporativo — eventos de login, chamadas de API e ações do sistema. A princípio, tudo parecia normal.  

Em seguida, o apresentador explicou o que a plateia estava vendo: nenhuma daquela atividade era proveniente de seres humanos. Todas as ações eram realizadas por máquinas.

Durante décadas, os programas de segurança empresarial foram concebidos tendo como foco os utilizadores humanos. As pessoas faziam login, acessavam os sistemas e tomavam decisões. As equipes de segurança se concentravam em verificar identidades e monitorar o comportamento humano.

Mas essa suposição está começando a ruir.

Josh, fundador e CEO da Massive Scale AI, passou quase três décadas liderando transformações nas áreas de segurança, nuvem e TI. Durante nossa conversa no podcast The Segment , ele explicou que os ambientes corporativos estão entrando em uma nova fase. Identidades de máquinas, como APIs, serviços, ferramentas de automação e agentes de IA, estão começando a superar em número os usuários humanos em redes corporativas.

Essa mudança cria um novo desafio. As organizações já não protegem apenas as pessoas que acedem aos sistemas. Eles também são agentes de software que controlam e podem tomar decisões e agir dentro da empresa.

Nesse contexto, o conceito de Zero Trust assume um novo significado. As equipes de segurança não estão mais apenas verificando identidades humanas, mas gerenciando frotas de funcionários digitais.

A IA está se tornando um agente operacional dentro das empresas.

Muitas discussões sobre segurança em IA se concentram em modelos e dados de treinamento. Esses tópicos são importantes, mas não abrangem toda a transformação que está ocorrendo dentro das organizações.

Os sistemas de IA estão passando da análise para a ação.

As primeiras ferramentas de IA eram, em sua maioria, informativas. Eles geraram insights, resumiram dados ou responderam a perguntas. Os humanos continuaram responsáveis por interpretar esses resultados e decidir o que fazer em seguida.

A IA agente altera esse modelo.

Agentes de IA podem planejar tarefas, escolher ações e interagir diretamente com os sistemas. Eles podem acionar fluxos de trabalho, chamar APIs, atualizar registros e gerenciar processos sem esperar pela aprovação humana.

Isso cria um ambiente de segurança muito diferente.

O software tradicional opera através de lógica determinística. Se um evento específico ocorrer, o sistema executa uma ação predefinida. As equipes de segurança podem desenvolver políticas com base nesses fluxos previsíveis.

Os sistemas de IA se comportam de maneira diferente.

“Eles são estocásticos”, disse Josh. “Não se trata mais de computação determinística.”

Em termos práticos, isso significa que os sistemas de IA operam com base em probabilidades e padrões aprendidos, em vez de regras rígidas. A mesma solicitação pode produzir resultados ligeiramente diferentes dependendo do contexto, dos dados de treinamento ou dos caminhos de raciocínio dentro do modelo.

Quando esses resultados são apenas informativos, o risco é limitado. Mas quando os sistemas de IA começam a tomar decisões operacionais, a imprevisibilidade se torna uma preocupação real de segurança.

A IA agética introduz uma nova categoria de risco: a tomada de decisões autônomas dentro dos sistemas empresariais.

É por isso que Josh incentiva as organizações a repensarem a forma como concebem a IA. Em vez de encarar os agentes de IA como ferramentas, ele sugere que os consideremos como membros da força de trabalho.

Por que os agentes de IA devem ser tratados como funcionários digitais?

Josh costuma pedir às organizações que imaginem agentes de IA como trabalhadores digitais operando dentro da empresa.  

Agentes de IA podem executar tarefas, interagir com sistemas e acessar dados e serviços. Em muitos aspectos, seu comportamento se assemelha ao de funcionários humanos.

Mas existem duas diferenças importantes.

Em primeiro lugar, os agentes de IA operam na velocidade das máquinas. Eles podem executar tarefas continuamente e interagir com vários sistemas simultaneamente.

Em segundo lugar, eles carecem de bom senso. Os funcionários humanos trazem contexto e intuição para o seu trabalho. Mesmo quando cometem erros, muitas vezes reconhecem quando algo parece errado ou fora dos limites esperados. Os agentes de IA não.

“Eles não sabem o que é bom ou ruim”, disse Josh. “Eles simplesmente sabem muita coisa.”

Devido a essa limitação, um sistema de IA pode ser extremamente eficaz em atingir o objetivo errado.

Josh compartilhou uma história que ilustra esse risco. Uma organização implementou um sistema de IA para ajudar a gerenciar pedidos de suprimentos. Inicialmente, o sistema apenas recomendava compras. Após os testes demonstrarem resultados confiáveis, a empresa permitiu que ela fizesse pequenos pedidos automaticamente.

Tudo funcionava bem até a IA descobrir um desconto por atacado. O sistema adquiriu produto de limpeza para pisos suficiente para quarenta anos.

No total, gastou 1,4 milhão de dólares para garantir o melhor preço.

A IA não estava apresentando defeito. Simplesmente otimizou o objetivo que lhe havia sido atribuído. A organização havia instruído o sistema a maximizar as economias. O sistema seguiu essas instruções à risca.

O que faltava era contexto empresarial.

Este exemplo destaca uma lição importante para os líderes de segurança. Os agentes de IA precisam de estruturas de governança semelhantes às utilizadas para funcionários humanos. Isso inclui regras definidas, limites de acesso e supervisão.

É aqui que uma estratégia de segurança Zero Trust pode ajudar.

Como a estratégia Zero Trust fornece diretrizes para sistemas autônomos

O conceito de Zero Trust baseia-se num princípio simples: a confiança nunca deve ser presumida dentro de sistemas digitais.

Em vez de depender de limites de rede ou zonas de confiança implícitas, o Zero Trust avalia cada solicitação com base na identidade, no contexto e no comportamento.

Em nossa conversa, Josh descreveu a filosofia: "A filosofia Zero Trust consiste, na verdade, em remover a confiança — que é uma emoção humana — dos sistemas digitais."

Esse modelo funciona bem para ambientes empresariais modernos porque as decisões de acesso dependem de múltiplos sinais. Os sistemas de segurança avaliam:

  • Quem está fazendo o pedido?
  • Que ação eles estão tentando realizar?
  • De onde vem a solicitação?
  • Se o comportamento se encaixa nos padrões esperados.

Esses mesmos princípios se aplicam naturalmente aos sistemas de IA.

Os agentes de IA interagem com diversos recursos empresariais. Eles podem acessar dados internos, comunicar-se com serviços ou acionar fluxos de trabalho automatizados. Cada interação deve seguir as regras de Confiança Zero.

As 5 perguntas que regem os agentes de IA

Para ajudar as organizações a implementar essa abordagem, Josh desenvolveu uma estrutura simples chamada Agent Trust Framework (Estrutura de Confiança Agêntica). Ela organiza a segurança da IA em torno de cinco questões principais.

  • Quem é você? Todo agente de IA precisa de uma identidade clara que possa ser verificada por meio de autenticação forte.
  • O que você está fazendo? O monitoramento comportamental garante que o sistema esteja operando dentro dos padrões esperados.
  • Que dados você está consumindo e produzindo? A governança de dados determina a quais informações o sistema pode acessar e quais resultados ele pode gerar.
  • Para onde você pode ir? A segmentação controla quais sistemas ou ambientes o agente pode acessar.
  • O que acontece se você se rebelar? As organizações precisam de mecanismos para detectar comportamentos anormais e desligar rapidamente os sistemas automatizados, se necessário.

Essas perguntas parecem simples, mas juntas representam uma arquitetura de segurança abrangente. Elas abrangem identidade, monitoramento de comportamento, governança de dados, segmentação e resposta a incidentes.

Em outras palavras, eles aplicam os princípios fundamentais da Confiança Zero ao mundo emergente da automação orientada por IA.

A segurança determinará a rapidez com que a IA poderá ser escalada.

Um dos motivos pelos quais muitas organizações têm dificuldade em implementar IA em larga escala é a confiança.

As equipes costumam experimentar modelos e ferramentas de automação em ambientes piloto. Essas experiências podem produzir resultados úteis, mas as organizações hesitam em implementá-las na produção.

As preocupações com a segurança costumam surgir tardiamente no processo.

Josh observa esse padrão com frequência. “A segurança geralmente é uma reflexão tardia”, disse ele.

Quando a segurança entra tarde demais, as organizações se veem presas no que ele chama de purgatório dos projetos-piloto. Os projetos de IA são promissores, mas a liderança não confia plenamente em sua capacidade de operar com segurança dentro dos sistemas de produção.

A solução não é desacelerar a adoção da IA, mas sim incorporar a segurança à arquitetura desde o início.

Josh usou uma analogia simples para explicar essa ideia: segurança é uma gaiola de proteção, não um pedal de freio. Um carro com gaiola de proteção pode andar mais rápido porque o motorista confia na proteção ao seu redor.

O mesmo princípio se aplica aos sistemas de IA.

Ao projetar diretrizes claras em torno de agentes autônomos, as organizações podem conceder a esses sistemas mais responsabilidade e autonomia com segurança.

A política Zero Trust torna isso possível.

O futuro da segurança empresarial reside na governança de máquinas.

Josh acredita que muitas organizações ainda subestimam o quanto os ambientes corporativos mudarão na próxima década.

As identidades das máquinas já estão crescendo rapidamente. APIs, serviços e ferramentas de automação agora superam em número os usuários humanos em muitos ambientes. Os agentes de IA impulsionarão ainda mais essa tendência.

Num futuro próximo, os usuários humanos poderão representar apenas uma pequena parcela das identidades que operam nos sistemas empresariais.

Essa mudança alterará a forma como as equipes de segurança trabalham. Em vez de se concentrarem principalmente no comportamento humano, as equipes monitorarão a atividade das máquinas. Eles analisarão fluxos de trabalho automatizados, revisarão decisões baseadas em IA e implementarão medidas de segurança em torno de sistemas autônomos.

A estratégia Zero Trust já oferece a base adequada. Elimina suposições sobre confiança e verifica o acesso continuamente. Esses mesmos princípios se aplicam diretamente aos sistemas de IA.

A diferença está na escala.

Em breve, as plataformas de segurança precisarão avaliar milhões de interações automatizadas a cada minuto. A preparação para esse futuro deve começar agora.

As organizações não precisam desacelerar a inovação em IA. Mas eles precisam de ambientes onde os agentes de IA tenham identidades claras, limites rígidos e supervisão constante.

As empresas que tiverem sucesso na era da IA não apenas adotarão a automação mais rapidamente, mas também construirão sistemas nos quais poderão confiar.

Ouça o episódio completo de The Segment: A Zero Trust Leadership Podcast em Podcasts da Apple, Spotify, ou nosso site.

Artigos relacionados

Experimente o Illumio Insights hoje mesmo

Veja como a observabilidade com IA ajuda você a detectar, entender e conter ameaças mais rapidamente.