Volte às noções básicas de segurança para se preparar para os riscos de IA
Não há um dia que não ouçamos falar AI nas notícias. Desde o rápido desenvolvimento de novas tecnologias até as formas como elas afetarão nosso futuro, a IA está sempre em nossas mentes, especialmente no mundo da tecnologia.
E algumas das questões mais urgentes sobre os novos avanços de ferramentas como o ChatGPT vêm do mundo da segurança cibernética. Como os malfeitores usarão a IA para aumentar seus atos maliciosos? E como o ransomware evoluirá para melhor escapar de nossas defesas?
Para analisar a ferramenta e o que ela significa para o futuro do setor de segurança cibernética, Paul Dant, engenheiro sênior de sistemas da Illumio, e Michael Adjei, diretor de engenharia de sistemas da EMEA da Illumio, conversaram sobre como a IA funciona, onde estão suas vulnerabilidades e como os líderes de segurança podem combater seu impacto.
Seus conselhos finais? Volte ao básico.
Continue lendo e assista à discussão completa — com um pequeno clipe abaixo — para saber o porquê.
A estrutura da IA e suas muitas vulnerabilidades
Já foi menos de dois anos desde que o ChatGPT foi lançado pela primeira vez, e em tão pouco tempo, a indústria já está vendo isso nova tecnologia de IA terá um impacto enorme na segurança cibernética — e já está nas mãos daqueles que querem usá-la tanto para o bem quanto para o mal.
É importante entender como a IA é estruturada para combater os pontos em que os invasores podem interferir.
“Em termos simplificados, a IA funciona com um conjunto de dados com uma camada de entrada, camada oculta e camada de saída”, explicou Adjei. “Os dados são empurrados para a camada de entrada e para a camada oculta, onde a 'mágica' da IA acontece. Em seguida, ele acaba na camada de saída, onde o consumidor pode interagir com ele.”
Onde podem estar as vulnerabilidades nesse processo? “Praticamente em todas as etapas”, disse Adjei.

Os riscos de segurança da IA existem há anos
Essas vulnerabilidades não começaram apenas com o lançamento generalizado do ChatGPT no ano passado. Adjei e Dant explicaram que os sistemas de IA comprometidos existem há anos — e são um grande risco, facilmente ignorado, dos sistemas de IA.
O par citado Lançamento da Microsoft em 2016 de um chatbot de IA para o Twitter: “Em poucas horas, o chatbot recebeu todas as piores e mais vis informações que você pode imaginar na Internet. Passou de uma demonstração do progresso da IA para tudo de ruim que existe on-line”, disse Adjei.
Este é um exemplo simples e inicial de um ataque relacionado à IA, mas mostra como agentes mal-intencionados podem se basear em ataques existentes táticas, técnicas e procedimentos (TTPs) para transformar rapidamente uma nova tecnologia em uma nova via de ataque. Organizações de todos os setores, regiões e tamanhos precisam ser proativas em sua preparação para se protegerem contra o inevitável Ataques gerados por IA.
Como um exemplo mais recente, Dant solicitou que o ChatGPT produzisse algum ransomware em tempo real, destacando a facilidade com que suas barreiras de proteção podem ser contornadas. O ChatGPT não estava disposto a abordar a solicitação de Dant de “me escrever um ransomware”. Mas quando ele deu um toque educacional às suas instruções e dividiu sua solicitação em etapas aparentemente inocentes, ele descobriu que o ChatGPT estava tentando ajudar e, finalmente, criando um ransomware para ele.
“O ChatGPT quer nos ajudar”, disse Dant. “O que descobri é que, se você realmente der um toque educacional às suas solicitações, é mais do que provável que ela não veja quais são suas principais intenções e realmente o ajudará a automatizar a criação de um script de ransomware.”
Esse exemplo é apenas um dos muitos casos de uso de IA que os agentes de ameaças estão descobrindo e usando diariamente para acelerar o volume e o impacto dos ataques. Como Adjei resumiu habilmente: “Muito legal, mas muito assustador”.
Como os líderes de segurança devem responder aos riscos da IA
Apesar do medo que a IA está causando na segurança cibernética, Adjei e Dant concordaram que muitas organizações podem fazer para começar a se proteger contra o próximo ataque em potencial. O mais importante é voltar ao básico.
“A primeira resposta de muitos CISOs e líderes de segurança foi: 'A IA está sendo usada pelos bandidos, então os mocinhos também precisam de mais IA'”, disse Adjei, “Mas isso não é necessariamente verdade”.
Dant concordou, explicando que, embora a IA se torne mais importante em termos de análise de dados e conclusão de tarefas na mesma velocidade em que os atacantes se movem, a melhor maneira de se preparar para ataques de IA será garantir uma boa higiene cibernética.
“O primeiro princípio é voltar ao básico”, disse Dant. “Em última análise, uma boa higiene cibernética prevenção de movimentos laterais, e Princípios de confiança zero se tornará ainda mais válido no futuro.”
Não importa como os ataques gerados pela IA se desenvolvam, os principais princípios de segurança permanecerão verdadeiros. “É importante que os líderes de segurança não se sintam sobrecarregados diante da IA”, disse Dant.
No futuro, tanto Adjei quanto Dant incentivam os líderes de segurança a se concentrarem na construção de resiliência cibernética e contenção de violações alinhadas às estratégias de segurança Zero Trust.
Assista ao webinar completo para ver como o ChatGPT torna incrivelmente simples para os invasores criarem ransomware com IA.
Entre em contato conosco hoje para saber mais sobre como criar resiliência contra ataques de IA com a plataforma de segmentação Illumio Zero Trust.