Volte às noções básicas de segurança para se preparar para os riscos de IA
Not a day goes by that we don’t hear about AI in the news. From the rapid development of new technologies to the ways it will impact our future — AI is always on our minds, especially in the world of tech.
E algumas das questões mais urgentes sobre os novos avanços de ferramentas como o ChatGPT vêm do mundo da segurança cibernética. Como os malfeitores usarão a IA para aumentar seus atos maliciosos? E como o ransomware evoluirá para melhor escapar de nossas defesas?
Para analisar a ferramenta e o que ela significa para o futuro da indústria de cibersegurança, Paul Dant e Michael Adjei, Diretor de Engenharia de Sistemas da Illumio para a região EMEA, reuniram-se para discutir como a IA funciona, onde estão suas vulnerabilidades e como os líderes de segurança podem combater seu impacto.
Seus conselhos finais? Volte ao básico.
Read on and watch the full discussion — with a short clip below — to learn why.
A estrutura da IA e suas muitas vulnerabilidades
It’s been less than two years since ChatGPT was first launched, and in such a short period of time, the industry is already seeing that new AI technology will have a massive impact on cybersecurity — and is already in the hands of those who want to use it for both good and evil.
É importante entender como a IA é estruturada para combater os pontos em que os invasores podem interferir.
“Em termos simplificados, a IA funciona com um conjunto de dados com uma camada de entrada, camada oculta e camada de saída”, explicou Adjei. “Os dados são empurrados para a camada de entrada e para a camada oculta, onde a 'mágica' da IA acontece. Em seguida, ele acaba na camada de saída, onde o consumidor pode interagir com ele.”
Onde podem estar as vulnerabilidades nesse processo? “Praticamente em todas as etapas”, disse Adjei.

Os riscos de segurança da IA existem há anos
Essas vulnerabilidades não começaram apenas com o lançamento generalizado do ChatGPT no ano passado. Adjei e Dant explicaram que os sistemas de IA comprometidos existem há anos — e são um grande risco, facilmente ignorado, dos sistemas de IA.
The pair cited Microsoft’s 2016 launch of an AI chatbot for Twitter: “Within a few hours, the chatbot had been fed all the worst, most vile information you can imagine from the Internet. It turned from a show of AI progress to everything bad that exists online,” Adjei said.
This is an early, simple example of an attack related to AI, but it shows the ways malicious actors can build upon existing attack tactics, techniques, and procedures (TTPs) to quickly turn a new technology into a new avenue of attack. Organizations across every industry, geography, and size need to be proactive in their preparation to secure against inevitable AI-generated attacks.
Como um exemplo mais recente, Dant solicitou que o ChatGPT produzisse algum ransomware em tempo real, destacando a facilidade com que suas barreiras de proteção podem ser contornadas. O ChatGPT não estava disposto a abordar a solicitação de Dant de “me escrever um ransomware”.
Mas quando ele deu um toque educacional às suas instruções e dividiu sua solicitação em etapas aparentemente inocentes, ele descobriu que o ChatGPT estava tentando ajudar e, finalmente, criando um ransomware para ele.
" O ChatGPT quer nos ajudar, disse " Dant. “O que descobri é que, se você realmente der um toque educacional às suas solicitações, é mais do que provável que ela não veja quais são suas principais intenções e realmente o ajudará a automatizar a criação de um script de ransomware.”
Esse exemplo é apenas um dos muitos casos de uso de IA que os agentes de ameaças estão descobrindo e usando diariamente para acelerar o volume e o impacto dos ataques. Como Adjei resumiu habilmente: “Muito legal, mas muito assustador”.
Como os líderes de segurança devem responder aos riscos da IA
Apesar do medo que a IA está causando na segurança cibernética, Adjei e Dant concordaram que muitas organizações podem fazer para começar a se proteger contra o próximo ataque em potencial. O mais importante é voltar ao básico.
“A primeira resposta de muitos CISOs e líderes de segurança foi: 'A IA está sendo usada pelos bandidos, então os mocinhos também precisam de mais IA'”, disse Adjei, “Mas isso não é necessariamente verdade”.
Dant concordou, explicando que, embora a IA se torne mais importante em termos de análise de dados e conclusão de tarefas na mesma velocidade em que os atacantes se movem, a melhor maneira de se preparar para ataques de IA será garantir uma boa higiene cibernética.
“O primeiro princípio é voltar ao básico”, disse Dant. “Em última análise, uma boa higiene cibernética, a prevenção de movimentos laterais e os princípios do Zero Trust se tornarão ainda mais válidos no futuro.”
Não importa como os ataques gerados pela IA se desenvolvam, os principais princípios de segurança permanecerão verdadeiros. “É importante que os líderes de segurança não se sintam sobrecarregados diante da IA”, disse Dant.
No futuro, tanto Adjei quanto Dant incentivam os líderes de segurança a se concentrarem na construção de resiliência cibernética e contenção de violações alinhadas às estratégias de segurança Zero Trust.
Watch the full webinar to see how ChatGPT makes it incredibly simple for attackers to build ransomware with AI.
Entre em contato conosco hoje Para saber mais sobre como construir resiliência contra ataques de IA com o Illumio.
.png)
.webp)


.webp)
.webp)
.webp)