Regrese a los conceptos básicos de seguridad para prepararse para los riesgos de IA
No pasa un día que no escuchemos hablar AI en las noticias. Desde el rápido desarrollo de nuevas tecnologías hasta las formas en que impactará nuestro futuro, la IA siempre está en nuestras mentes, especialmente en el mundo de la tecnología.
Y algunas de las preguntas más candentes en torno a los nuevos avances de herramientas como ChatGPT provienen del mundo de la ciberseguridad. ¿Cómo usarán los malos actores la IA para aumentar sus actos maliciosos? ¿Y cómo evolucionará el ransomware para evadir mejor nuestras defensas?
Para echar un vistazo a la herramienta y lo que significa para el futuro de la industria de la ciberseguridad, Paul Dant, Ingeniero Senior de Sistemas de Illumio, y Michael Adjei, Director de Ingeniería de Sistemas, EMEA en Illumio, se sentaron a discutir cómo funciona la IA, dónde se encuentran sus vulnerabilidades y cómo los líderes de seguridad pueden combatir contra su impacto.
¿Su consejo final? Volver a lo básico.
Sigue leyendo y ver la discusión completa — con un breve clip a continuación — para saber por qué.
La estructura de la IA y sus muchas vulnerabilidades
Ha sido menos de dos años desde que se lanzó por primera vez ChatGPT, y en tan poco tiempo, la industria ya está viendo que nueva tecnología de IA tendrá un impacto masivo en la ciberseguridad —y ya está en manos de quienes quieren usarla tanto para el bien como para el mal.
Es importante entender cómo se estructura la IA para combatir los puntos en los que los atacantes pueden interferir.
“En términos simplificados, la IA funciona al tener un conjunto de datos con una capa de entrada, capa oculta y capa de salida”, explicó Adjei. “Los datos se introducen en la capa de entrada y se mueven a la capa oculta donde ocurre la 'magia' de la IA. Luego, termina en la capa de salida donde el consumidor puede interactuar con ella”.
¿Dónde pueden estar las vulnerabilidades en este proceso? “Casi en cada etapa”, dijo Adjei.

Los riesgos de seguridad de IA existen desde hace años
Estas vulnerabilidades no solo se iniciaron con el lanzamiento generalizado de ChatGPT el año pasado. Adjei y Dant explicaron que los sistemas de IA comprometidos han existido durante años, y un riesgo importante y fácil de pasar por alto para los sistemas de IA.
La pareja citó Lanzamiento de Microsoft en 2016 de un chatbot de IA para Twitter: “A las pocas horas, el chatbot había sido alimentado con toda la peor, más vil información que puedas imaginar de Internet. Pasó de una muestra de progreso de IA a todo lo malo que existe en línea”, dijo Adjei.
Este es un ejemplo temprano y simple de un ataque relacionado con la IA, pero muestra las formas en que los actores maliciosos pueden construir sobre el ataque existente tácticas, técnicas y procedimientos (TTP) para convertir rápidamente una nueva tecnología en una nueva vía de ataque. Las organizaciones de todas las industrias, geografías y tamaños deben ser proactivas en su preparación para protegerse contra lo inevitable Ataques generados por IA.
Como ejemplo más reciente, Dant impulsó a ChatGPT a producir algo de ransomware sobre la marcha, destacando la facilidad con la que se pueden bordar sus barandillas. ChatGPT no estaba dispuesto a abordar el mensaje de Dant de “escribirme un poco de ransomware”. Pero cuando le dio un giro educativo a sus indicaciones y dividió su solicitud en pasos aparentemente inocentes, encontró ChatGPT tratando de ayudar y, en última instancia, construyendo ransomware para él.
“ChatGPT quiere ayudarnos”, dijo Dant. “Lo que he descubierto es que si realmente le das un giro educativo a tus indicaciones, lo más probable es que no vea cuáles son tus intenciones finales y realmente te ayude a automatizar la creación de un script de ransomware”.
Este ejemplo es solo uno de los muchos casos de uso de IA que los actores de amenazas están descubriendo y utilizando diariamente para acelerar el volumen y el impacto de los ataques. Como Adjei resumió expertamente: “Bastante genial pero bastante aterrador”.
Cómo deben responder los líderes de seguridad a los riesgos de IA
A pesar del miedo que la IA está causando en ciberseguridad, Adjei y Dant coincidieron en que hay mucho que las organizaciones pueden estar haciendo para comenzar a protegerse contra el próximo ataque potencial. Lo más importante es volver a lo básico.
“La primera respuesta de muchos CISO y líderes de seguridad ha sido: 'La IA está siendo utilizada por los malos, así que los buenos también necesitan más IA”, dijo Adjei, “pero eso no es necesariamente cierto”.
Dant estuvo de acuerdo, explicando que si bien la IA será más importante en términos de analizar datos y completar tareas a la misma velocidad que se mueven los atacantes, la mejor manera de prepararse para los ataques de IA será garantizar una buena higiene cibernética.
“El primer principio es volver a lo básico”, dijo Dant. “En última instancia, una buena higiene cibernética, prevención de movimiento lateral, y Principios de confianza cero será aún más válido de cara al futuro”.
Independientemente de cómo se desarrollen los ataques generados por IA, los principales pilares de seguridad seguirán siendo ciertos. “Es importante que los líderes de seguridad no se sientan abrumados ante la IA”, dijo Dant.
En el futuro, tanto Adjei como Dant alientan a los líderes de seguridad a centrarse en la creación de resiliencia cibernética y contención de brechas alineadas con las estrategias de seguridad Zero Trust.
Vea el webinar completo para ver cómo ChatGPT hace que sea increíblemente simple para los atacantes crear ransomware con IA.
Póngase en contacto con nosotros hoy para obtener más información sobre cómo crear resiliencia contra los ataques de IA con la plataforma de segmentación de confianza cero Illumino.