/
Ciberresiliencia

Los límites de la memoria de trabajo: cerebros humanos vs. modelos de IA

AI brain

En informática, el “conjunto de trabajo” se refiere a la cantidad de datos que un procesador puede manejar a la vez para resolver problemas. Esta idea tiene un paralelo interesante en la cognición humana, conocido como “memoria de trabajo”. La memoria de trabajo es como un rascador mental donde guardamos información temporalmente. Es esencial para razonar y tomar decisiones complejas.

Sin embargo, la memoria de trabajo tiene una capacidad limitada lo que puede limitar nuestra capacidad para abordar problemas muy complicados. Esta visión es importante a medida que nos adentramos en un mundo cada vez más influenciado por la IA, especialmente en campos como la ciberseguridad.

El ancho de banda de un cerebro

La ciencia cognitiva cuenta con diferentes pruebas para medir la capacidad de memoria de trabajo de una persona. Estas pruebas muestran que existe un límite superior consistente, incluso para las personas que son pensadores excepcionales.

Por ejemplo, los maestros del ajedrez, los matemáticos y los mejores músicos tienen habilidades asombrosas, pero su capacidad de memoria de trabajo probablemente no sea muy diferente de la de una persona promedio. Parece que la evolución ha afinado nuestros cerebros para un cierto nivel de capacidad cognitiva. Esto puede dificultarnos la comprensión completa de problemas muy grandes y complejos.

La ventaja de la IA: Escalar la ventana de contexto (con advertencias)

Sistemas de inteligencia artificial, especialmente los modelos de lenguaje grande (LLM), tienen una limitación llamada “ventana de contexto”. Esta es la cantidad de tokens (palabras o partes de código) que pueden manejar a la vez. A diferencia de los humanos, cuya memoria de trabajo es fija, la ventana de contexto de una IA se puede ampliar, aunque es costosa. Más GPU, mejores algoritmos o nuevo hardware pueden aumentar la capacidad de una IA.

No obstante, este enfoque tiene límites importantes. Al principio, tareas como encontrar anomalías en conjuntos de datos enormes y complejos parecen perfectas para LLM. Gastar mucho dinero en tiempo de procesamiento de IA puede parecer que vale la pena por estos conocimientos.

Pero es importante saber que la detección de anomalías a menudo encaja mejor con el aprendizaje automático tradicional (ML) y las estadísticas que con las redes neuronales avanzadas y el aprendizaje profundo. Esto es algo bueno: los métodos tradicionales suelen ser más predecibles y confiables que algunas aplicaciones de IA.

Sin embargo, existe un problema mayor. Los modelos y usos actuales de IA siguen siendo muy defectuosos. Ejemplos como autos autónomos fallando y LLM haciendo “alucinaciones” convincentes pero equivocadas nos recuerdan esto. Antes de usar la IA ampliamente para resolver grandes problemas, debemos asegurarnos de que estos sistemas sean confiables y consistentemente correctos.

Encontrar las herramientas adecuadas para el trabajo adecuado

Entonces, ¿dónde nos deja esto? La clave está en entender que los cerebros humanos y los modelos de IA tienen diferentes fortalezas. Los humanos, con nuestro poder cognitivo fijo, son buenos para resolver problemas detallados dentro de los límites de nuestra memoria de trabajo. Por lo general, elegimos problemas que tenemos buenas posibilidades de resolver por nosotros mismos.

Los modelos de IA, por otro lado, pueden escalarse para problemas que serían demasiado para una mente humana. Pero este enfoque solo tiene sentido cuando:

  • El valor financiero de la solución es mayor que el costo de cómputo.
  • La confianza en la precisión del resultado es crucial.

El alto costo de procesar conjuntos de datos complejos, junto con los límites actuales de explicabilidad y corrección, significa que los problemas que podemos resolver con la IA actual aún son limitados. Su mejor uso es actualmente reducir el alcance y la complejidad a un conjunto más pequeño de problemas accesibles a través de la cognición humana.

AI cybersecurity

Integración de la IA en la ciberseguridad: un enfoque estratégico

En ciberseguridad, el objetivo no es solo luchar Amenazas generadas por IA con más IA, pero para usar la IA sabiamente en protocolos de seguridad. Los equipos de seguridad deben ser inteligentes sobre cómo invierten en IA, asegurándose de que mejora sus capacidades sin crear nuevas debilidades.

Illumio está haciendo esto con Capacidades de ciberseguridad de IA como el Asesor Virtual de Illumio que ofrece respuestas conversacionales a preguntas sobre la configuración y el uso de la Segmentación de Confianza Cero. Y el nuevo motor de etiquetado impulsado por IA brinda visibilidad instantánea de los activos en centros de datos y entornos de nube para ayudar a las organizaciones a adoptar la Segmentación de Confianza Cero más rápido.

Estas soluciones utilizan IA para analizar grandes cantidades de datos mientras mantienen la supervisión humana central para la toma de decisiones de seguridad. Al combinar el cerebro dinámico y adaptativo de los humanos con el poder de procesamiento de la IA, los equipos de seguridad pueden manejar mejor el complejo mundo de las amenazas modernas.

¿La IA reducirá exponencialmente los costos y mejorará la confianza?

¿Podría un efecto similar a la Ley de Moore reducir drásticamente el costo de la IA de alto rendimiento con el tiempo? Esto aún es incierto. El progreso de la IA depende no solo del hardware, sino también de mejores algoritmos, conjuntos de datos mejorados y avances para lograr que los resultados de IA sean confiables y confiables.

Por eso es vital comprender los límites y costos asociados tanto con la memoria de trabajo humana como con las ventanas de contexto de IA. Elegir la herramienta adecuada, ya sea el cerebro humano o una máquina, requiere una comprensión clara del tamaño del problema, su valor potencial, los costos de encontrar una solución y cuán confiables son los resultados. En ciberseguridad, esto significa usar estratégicamente la IA para impulsar las capacidades humanas, asegurando que la mezcla de intuición humana y poder de la máquina se base en la creciente confianza en las soluciones de IA.

De cara al futuro, el futuro probablemente implicará una fuerte asociación entre el pensamiento humano y la inteligencia artificial, y cada uno apoyándose al otro para enfrentar los desafíos de un mundo más complicado.

¿Desea obtener más información sobre las ofertas de IA de Illumio Zero Trust Segmentation Platform? Contáctanos hoy.

Temas relacionados

No se han encontrado artículos.

Artículos relacionados

Cómo elegir el mejor proveedor de ciberseguridad
Ciberresiliencia

Cómo elegir el mejor proveedor de ciberseguridad

Aprenda de un experto en ciberseguridad sobre los factores esenciales que los equipos deben considerar al elegir un proveedor de ciberseguridad.

5 consejos de confianza cero para minoristas y fabricantes de Brooks Running
Ciberresiliencia

5 consejos de confianza cero para minoristas y fabricantes de Brooks Running

Descubra por qué el minorista de calzado, Brooks Running, es un ejemplo brillante de un negocio que implementa controles Zero Trust de una manera práctica.

4 Esenciales de ciberseguridad que toda agencia federal debería implementar
Ciberresiliencia

4 Esenciales de ciberseguridad que toda agencia federal debería implementar

Conozca por qué los líderes de ciberseguridad están enfatizando el cambio necesario hacia una mentalidad de confianza cero para adaptarse a las nuevas amenazas.

8 preguntas que los CISO deberían estar haciendo sobre la IA
Ciberresiliencia

8 preguntas que los CISO deberían estar haciendo sobre la IA

Descubra 8 preguntas que los CISOS deben tener en cuenta al proteger a sus organizaciones de los ataques de ransomware asistidos por IA. Esta es una lectura obligada.

Regrese a los conceptos básicos de seguridad para prepararse para los riesgos de IA
Ciberresiliencia

Regrese a los conceptos básicos de seguridad para prepararse para los riesgos de IA

Obtenga las opiniones de dos expertos en ciberseguridad sobre cómo funciona la IA, dónde se encuentran sus vulnerabilidades y cómo los líderes de seguridad pueden combatir su impacto.

No se debe confiar en la IA: por qué entender eso puede ser transformador
Ciberresiliencia

No se debe confiar en la IA: por qué entender eso puede ser transformador

Descubra por qué el CTO y cofundador de Illumio cree que el “límite tecnológico” de la IA es más pequeño de lo que parece, y cómo eso informa las formas en que usamos la IA.

Assume Breach.
Minimize Impact.
Increase Resilience.

Ready to learn more about Zero Trust Segmentation?