Un marco de profesionales de seguridad para la seguridad y la protección de la IA

A principios de noviembre, el Reino Unido acogió el Cumbre de seguridad de IA, la primera cumbre mundial sobre inteligencia artificial. Reunió a gobiernos internacionales y expertos en IA para considerar los riesgos de la IA y cómo los esfuerzos coordinados internacionalmente pueden ayudar a mitigarlos. Esta cumbre sigue las discusiones mundiales sobre la seguridad de la IA, incluido el reciente Orden Ejecutiva de los Estados Unidos sobre el Desarrollo y Uso Seguro y Fiable de la IA.
Esperaba ver un marco específico o directrices para la seguridad de la IA salir de la cumbre, pero me decepcionó no encontrar una orientación tangible. En esta entrada de blog, describo el tipo de marco procesable sobre seguridad de IA que esperaba ver salir de la cumbre desde mi perspectiva como profesional senior de seguridad.
Aproveche la novedad de la IA para abordar la seguridad
Antes de exponer el marco, creo que es importante dar un paso filosófico hacia atrás para entender por qué la seguridad de la IA es un tema tan importante y por qué me decepcionaron tanto los resultados de la Cumbre de Seguridad de la IA de este año.
Es bastante evidente que la mayoría de las deficiencias de seguridad en las tecnologías de red actuales que utilizamos hoy en día se remontan a debilidades en la forma en que los protocolos de los que dependen se diseñaron originalmente hace décadas.
La seguridad no fue una consideración inicial. En realidad, rara vez lo es.
Tomemos por ejemplo los protocolos originales para web (HTTP), correo (SMTP) y transferencia de archivos (FTP). Todos estos fueron diseñados como texto plano sin ningún tipo de seguridad de datos a través del cifrado. Los creadores en ese momento no imaginaban un mundo en el que la banca, la información clínica de los pacientes o la información confidencial de los usuarios se transmitirían libre y convenientemente en todo el mundo a través de estos sencillos protocolos de red.
Lo mismo ocurre con el esquema de direccionamiento IPv4 creado a principios de la década de 1980 descrito en la publicación del IETF (Internet Engineering Task Force) RFC 791. ¿Quién hubiera pensado en ese momento que el mundo podría quedarse sin miles de millones de direcciones IP direccionables públicamente? Aun así, tratar de poner en evidencia la seguridad de manera retrospectiva suele ser tanto un cuello de botella como una tarea disruptiva.

IA generativa como ChatGPT de OpenAI, que marca su primer aniversario de disponibilidad pública este mes: ha mostrado los avances en el aprendizaje automático y las capacidades de aprendizaje profundo. Este tipo de modelo de lenguaje grande (LLM) puede imitar en gran medida las redes neuronales del cerebro humano por medio de Redes Neuronales Artificiales (ANN). Por primera vez, el mundo ha sido testigo de la culminación de varios cuerpos de trabajo a lo largo de los años para que la IA se vuelva fácilmente utilizable en ofertas como ChatGPT. De repente, incluso la posibilidad de Inteligencia General Artificial (AGI) y la teóricamente muy superior Super Inteligencia Artificial (ASI) puede que ya no sea una exageración de los títulos de ficción.
Debemos aprovechar el hecho de que la IA aún está lo suficientemente temprano en su evolución como para considerar su seguridad y protección, especialmente con la historia y el bagaje de la creación de redes y la seguridad. Una cumbre de seguridad de IA como la de noviembre de 2023, no solo debería haber abordado los temores sino también haber dado un paso atrás para evaluar la seguridad de la IA frente a una visión holística. Desafortunadamente, no estoy seguro de que esto se haya logrado; al menos no esa vez.
3 dominios principales para la protección y la seguridad de la IA
Para la primera cumbre internacional proactiva y proactiva sobre la seguridad de la IA, esperaba un paso tangible de la geopolítica a las geopolíticas para abordar los siguientes dominios principales:
- Desarrollo, administración y uso final
- Seguridad
- Ética y jurídico
Estos dominios están entrelazados y, por lo tanto, relacionados entre sí. Por ejemplo, el desarrollo de soluciones de IA debe abarcar los dominios éticos y legales para frenar los problemas de origen como el sesgo en los datos de capacitación y la configuración de capas ocultas de los sistemas de aprendizaje profundo. No todo lo que funciona es lo correcto. Al mismo tiempo, asegurar la integridad de los datos de capacitación y el proceso de desarrollo debe incluirse lo antes posible en el proceso.

Un marco de seguridad de IA: lo que esperaba ver de la Cumbre de Seguridad de la IA
En cada uno de los tres dominios, he sugerido una selección de estándares y marcos clave para ser considerados más a fondo, cuyo resultado final debería ser iniciar grupos enfocados a formular estos estándares y marcos:
Desarrollo, administración y uso final
- Estándares y marco de interfaz: Directrices y estándares sobre la interfaz de IA entre diferentes proveedores y luego entre proveedores y usuarios finales, similar a la API web con JSON y USB-C para dispositivos físicos. Esto puede permitir una innovación aún más rápida en múltiples dominios. Un buen ejemplo de ello es lo que ha hecho la interfaz Wi-Fi y de comunicación móvil para la innovación tecnológica en relojes inteligentes, televisores, drones, automóviles, ambulancias, etc.
- Estándares y marco de diferenciación: Políticas que permitan la determinación y diferenciación claras entre las obras artísticas originales y las obras generadas por IA, como las que tenemos para la Gestión de Derechos Digitales (DRM), los derechos de autor y las protecciones de propiedad intelectual. Un área beneficiaria importante será abordar la desinformación y el contenido engañoso, como las falsificaciones profundas y la interferencia electoral, al menos a nivel de productos básicos.
- Brecha de habilidades de IA: Abordar la brecha de habilidades en las áreas clave del desarrollo de IA, la administración de IA y el uso de IA de manera similar a los esfuerzos en programación de computadoras y alfabetización informática (incluida la educación de adultos) en el auge temprano de la computación personal hasta la actualidad. Esto tiene la intención de nivelar el campo de juego tanto para el desarrollo y uso de IA buena como mala IA publicitaria.
Seguridad
- Singularidad de las protecciones de forma: Pautas y protecciones para fusionar IA (como ChatGPT, IA de voz, IA de reconocimiento de imágenes, etc.) con hardware real en una sola forma, similar a robots industriales o robots humanoides en el futuro. En última instancia, dicha capacidad le da a la inteligencia general capacidades de interacción física de IA en el mundo físico. Básicamente, asegurarse de que un robot físico tipo ChatGPT nunca encienda a los humanos o funcione mal de una manera catastrófica. Ya hay diversas ocurrencias donde los robots industriales y los automóviles autónomos han fallado y causado daños o la muerte a los humanos.
- Riesgo de AI: Protecciones contra los riesgos que plantea la IA. ChatGPT ya ha mostrado uso malicioso. Esta área considerará amenazas como la evolución de las cargas útiles maliciosas, la velocidad récord de descubrimiento y explotación de vulnerabilidades, el fraude de voz y phishing, y el sabotaje como el compromiso de los procesos de fabricación o los ataques a la cadena de suministro.
- Riesgo a AI: Protecciones contra los riesgos planteados para la propia IA. Esto incluye la explotación del desarrollo de IA, los procesos de aprendizaje y los parámetros de sesgo. Si bien existen pautas de ética de desarrollo, seguridad y uso de IA, deben mejorarse y mejorar las prácticas de seguridad actuales, como la codificación segura, DevSecOps y SBOMS en la cadena de suministro. Otro lado del consumo, tenemos políticas similares a la ley de mal uso de computadoras, políticas de seguridad de la compañía sobre el uso de computadoras y políticas de uso justo.
Ética y Legal
- Ética cívica de IA: Ética y directrices sobre el uso de IA en esferas como el reconocimiento facial y el comportamiento del usuario contra el monitoreo de empleados, el control y cumplimiento del tráfico, y el sistema de justicia penal.
- Ética científica de IA: Ética y directrices sobre lo que se puede utilizar la IA en términos de ciencia y medicina. Ejemplos de ello son la investigación genética y de enfermedades, la clonación, etc.
- Ética militar de IA: Desarrollar un conjunto de reglas de compromiso tipo Convención de Ginebra para el uso de IA en operaciones cinéticas, especialmente en IA autónoma. Esto sería particularmente importante para que la IA tome decisiones de vida o muerte para evitar la posibilidad de consecuencias no deseadas, como asesinatos en masa, uso de armas químicas o una detonación nuclear no intencionada.
- Marco jurídico de IA: Directrices y normas en torno a las implicaciones jurídicas de involucrar a la IA en diversas situaciones legalmente relevantes. Esto podría incluir escenarios como la naturaleza de las pruebas admisibles en casos legales o de siniestros de seguros y finanzas y cálculos de aceptación de riesgos.
Un marco de seguridad y protección de IA es solo el comienzo
Es alentador ver un fuerte enfoque en el riesgo de las amenazas cibernéticas de IA a escala global. Un marco de seguridad de IA es un primer paso esencial para construir un futuro de IA innovador pero seguro. Pero esto es sólo un punto de partida. Idealmente, debería haber una selección de grupos selectos y enfocados de IA y expertos en la materia de la industria que se asocien para desarrollar e iterar estándares de seguridad de IA similares a los del Grupo de Trabajo de Ingeniería de Internet (IETF) y la Solicitud de Comentarios (RFC).
Es importante destacar que también debemos considerar cómo podemos empoderar a las organizaciones para desarrollar resiliencia contra ataques impulsados por IA. La IA hace que sea más fácil y rápido para los delincuentes lanzar ataques. La mejor defensa es reducir la “superficie de aprendizaje” para que haya menos oportunidades para que las ciberamenazas de IA aprendan, adapten y progresen en el ataque.
Póngase en contacto con nosotros hoy para saber cómo los desarrollos en IA pueden afectar la ciberseguridad de su organización.