Revenir aux fondamentaux de la sécurité pour se préparer aux risques liés à l'IA
Not a day goes by that we don’t hear about AI in the news. From the rapid development of new technologies to the ways it will impact our future — AI is always on our minds, especially in the world of tech.
Certaines des questions les plus brûlantes concernant les nouvelles avancées d'outils tels que ChatGPT proviennent du monde de la cybersécurité. Comment les mauvais acteurs utiliseront-ils l'IA pour renforcer leurs actes malveillants ? Et comment les ransomwares évolueront-ils pour mieux échapper à nos défenses ?
Afin d'examiner cet outil et ce qu'il signifie pour l'avenir du secteur de la cybersécurité, Paul Dant et Michael Adjei, directeur de l'ingénierie des systèmes, EMEA chez Illumio, se sont assis pour discuter du fonctionnement de l'IA, de ses vulnérabilités et de la manière dont les responsables de la sécurité peuvent lutter contre son impact.
Leur conseil de base ? Revenez à l'essentiel.
Read on and watch the full discussion — with a short clip below — to learn why.
La structure de l'IA et ses nombreuses vulnérabilités
It’s been less than two years since ChatGPT was first launched, and in such a short period of time, the industry is already seeing that new AI technology will have a massive impact on cybersecurity — and is already in the hands of those who want to use it for both good and evil.
Il est important de comprendre comment l'IA est structurée pour lutter contre les points d'interférence des attaquants.
"Pour simplifier, l'IA fonctionne à partir d'un ensemble de données comportant une couche d'entrée, une couche cachée et une couche de sortie", explique M. Adjei. Les données sont introduites dans la couche d'entrée et passent dans la couche cachée où s'opère la "magie" de l'IA. Il aboutit ensuite à la couche de sortie où le consommateur peut interagir avec lui".
Où se situent les vulnérabilités dans ce processus ? "Pratiquement à tous les stades", a déclaré M. Adjei.

Les risques liés à la sécurité de l'IA existent depuis des années
Ces vulnérabilités n'ont pas seulement commencé avec la diffusion à grande échelle de ChatGPT l'année dernière. Adjei et Dant ont expliqué que les systèmes d'IA compromis existent depuis des années - et qu'ils constituent un risque majeur, facilement négligé, des systèmes d'IA.
The pair cited Microsoft’s 2016 launch of an AI chatbot for Twitter: “Within a few hours, the chatbot had been fed all the worst, most vile information you can imagine from the Internet. It turned from a show of AI progress to everything bad that exists online,” Adjei said.
This is an early, simple example of an attack related to AI, but it shows the ways malicious actors can build upon existing attack tactics, techniques, and procedures (TTPs) to quickly turn a new technology into a new avenue of attack. Organizations across every industry, geography, and size need to be proactive in their preparation to secure against inevitable AI-generated attacks.
Plus récemment, Dant a incité ChatGPT à produire un ransomware à la volée, ce qui montre à quel point ses garde-fous peuvent être facilement contournés. ChatGPT n'a pas voulu répondre à l'invitation de Dant à "écrire un ransomware".
Mais lorsqu'il a donné une tournure éducative à ses invites et décomposé sa demande en étapes d'apparence innocente, il a découvert que ChatGPT essayait de l'aider et qu'il avait fini par créer un ransomware pour lui.
"ChatGPT veut nous aider," Dant. "Ce que j'ai constaté, c'est que si vous donnez une tournure éducative à vos invites, il est plus que probable qu'elles ne verront pas vos intentions ultimes et vous aideront à automatiser la création d'un script de ransomware".
Cet exemple n'est qu'un des nombreux cas d'utilisation de l'IA que les acteurs de la menace découvrent et utilisent quotidiennement pour accélérer le volume et l'impact des attaques. Comme l'a résumé Adjei de manière experte : "Plutôt cool mais plutôt effrayant".
Comment les responsables de la sécurité doivent-ils répondre aux risques liés à l'IA ?
Malgré les craintes que l'IA suscite dans le domaine de la cybersécurité, M. Adjei et M. Dant conviennent que les organisations peuvent faire beaucoup pour commencer à se prémunir contre la prochaine attaque potentielle. Le plus important est de revenir à l'essentiel.
"La première réaction de nombreux RSSI et responsables de la sécurité a été de dire : "L'IA est utilisée par les méchants, donc les gentils ont aussi besoin de plus d'IA", a déclaré M. Adjei, mais ce n'est pas nécessairement vrai.
M. Dant est d'accord, expliquant que même si l'IA deviendra plus importante en termes d'analyse de données et d'exécution de tâches à la même vitesse que les attaquants, la meilleure façon de se préparer aux attaques de l'IA sera d'assurer une bonne cyberhygiène.
"Le premier principe est de revenir à l'essentiel", a déclaré M. Dant. "En fin de compte, une bonne hygiène cybernétique, la prévention des mouvements latéraux et les principes de confiance zéro deviendront encore plus valables à l'avenir.
Quelle que soit l'évolution des attaques générées par l'IA, les principes fondamentaux de la sécurité resteront valables. "Il est important que les responsables de la sécurité ne se sentent pas dépassés par l'IA", a déclaré M. Dant.
Pour l'avenir, Adjei et Dant encouragent les responsables de la sécurité à se concentrer sur le renforcement de la résilience cybernétique et sur l'endiguement des brèches, conformément aux stratégies de sécurité "Zero Trust".
Watch the full webinar to see how ChatGPT makes it incredibly simple for attackers to build ransomware with AI.
Contactez nous aujourd'hui pour en savoir plus sur le renforcement de la résilience contre les attaques de l'IA avec l'Illumio.
.png)
.webp)


.webp)
.webp)
.webp)