/
Cyber-résilience

Revenir aux fondamentaux de la sécurité pour se préparer aux risques liés à l'IA

Il ne se passe pas un jour sans que l'on entende parler de l'IA dans les médias. Qu'il s'agisse du développement rapide de nouvelles technologies ou de l'impact qu'elle aura sur notre avenir, l'IA est toujours présente dans nos esprits, en particulier dans le monde de la technologie.  

Certaines des questions les plus brûlantes concernant les nouvelles avancées d'outils tels que ChatGPT proviennent du monde de la cybersécurité. Comment les mauvais acteurs utiliseront-ils l'IA pour renforcer leurs actes malveillants ? Et comment les ransomwares évolueront-ils pour mieux échapper à nos défenses ?  

Afin d'examiner cet outil et ce qu'il signifie pour l'avenir du secteur de la cybersécurité, Paul Dant, ingénieur système principal chez Illumio, et Michael Adjei, directeur de l'ingénierie des systèmes, EMEA chez Illumio, se sont assis pour discuter du fonctionnement de l'IA, de ses vulnérabilités et de la manière dont les responsables de la sécurité peuvent lutter contre son impact.

Leur conseil de base ? Revenez à l'essentiel.

Lisez la suite et regardez l'intégralité de la discussion - avec un court extrait ci-dessous - pour savoir pourquoi.

La structure de l'IA et ses nombreuses vulnérabilités

Cela fait moins de deux ans que ChatGPT a été lancé et, en si peu de temps, le secteur constate déjà que la nouvelle technologie de l'IA aura un impact massif sur la cybersécurité - et qu'elle est déjà entre les mains de ceux qui veulent l'utiliser à la fois pour le bien et pour le mal.

Il est important de comprendre comment l'IA est structurée pour lutter contre les points d'interférence des attaquants.  

"Pour simplifier, l'IA fonctionne à partir d'un ensemble de données comportant une couche d'entrée, une couche cachée et une couche de sortie", explique M. Adjei. Les données sont introduites dans la couche d'entrée et passent dans la couche cachée où s'opère la "magie" de l'IA. Il aboutit ensuite à la couche de sortie où le consommateur peut interagir avec lui".

Où se situent les vulnérabilités dans ce processus ? "Pratiquement à tous les stades", a déclaré M. Adjei.  

Un cerveau composé de circuits pour représenter l'IA

Les risques liés à la sécurité de l'IA existent depuis des années

Ces vulnérabilités n'ont pas seulement commencé avec la diffusion à grande échelle de ChatGPT l'année dernière. Adjei et Dant ont expliqué que les systèmes d'IA compromis existent depuis des années - et qu'ils constituent un risque majeur, facilement négligé, des systèmes d'IA.

Ils ont cité le lancement par Microsoft, en 2016, d'un chatbot d'IA pour Twitter: "En l'espace de quelques heures, le chatbot a reçu toutes les informations les plus mauvaises et les plus viles que vous puissiez imaginer sur Internet. Il est passé d'une démonstration des progrès de l'IA à tout ce qu'il y a de mauvais en ligne", a déclaré M. Adjei.

Il s'agit d'un exemple simple et précoce d'une attaque liée à l'IA, mais il montre comment les acteurs malveillants peuvent s'appuyer sur les tactiques, techniques et procédures d' attaque(TTP) existantes pour transformer rapidement une nouvelle technologie en un nouveau moyen d'attaque. Les organisations de tous les secteurs, de toutes les régions et de toutes les tailles doivent se préparer de manière proactive à se prémunir contre les attaques inévitables générées par l'IA.

Plus récemment, Dant a incité ChatGPT à produire un ransomware à la volée, ce qui montre à quel point ses garde-fous peuvent être facilement contournés. ChatGPT n'a pas voulu répondre à l'invitation de Dant à "écrire un ransomware". Mais lorsqu'il a donné une tournure éducative à ses invites et décomposé sa demande en étapes d'apparence innocente, il a découvert que ChatGPT essayait de l'aider et qu'il avait fini par créer un ransomware pour lui.

"ChatGPT veut nous aider," Dant. "Ce que j'ai constaté, c'est que si vous donnez une tournure éducative à vos invites, il est plus que probable qu'elles ne verront pas vos intentions ultimes et vous aideront à automatiser la création d'un script de ransomware".

Cet exemple n'est qu'un des nombreux cas d'utilisation de l'IA que les acteurs de la menace découvrent et utilisent quotidiennement pour accélérer le volume et l'impact des attaques. Comme l'a résumé Adjei de manière experte : "Plutôt cool mais plutôt effrayant".

Comment les responsables de la sécurité doivent-ils répondre aux risques liés à l'IA ?

Malgré les craintes que l'IA suscite dans le domaine de la cybersécurité, M. Adjei et M. Dant conviennent que les organisations peuvent faire beaucoup pour commencer à se prémunir contre la prochaine attaque potentielle. Le plus important est de revenir à l'essentiel.

"La première réaction de nombreux RSSI et responsables de la sécurité a été de dire : "L'IA est utilisée par les méchants, donc les gentils ont aussi besoin de plus d'IA", a déclaré M. Adjei, mais ce n'est pas nécessairement vrai.

M. Dant est d'accord, expliquant que même si l'IA deviendra plus importante en termes d'analyse de données et d'exécution de tâches à la même vitesse que les attaquants, la meilleure façon de se préparer aux attaques de l'IA sera d'assurer une bonne cyberhygiène.

"Le premier principe est de revenir à l'essentiel", a déclaré M. Dant. "En fin de compte, une bonne hygiène cybernétique, la prévention des mouvements latéraux et les principes de confiance zéro deviendront encore plus valables à l'avenir.

Quelle que soit l'évolution des attaques générées par l'IA, les principes fondamentaux de la sécurité resteront valables. "Il est important que les responsables de la sécurité ne se sentent pas dépassés par l'IA", a déclaré M. Dant.

Pour l'avenir, Adjei et Dant encouragent les responsables de la sécurité à se concentrer sur le renforcement de la résilience cybernétique et sur l'endiguement des brèches, conformément aux stratégies de sécurité "Zero Trust".

Regardez le webinaire complet pour découvrir comment ChatGPT rend incroyablement simple pour les attaquants la création de ransomware avec l'IA.

Contactez-nous dès aujourd'hui pour en savoir plus sur le renforcement de la résilience contre les attaques de l'IA avec la plateforme de segmentation Illumio Zero Trust.

Sujets connexes

Aucun élément n'a été trouvé.

Articles connexes

6 Recommandations d'experts sur la confiance zéro pour les agences gouvernementales
Cyber-résilience

6 Recommandations d'experts sur la confiance zéro pour les agences gouvernementales

Obtenez les 6 recommandations clés du récent webinaire de GovExec sur la mise en œuvre de Zero Trust et la segmentation des applications.

Charges utiles des logiciels malveillants & Beacons : Types de charges utiles malveillantes
Cyber-résilience

Charges utiles des logiciels malveillants & Beacons : Types de charges utiles malveillantes

Comprendre les différents types de charges utiles et examiner un exemple de code malveillant qu'elles peuvent employer.

Sécurité dans le nuage : Transformer les fausses hypothèses en assurances avec Illumio
Cyber-résilience

Sécurité dans le nuage : Transformer les fausses hypothèses en assurances avec Illumio

Explorer les dangers des fausses hypothèses lorsqu'il s'agit de services en nuage et de la sécurité de la charge de travail.

8 questions que les RSSI devraient se poser sur l'IA
Cyber-résilience

8 questions que les RSSI devraient se poser sur l'IA

Découvrez huit questions que les RSSI doivent se poser pour protéger leurs organisations contre les attaques de ransomware assistées par l'IA.

Comment l'IA et l'apprentissage automatique peuvent-ils accélérer la segmentation de la confiance zéro ?
Segmentation sans confiance

Comment l'IA et l'apprentissage automatique peuvent-ils accélérer la segmentation de la confiance zéro ?

Découvrez comment les innovations en matière d'IA et de ML peuvent servir d'outils puissants pour accélérer la mise en œuvre de la segmentation zéro confiance.

Comment 4 leaders de la cybersécurité envisagent l'IA en 2024
Cyber-résilience

Comment 4 leaders de la cybersécurité envisagent l'IA en 2024

Découvrez les priorités des chefs d'entreprise et des experts en cybersécurité en 2024 face à l'innovation rapide de l'IA.

Supposons une rupture.
Minimiser l'impact.
Augmenter la résilience.

Vous souhaitez en savoir plus sur la segmentation zéro confiance ?