The Limits of Working Memory: Human Brains vs. AI Models

En informatique, l' « ensemble de travail » fait référence à la quantité de données qu'un processeur peut traiter en une seule fois pour résoudre des problèmes. Cette idée présente un parallèle intéressant avec la cognition humaine, connue sous le nom de « mémoire de travail ». La mémoire de travail est comme un bloc-notes mental où nous conservons temporairement des informations. Elle est essentielle pour raisonner et prendre des décisions complexes.
Cependant, la capacité de la mémoire de travail est limitée, ce qui peut limiter notre capacité à résoudre des problèmes très complexes. Ces informations sont importantes alors que nous évoluons dans un monde de plus en plus influencé par l'IA, en particulier dans des domaines tels que la cybersécurité.
La bande passante d'un cerveau
Les sciences cognitives proposent différents tests pour mesurer la capacité de mémoire de travail d'une personne. Ces tests montrent qu'il existe une limite supérieure constante, même pour les personnes qui ont des penseurs exceptionnels.
Par exemple, les maîtres d'échecs, les mathématiciens et les meilleurs musiciens ont des compétences incroyables, mais leur capacité de mémoire de travail n'est probablement pas très différente de celle d'une personne moyenne. Il semble que l'évolution ait affiné notre cerveau pour qu'il atteigne un certain niveau de capacité cognitive. Cela peut nous empêcher de bien comprendre des problèmes très importants et complexes.
L'avantage de l'IA : mise à l'échelle de la fenêtre contextuelle (avec mises en garde)
Systèmes d'intelligence artificielle, en particulier les grands modèles de langage (LLM), ont une limitation appelée « fenêtre contextuelle ». Il s'agit du nombre de jetons (mots ou parties de code) qu'ils peuvent gérer simultanément. Contrairement aux humains, dont la mémoire de travail est fixe, la fenêtre contextuelle d'une IA peut être étendue, mais cela coûte cher. Davantage de GPU, de meilleurs algorithmes ou de nouveaux matériels peuvent tous augmenter la capacité d'une IA.
Cette approche présente toutefois des limites importantes. À première vue, les tâches telles que la détection d'anomalies dans des ensembles de données énormes et complexes semblent parfaites pour les LLM. Dépenser beaucoup d'argent en temps de traitement de l'IA peut sembler rentable pour ces informations.
Mais il est important de savoir que la détection des anomalies correspond souvent mieux à l'apprentissage automatique (ML) et aux statistiques traditionnels qu'aux réseaux neuronaux avancés et à l'apprentissage en profondeur. C'est une bonne chose : les méthodes traditionnelles sont généralement plus prévisibles et fiables que certaines applications d'IA.
Pourtant, un problème plus grave existe. Les modèles et utilisations actuels de l'IA sont encore très imparfaits. Des exemples tels que les défaillances de voitures autonomes et les LLM qui font des « hallucinations » convaincantes mais erronées nous le rappellent. Avant d'utiliser largement l'IA pour résoudre de gros problèmes, nous devons nous assurer que ces systèmes sont fiables et toujours corrects.
Trouver les bons outils pour le bon travail
Alors, où est-ce que cela nous mène ? L'essentiel est de comprendre que le cerveau humain et les modèles d'IA ont des points forts différents. Les humains, dotés d'une puissance cognitive fixe, sont doués pour résoudre des problèmes détaillés dans les limites de notre mémoire de travail. Nous choisissons généralement des problèmes que nous avons de bonnes chances de résoudre par nous-mêmes.
Les modèles d'IA, en revanche, peuvent être étendus pour résoudre des problèmes qui seraient trop importants pour un esprit humain. Mais cette approche n'a de sens que lorsque :
- La valeur financière de la solution est supérieure au coût du calcul.
- La confiance dans l'exactitude du résultat est cruciale.
Le coût élevé du traitement d'ensembles de données complexes, ainsi que les limites actuelles en matière d'explicabilité et d'exactitude, signifient que les problèmes que nous pouvons résoudre avec l'IA d'aujourd'hui sont encore limités. Leur meilleure utilisation est actuellement de réduire la portée et la complexité à un ensemble plus restreint de problèmes accessibles par la cognition humaine.

Intégrer l'IA à la cybersécurité : une approche stratégique
En matière de cybersécurité, l'objectif n'est pas simplement de lutter Menaces générées par l'IA avec plus d'IA, mais pour utiliser l'IA à bon escient dans les protocoles de sécurité. Les équipes de sécurité doivent investir intelligemment dans l'IA, afin de s'assurer qu'elle améliore leurs capacités sans créer de nouvelles faiblesses.
Illumio le fait avec Fonctionnalités de cybersécurité de l'IA comme le conseiller virtuel Illumio qui propose des réponses conversationnelles aux questions relatives à la configuration et à l'utilisation de la segmentation Zero Trust. Et le nouveau moteur d'étiquetage alimenté par l'IA offre une visibilité instantanée sur les actifs des centres de données et des environnements cloud afin d'aider les entreprises à adopter plus rapidement la segmentation Zero Trust.
Ces solutions utilisent l'IA pour analyser de grandes quantités de données tout en plaçant la supervision humaine au cœur de la prise de décisions en matière de sécurité. En combinant le cerveau dynamique et adaptatif des humains avec la puissance de traitement de l'IA, les équipes de sécurité peuvent mieux gérer le monde complexe des menaces modernes.
L'IA réduira-t-elle les coûts de façon exponentielle et renforcera-t-elle la confiance ?
Un effet similaire à la loi de Moore pourrait-il réduire considérablement le coût de l'IA haute performance au fil du temps ? Cela reste incertain. Les progrès de l'IA dépendent non seulement du matériel, mais également de meilleurs algorithmes, de meilleurs ensembles de données et des progrès réalisés pour rendre les résultats de l'IA fiables et dignes de confiance.
C'est pourquoi il est essentiel de comprendre les limites et les coûts associés à la fois à la mémoire de travail humaine et aux fenêtres contextuelles de l'IA. Pour choisir le bon outil, qu'il s'agisse du cerveau humain ou d'une machine, il faut bien comprendre l'ampleur du problème, sa valeur potentielle, les coûts liés à la recherche d'une solution et la fiabilité des résultats. Dans le domaine de la cybersécurité, cela signifie utiliser stratégiquement l'IA pour renforcer les capacités humaines, en veillant à ce que le mélange d'intuition humaine et de puissance des machines repose sur une confiance croissante dans les solutions d'IA.
À l'avenir, l'avenir impliquera probablement un partenariat solide entre la pensée humaine et l'intelligence artificielle, chacune s'aidant mutuellement à relever les défis d'un monde de plus en plus complexe.
Vous souhaitez en savoir plus sur les offres d'IA de la plateforme de segmentation Illumio Zero Trust ? Nous contacter aujourd'hui.