/
Cyber-Resilienz

The Limits of Working Memory: Human Brains vs. AI Models

AI brain

In der Informatik bezieht sich der „Working Set“ auf die Datenmenge, die ein Prozessor gleichzeitig verarbeiten kann, um Probleme zu lösen. Diese Idee hat eine interessante Parallele zur menschlichen Kognition, die als „Arbeitsgedächtnis“ bekannt ist. Das Arbeitsgedächtnis ist wie ein geistiges Notizbuch, auf dem wir Informationen vorübergehend speichern. Es ist wichtig, um zu argumentieren und komplexe Entscheidungen zu treffen.

Das Arbeitsgedächtnis hat jedoch eine begrenzte Kapazität, was unsere Fähigkeit einschränken kann, sehr komplizierte Probleme zu lösen. Diese Einsicht ist wichtig, da wir uns in einer Welt bewegen, die zunehmend von KI beeinflusst wird, insbesondere in Bereichen wie Cybersicherheit.

Die Bandbreite eines Gehirns

Die Kognitionswissenschaft hat verschiedene Tests, um die Arbeitsgedächtniskapazität einer Person zu messen. Diese Tests zeigen, dass es eine konsistente Obergrenze gibt, selbst für Menschen, die außergewöhnliche Denker sind.

Zum Beispiel haben Schachmeister, Mathematiker und Spitzenmusiker erstaunliche Fähigkeiten, aber ihre Arbeitsgedächtniskapazität unterscheidet sich wahrscheinlich nicht wesentlich von der einer durchschnittlichen Person. Es scheint, dass die Evolution unser Gehirn auf ein gewisses Maß an kognitiven Fähigkeiten abgestimmt hat. Dies kann es für uns schwierig machen, sehr große, komplexe Probleme vollständig zu verstehen.

Der KI-Vorteil: Skalieren des Kontextfensters (mit Einschränkungen)

Systeme der künstlichen Intelligenz, insbesondere Large Language Models (LLMs), haben eine Einschränkung, die als „Kontextfenster“ bezeichnet wird. Dies ist die Anzahl der Tokens (Wörter oder Codeteile), die sie gleichzeitig verarbeiten können. Im Gegensatz zu Menschen, deren Arbeitsgedächtnis fest ist, kann das Kontextfenster einer KI erweitert werden, obwohl das teuer ist. Mehr GPUs, bessere Algorithmen oder neue Hardware können die Kapazität einer KI erhöhen.

Dieser Ansatz hat jedoch wichtige Grenzen. Auf den ersten Blick scheinen Aufgaben wie das Auffinden von Anomalien in riesigen, komplexen Datensätzen perfekt für LLMs zu sein. Für diese Erkenntnisse scheint es sich zu lohnen, viel Geld für die KI-Verarbeitungszeit auszugeben.

Es ist jedoch wichtig zu wissen, dass die Erkennung von Anomalien oft besser zu herkömmlichem maschinellem Lernen (ML) und Statistiken passt als zu fortschrittlichen neuronalen Netzwerken und Deep Learning. Das ist gut so: Herkömmliche Methoden sind in der Regel vorhersehbarer und zuverlässiger als manche KI-Anwendungen.

Es besteht jedoch ein größeres Problem. Die heutigen KI-Modelle und -Anwendungen sind immer noch sehr fehlerhaft. Beispiele wie das Scheitern selbstfahrender Autos und LLMs, die überzeugende, aber falsche „Halluzinationen“ abgeben, erinnern uns daran. Bevor wir KI in großem Umfang zur Lösung großer Probleme einsetzen, müssen wir sicherstellen, dass diese Systeme zuverlässig und durchweg korrekt sind.

Die richtigen Tools für den richtigen Job finden

Also, wo führt uns das hin? Der Schlüssel liegt darin, zu verstehen, dass menschliche Gehirne und KI-Modelle unterschiedliche Stärken haben. Menschen mit unserer festen kognitiven Leistungsfähigkeit sind gut darin, detaillierte Probleme innerhalb der Grenzen unseres Arbeitsgedächtnisses zu lösen. Normalerweise wählen wir Probleme aus, bei denen wir gute Chancen haben, sie selbst zu lösen.

KI-Modelle können dagegen für Probleme skaliert werden, die für einen menschlichen Geist zu viel wären. Dieser Ansatz ist jedoch nur sinnvoll, wenn:

  • Der finanzielle Wert der Lösung ist höher als die Berechnungskosten.
  • Vertrauen in die Genauigkeit des Ergebnisses ist entscheidend.

Die hohen Kosten für die Verarbeitung komplexer Datensätze sowie die derzeitigen Beschränkungen der Erklärbarkeit und Richtigkeit bedeuten, dass die Probleme, die wir mit der heutigen KI lösen können, immer noch begrenzt sind. Ihre beste Verwendung besteht derzeit darin, Umfang und Komplexität auf eine kleinere Gruppe von Problemen zu reduzieren, die durch menschliche Kognition gelöst werden können.

AI cybersecurity

Integration von KI in die Cybersicherheit: Ein strategischer Ansatz

Bei der Cybersicherheit geht es nicht nur darum, zu kämpfen KI-generierte Bedrohungen mit mehr KI, aber um KI in Sicherheitsprotokollen sinnvoll einzusetzen. Sicherheitsteams müssen klug darüber nachdenken, wie sie in KI investieren, und sicherstellen, dass sie ihre Fähigkeiten verbessert, ohne neue Schwächen zu schaffen.

Illumio macht das mit KI-Cybersicherheitsfunktionen wie der Illumio Virtual Advisor, der dialogorientierte Antworten auf Fragen zur Einrichtung und Verwendung der Zero-Trust-Segmentierung bietet. Und die neue KI-gestützte Labeling-Engine bietet sofortigen Einblick in Ressourcen in Rechenzentren und Cloud-Umgebungen, sodass Unternehmen die Zero-Trust-Segmentierung schneller einführen können.

Diese Lösungen verwenden KI, um große Datenmengen zu analysieren und gleichzeitig die menschliche Aufsicht im Mittelpunkt der Sicherheitsentscheidungen zu stellen. Durch die Kombination der dynamischen und adaptiven Gehirne von Menschen mit der Rechenleistung von KI können Sicherheitsteams die komplexe Welt moderner Bedrohungen besser bewältigen.

Wird KI die Kosten exponentiell senken und das Vertrauen stärken?

Könnte ein Effekt, der dem Moore'schen Gesetz ähnelt, die Kosten für leistungsstarke KI im Laufe der Zeit drastisch senken? Das ist immer noch ungewiss. Der Fortschritt der KI hängt nicht nur von der Hardware ab, sondern auch von besseren Algorithmen, verbesserten Datensätzen und Fortschritten bei der Zuverlässigkeit und Vertrauenswürdigkeit von KI-Ergebnissen.

Aus diesem Grund ist es wichtig, die Grenzen und Kosten zu verstehen, die sowohl mit dem menschlichen Arbeitsgedächtnis als auch mit KI-Kontextfenstern verbunden sind. Die Wahl des richtigen Tools, egal ob es sich um das menschliche Gehirn oder eine Maschine handelt, erfordert ein klares Verständnis der Größe des Problems, seines potenziellen Werts, der Kosten für die Suche nach einer Lösung und der Zuverlässigkeit der Ergebnisse. Im Bereich Cybersicherheit bedeutet dies, KI strategisch einzusetzen, um menschliche Fähigkeiten zu fördern und sicherzustellen, dass die Mischung aus menschlicher Intuition und Maschinenleistung auf dem wachsenden Vertrauen in KI-Lösungen basiert.

Mit Blick auf die Zukunft wird die Zukunft wahrscheinlich eine starke Partnerschaft zwischen menschlichem Denken und künstlicher Intelligenz beinhalten, wobei sich beide gegenseitig bei der Bewältigung der Herausforderungen einer komplizierteren Welt unterstützen werden.

Möchten Sie mehr über die KI-Angebote der Illumio Zero Trust Segmentation Platform erfahren? Kontaktiere uns heute.

Verwandte Themen

Keine Artikel gefunden.

In Verbindung stehende Artikel

Don't Wing It: 4 Schritte zur Erstellung eines Cloud-Migrationsplans
Cyber-Resilienz

Don't Wing It: 4 Schritte zur Erstellung eines Cloud-Migrationsplans

Diese Schritte helfen Ihnen dabei, einen erfolgreichen Cloud-Migrationsplan zu erstellen, um den Reifegrad der Cloud-Migration zu erreichen.

3 Schlüssel zum Umgang mit den rechtlichen Folgen von Cyberangriffen
Cyber-Resilienz

3 Schlüssel zum Umgang mit den rechtlichen Folgen von Cyberangriffen

Erfahren Sie, wie Sie auf die rechtlichen Folgen einer Sicherheitsverletzung oder eines Ransomware-Angriffs vorbereitet sind.

So mindern Sie Risiken in einem flachen Netzwerk — ein Paradies für Angreifer
Cyber-Resilienz

So mindern Sie Risiken in einem flachen Netzwerk — ein Paradies für Angreifer

Flachnetzwerke sind so weit verbreitet, weil sie in der Regel einfach zu konstruieren, billig zu bauen und einfach zu bedienen und zu warten sind.

8 Fragen, die sich CISOs zu KI stellen sollten
Cyber-Resilienz

8 Fragen, die sich CISOs zu KI stellen sollten

Erfahren Sie, welche wichtigen Fragen CISOs zu KI und ihren Auswirkungen auf die Cybersicherheit stellen müssen.

Gehen Sie zurück zu den Sicherheitsgrundlagen, um sich auf KI-Risiken vorzubereiten
Cyber-Resilienz

Gehen Sie zurück zu den Sicherheitsgrundlagen, um sich auf KI-Risiken vorzubereiten

Erfahren Sie von zwei Cybersicherheitsexperten, wie KI funktioniert, wo ihre Schwachstellen liegen und wie Sicherheitsverantwortliche gegen ihre Auswirkungen vorgehen können.

KI sollte nicht vertraut werden: Warum es transformativ sein kann, sie zu verstehen
Cyber-Resilienz

KI sollte nicht vertraut werden: Warum es transformativ sein kann, sie zu verstehen

Erfahren Sie, warum der CTO und Mitbegründer von Illumio der Meinung ist, dass die „technische Grenze“ der KI geringer ist, als es scheint — und wie sich dies auf die Art und Weise auswirkt, wie wir KI einsetzen.

Gehen Sie von einem Verstoß aus.
Auswirkungen minimieren.
Erhöhen Sie die Widerstandsfähigkeit.

Sind Sie bereit, mehr über Zero-Trust-Segmentierung zu erfahren?