/
Cyber-Resilienz

Warum KI ein Kommunikationsproblem hat

Sprache ist ein Werkzeug, dessen Zweck bemerkenswert einfach ist: den Gedanken oder die Idee in meinem Kopf so vollständig und genau wie möglich in Ihren zu übertragen. Wie die meisten Tools kann das Sprachwerkzeug von verschiedenen Benutzern auf unterschiedliche Weise verwendet werden.

Die Beherrschung der Sprache ist keine Erfolgsgarantie. Neue Technologien bedeuten neues Vokabular. Und neues Vokabular bedeutet, dass dieses Vokabular weniger einheitlich verwendet wird. Und nichts ist auf dem Markt neuer oder umfangreicher als KI-Technologien.

Es geht nur um den Kontext

Sprache funktioniert nur, wenn sich beide Seiten einer Konversation über Kontext und Definitionen einig sind. Umgangssprachlich ausgedrückt funktioniert Sprache am besten, wenn beide Seiten „auf derselben Seite“ sind. In der technischen Welt ist das klassische Beispiel für eine Fehlkommunikation dieser Art die zwischen Technik und Marketing. Es ist sogar so verbreitet, dass es die grundlegende Prämisse des Humors im Zeichentrickfilm Dilbert ist.

A Dilbert cartoon about how marketing and engineering disagree
Bildnachweis: Scott Adams via Popversum

Das Problem ist eigentlich ganz einfach: Das Ziel eines Ingenieurs ist es, eine Idee präzise zu kommunizieren. Während es beim Marketing auch um Kommunikation geht, ist Präzision zweitrangig. Das primäre Ziel ist es, Einfluss zu nehmen. Wenn der Marketer auf ein weniger genaues Wort eine bessere Antwort gibt, wird das weniger genaue Wort verwendet. Dies führt natürlich zu einer Unterbrechung (d. h. zu einer Fehlkommunikation), wenn ein Ingenieur versucht, aus Marketingmaterialien zu lernen.

Eine weitere häufige Ursache für Missverständnisse sind zwei Gruppen mit unterschiedlichen Definitionen desselben Wortes. In einigen Fällen sind beide sogar richtig, obwohl sie nicht kompatibel sind. Ein perfektes Beispiel dafür ist das Wort „Theorie“. Für einen Wissenschaftler, Ingenieur oder Mathematiker hat das Wort „Theorie“ eine sehr genaue Definition, die sich deutlich von der einer Person unterscheidet, die nichts mit Technik zu tun hat. William Briggs ist ein Wissenschaftler mit einem Doktortitel in mathematischer Statistik, der 2012 folgende Einblicke zu diesem Thema gab:

„Übrigens ist es ein Ärgernis von mir, jedes intellektuelle Modell von etwas als „Theorie“ zu bezeichnen. In der Wissenschaft ist ein Modell eine erklärende, prädiktive Beschreibung eines Systems oder Prozesses. Eine Hypothese ist ein Modell, das im Prinzip falsifiziert werden kann, das heißt, die Beweise, die das Modell widerlegen würden, können eindeutig dargelegt werden. Eine Theorie ist eine Hypothese, die bisher alle Versuche, sie als falsch zu beweisen, überlebt hat.“

Die Verschmelzung der Definitionen von „Theorie“ und „Hypothese“ in den Köpfen von Nichtwissenschaftlern macht die Kommunikation zwischen Wissenschaftlern und Nichtwissenschaftlern zu einem kniffligen Problem, das es zu lösen gilt. Mit anderen Worten, es ist schwierig, die Gedanken oder Ideen eines Wissenschaftlers vollständig und genau in den Kopf eines Nichtwissenschaftlers zu übertragen. In einem allgemeineren Sinne ist es ein gutes Beispiel dafür, dass verschiedene Gruppen Schwierigkeiten haben, miteinander zu kommunizieren.

Wie beheben wir das?

Als Technologiekonsument ist eine solche „siloübergreifende“ Kommunikation eine tägliche Herausforderung, sei es zwischen Ihnen und einem Anbieter oder zwischen Ihnen und anderen Gruppen innerhalb Ihres Unternehmens. Wie eingangs erwähnt, sind KI-Technologien neu auf dem Markt und führen daher zu vielen Ungenauigkeiten und Missverständnissen.

Um dies zu beheben, benötigen Sie zunächst eine Quelle mit genauen und präzisen Daten. Ihr Vertriebsteam, ein Account Manager und ein Vertriebsingenieur haben die Aufgabe, Sie zum Kauf eines Produkts zu bewegen. Ihnen wird beigebracht, in Marketingbegriffen zu kommunizieren. Was Sie für sich sprechen, ist, dass die meisten Vertriebsingenieure und eine überraschende Anzahl von Kundenbetreuern einen technischen Hintergrund hatten. Es ist nicht schwer, sie in den „Geek-Modus“ zu bringen, in dem sie das Marketing-Vokabular fallen lassen und zur technischen Sprache wechseln. An diesem Punkt ist es wichtig, die Definitionen der technischen Begriffe zu kennen, die sie verwenden werden.

KI gibt es als Fachgebiet der Informatik seit Mitte der 1950er Jahre. Daher ist das Vokabular in der technischen Welt etabliert. Aber all dies war in den letzten Jahren für den Verbraucher neu, weshalb die Definitionen von Wörtern, die in verbraucherorientierten Medien verwendet werden, etwas „verschwommen“ sind. Zweifellos sind Sie auf Begriffe wie „Künstliche Intelligenz“, „Maschinelles Lernen“, „Large Language Models“, „GPT“, „Generative KI“, „Deep Learning“, „Neuronale Netze“ und „ChatGPT“ gestoßen. Lassen Sie uns diese verstehen.

Zwei grundlegende Kategorien von KI

Wie der Begriff „Physik“ ist KI oder künstliche Intelligenz nicht wirklich ein „Ding“ an und für sich. Es ist vielmehr ein Dach, unter dem viele andere Bereiche existieren. Abgesehen von den frühen Forschungsansätzen unter dem Dach der KI gibt es heute zwei grundlegende Arten von KI: statistikbasierte KI und KI, die auf neuronalen Netzwerken basiert.

Maschinelles Lernen

Statistikbasierte KI ist besser bekannt als ML oder Machine Learning. Im Grunde geht es bei ML darum, ein Modell zu erstellen, das aus einer oder mehreren Gleichungen besteht, um eine Lösung zu beschreiben, und dieses Modell dann mithilfe positiver und negativer Verstärkung zu „trainieren“, indem die Modelle mit richtigen und falschen Antworten versorgt werden. Bei diesem Training handelt es sich im Wesentlichen um eine computergestützte Suche nach Koeffizienten für jede Variable in jeder Gleichung. Wenn neue Werte in die Variablen eingegeben werden, führt dies zu den gewünschten Antworten.

Wenn das zu einfach klingt, um als Intelligenz betrachtet zu werden, sind Sie mit dieser Meinung nicht allein. Es ist üblich, dass ML unter dem Dach der KI als „untergeordnete“ Wissenschaft betrachtet wird. Der Status von ML als „Intelligenz“ ist fraglich, seine Macht als Werkzeug jedoch nicht. ML zeichnet sich durch viele schwierige Aufgaben aus.

ML kann zwar für viele Dinge verwendet werden, aber wenn ich einen einzigen Anwendungsfall auswählen müsste, der seinen Nutzen definiert, würde ich „Gruppierung“ wählen. ML ist außergewöhnlich leistungsfähig, wenn es darum geht, Dinge zu finden, die einander „ähnlich“ aussehen. Dies könnte das Auffinden aller Fotos Ihres Hundes auf Ihrem Handy sein. Oder die Gesichter von Personen auf einem Foto zu finden, um sie als Punkt zu verwenden, auf den das Objektiv fokussiert werden kann. Da wir gerade über Sicherheit sprechen, kann es nützlich sein, Gruppen von Servern in Ihrem Netzwerk mit ähnlichen Verkehrsmustern zu finden und Sie dann zu benachrichtigen, wenn der Datenverkehr von einem dieser Server plötzlich weniger wird wie früher (d. h. eine Abweichung vom Ausgangswert), was möglicherweise auf eine Sicherheitsverletzung hindeutet.

Es gibt Dutzende anderer Anwendungsmöglichkeiten, einschließlich der Suche nach all Ihren NTP-Servern, all Ihren Redis-Datenbanken oder allen Computern in Ihrem Netzwerk, auf denen alte, ungepatchte Versionen von Windows ausgeführt werden.

Wenn Sie lesen, dass ein Produkt KI verwendet, ist es wahrscheinlich, dass die verwendete Technologie ML ist. Im Vergleich zu anderen KI-Technologien ist ML die vorhersehbarste, am besten verstandene und am einfachsten zu implementierende. Es löst auch gut viele Probleme, die im Sicherheitsbereich häufig auftreten. Es ist auch wichtig zu beachten, dass das Training eines ML-Modells (der Teil, den der Anbieter durchführt) zwar umfangreiche Rechenressourcen erfordert, die Verwendung eines ML-Modells (der Teil, den Sie nach dem Kauf des Produkts durchführen) nach dem Training jedoch nicht mehr Rechenleistung erfordert als jede andere Anwendung.

Tiefes Lernen

Wenn der Durchschnittsmensch den Begriff „KI“ hört, denkt er wahrscheinlich an Lösungen, die auf Deep Learning basieren. Bevor wir Deep Learning definieren, müssen wir jedoch zunächst über neuronale Netze sprechen.

Der grundlegende Baustein eines Computers ist das NAND-Gatter. Mit Computerlogik kann jede andere Art von Gate und somit jeder Computer aus NAND-Gattern gebaut werden. Tatsächlich hatten die Computer der Apollo-Raumsonde die Größe eines großen Schuhkartons und enthielten etwa 14.000 NAND-Gates.

NAND-Gates sind einfache Lebewesen. In der einfachsten Form hat ein NAND-Gatter zwei Eingänge und einen Ausgang. Wenn beide Eingänge hoch sind („on“ oder logisch 1), ist der Ausgang niedrig („off“ oder logisch 0). Andere Kombinationen von Eingängen (niedrig/niedrig, niedrig/hoch oder hoch/niedrig) führen zu einer hohen Ausgangsleistung. Einfach. Aber aus diesem einfachen logischen Konstrukt werden alle Computer gebaut.

Der grundlegende Baustein oder die „Verarbeitungseinheit“ des Gehirns ist ein Neuron. Neuronen sind nicht viel komplexer als NAND-Gates. Sie kommunizieren elektrochemisch über mehrere Eingänge (typischerweise Hunderte) und einen Ausgang. Die Logik in einem Neuron ist zwar komplexer als die eines NAND-Gatters (in der Regel eine analoge Schwellenwertfunktion, nicht ein Ein/Aus-Logikgatter), aber sie lässt sich leicht in Software modellieren.

Eine Gruppe von Neuronen, die miteinander „verkabelt“ sind, ist ein neuronales Netz. Neuronale Netze sind zwar eine unterhaltsame Kuriosität, aber ihre wahre Stärke entfaltet sich, wenn Schichten von Neuronen miteinander verbunden werden, wobei jedes Neuron ein oder mehrere andere Neuronen in großer Zahl speist. Das ist Deep Learning. Offiziell wird Deep Learning als „ein neuronales Netzwerk mit mehr als einer Schicht“ definiert.

Interessant ist, dass Neural Nets ein Nachkomme von Perceptrons sind, die 1943 erfunden und 1958 erstmals implementiert wurden. Perceptrons hatten zwar gravierende Einschränkungen, doch das Grundkonzept war solide, und so entwickelten sie sich 1987 zu neuronalen Netzen. Mit anderen Worten, wir hatten die grundlegenden Bausteine und verstanden die grundlegenden Ideen, auf denen die heutige unglaubliche KI-Technologie basiert, seit über fünfunddreißig Jahren, doch die Fortschritte bei der KI waren bis in die letzten Jahre nur schleppend.

Was fehlte, war Rechenleistung. Das menschliche Gehirn hat ungefähr 100 Milliarden Neuronen. Zwischen diesen Neuronen gibt es ungefähr 100 Billionen Verbindungen. Die Leistung von Computern ist seit ihrer Einführung exponentiell gestiegen, aber erst mit der Einführung extrem leistungsfähiger Computergrafik-Coprozessoren mit jeweils Tausenden von Prozessorkernen war es möglich, neuronale Netzwerke mit einer nennenswerten Anzahl von Neuronen aufzubauen. Lassen Sie uns einige Zahlen herauswerfen, um das Ganze ins rechte Licht zu rücken.

1986, als ich anfing, ernsthaft mit dem Programmieren zu beginnen, war der Cray X-MP/48 der leistungsstärkste Supercomputer der Welt. Diese Maschine kostete zu dieser Zeit etwa 20 Mio. USD, nach heutigem Stand etwa 55 Mio. USD. Es hatte etwa die Größe eines begehbaren Kühlschranks eines Restaurants und verbrauchte etwa 350 kW Strom, ungefähr so viel wie ein quadratischer Häuserblock mit eingeschalteter Klimaanlage. Ein Raspberry Pi Zero kostete, als er vor einigen Jahren auf den Markt kam, 5 USD und hatte ungefähr die gleiche Leistung wie eines dieser Systeme. Ein einzelnes iPhone oder High-End-Android-Handy, das Sie in der Tasche herumtragen und in den Müll werfen, wenn Sie den Bildschirm kaputt machen, ist ungefähr so leistungsstark wie alle Supercomputer der Welt im Jahr 1986 zusammen. Ein Besuch in Ihrem örtlichen großen Kaufhaus könnte Ihnen eine Maschine einbringen, die ein paar hundert iPhones entspricht.

Zwar wurden auf dem Gebiet der KI auf dem Gebiet der Informatik enorme Fortschritte erzielt, doch in Wirklichkeit ist es der erstaunliche Anstieg der Computerleistung und der Fähigkeit, eine immer größere Anzahl von Neuronen zu simulieren, der zu den bemerkenswerten Fähigkeiten der heutigen KI-Lösungen geführt hat.

Lösungen, die auf Deep Learning basieren

Abgesehen von ML basieren fast alle anderen aktuellen KI-Technologien auf Deep Learning. Generative KI ist die breite Klassifizierung von Systemen, die heute in der KI den „Wow“ -Faktor erzeugen. Generative KI ist die Fähigkeit, neue Ergebnisse zu synthetisieren, oft im Stil anderer Eingabedaten. Dies kann hörbar (Stimmen, Geräusche oder Musik), visuell (Bilder, Filme, Zeichnungen) oder Text (z. B. Wörter, Sätze, Absätze, Gedichte oder Liedtexte) sein. Diese Ausgabe kann völlig originell sein oder im Stil eines bestimmten Künstlers gemacht sein (Ihre bevorzugte Suchmaschine sollte in der Lage sein, Beispiele für die Stimme von Elvis anzuzeigen, der Sir Mix-a-Lot's Baby's Got Back singt, oder ein Gemälde eines Corgis im Stil von Vermeer).

Bildnachweis: Casey Rickey

Große Sprachmodelle sind generative KI-Systeme, die sich auf die menschliche Sprache spezialisiert haben. Sofern Sie nicht unter einem extrem großen Felsen leben, haben Sie wahrscheinlich von ChatGPT gehört. ChatGPT ist eine Weboberfläche, die auf dem AutoAI-Produkt GPT aufbaut. ChatGPT ist ein bemerkenswertes System, das auf der Grundlage von Eingabeaufforderungen und Fragen eines Benutzers Ergebnisse liefert, die von rätselhaft bis erstaunlich reichen. ChatGPT macht gerne die Mathe-Hausaufgaben Ihres Kindes (oder schreibt seinen Buchbericht), schreibt Ihnen eine Geschichte, analysiert eine Software oder hilft Ihnen beim Schreiben von Code in Python. Die Ausgabe von ChatGPT kann leicht als intelligent angesehen werden (ob diese Ausgabe jedoch wirklich Intelligenz darstellt oder nicht, würde den Rahmen dieses Artikels sprengen). Sicherlich ist das Ergebnis nahe genug an der Intelligenz, um zu zeigen, wohin sich die Technologie in den nächsten fünf Jahren entwickeln könnte.

Deep Learning im Sicherheitsbereich

Bisher wurden KI-Lösungen, die auf neuronalen Netzwerken basieren, kaum in Sicherheitsprodukte integriert. Es ist sicherlich nicht Null, aber es gibt immer noch einige Geschwindigkeitsbegrenzungen, die es zu überwinden gilt, bevor sich ein Anbieter zur Integration dieser Technologie verpflichtet.

Wenn ich mir beim Begriff „Motivation“ ein paar Freiheiten nehmen darf, besteht die erste Gefahr der aktuellen Generation von Large Language Models darin, dass ihre „Motivation“ darin besteht, Ergebnisse zu produzieren, die den Benutzer zufrieden stellen. Das klingt ziemlich gut, bis Sie erkennen, dass eine Ausgabe, die den Benutzer zufrieden stellt, nicht unbedingt eine korrekte Ausgabe ist. Ein LLM ist völlig zufrieden damit, falsch zu liegen, solange der Benutzer zufrieden ist. Tatsächlich wäre es nicht einmal korrekt zu sagen, dass es für ein LLM zweitrangig ist, richtig zu sein. Wenn die Ergebnisse eines LLM zufällig korrekt sind, ist das eher ein glücklicher Zufall und geht den LLM nicht wirklich an. Das ist zwar in Ordnung, wenn man LLM-gestützte Lyrik schreibt, aber es kann problematisch sein, wenn man im Bereich der Sicherheitspolitik assistiert.

Zweitens können LLMs sozusagen immer noch „aus dem Ruder laufen“. LLMs werden notgedrungen mit einem weitaus breiteren Wissens- und Datenspektrum geschult, als es für den Einsatz, für den sie eingesetzt werden, unbedingt erforderlich ist. In der Tat ist es manchmal sinnvoll, die Nutzung eines LLM auf die gleiche Weise wie die Einstellung eines Mitarbeiters in Betracht zu ziehen. Ein Mitarbeiter, der für die Aufgabe eingestellt wurde, die Sie erledigen müssen, verfügt sicherlich über Lebenserfahrung außerhalb dieser Aufgabe. Wie ein irrender Mitarbeiter können aktuelle LLM-Implementierungen außerhalb sicherer Gesprächsthemen durchgeführt werden.

LLMs sind eine extrem neue Technologie, und an diesen Themen arbeiten viele sehr kluge Leute. Sie werden zweifellos im nächsten Jahr oder so gelöst sein. Sobald dies der Fall ist, können Sie mit einer Vielzahl neuer Produktfunktionen rechnen, darunter Benutzeroberflächen in natürlicher Sprache, automatische Priorisierung von Problemen, Querverweise auf zuvor gelöste Probleme und Vorschläge zur Problemlösung. In zwölf bis achtzehn Monaten wäre ich überrascht, wenn es kein Produkt auf dem Markt gäbe, das Ihnen die folgende E-Mail senden könnte:

Lieber Nutzer. Auf den folgenden vier Computern in Ihrem Rechenzentrum in Dallas wurde heute Morgen um 04:53:07 Uhr anomaler Verkehr mit Merkmalen festgestellt, die mit dem neu veröffentlichten CVE-20240101 übereinstimmen: [...] Auf allen vier Computern fehlte der Hersteller-Patch XXX, und auf zwei fehlte auch der Patch YYY, die beide CVE-20240101 abschwächen. Da es sich um redundante Datenbankserver handelte und ausreichend Kapazität für einen Failover zur Verfügung stand, wurden diese Maschinen vorübergehend vom Netzwerk getrennt. < to automatically re-image, patch, and restore these systems, or click >Bitte klicken Sie >hier< für weitere Informationen und andere Optionen.

Jedes Stück davon gibt es bereits heute, zumindest in der Forschungsphase. LLMs können den englischen Text von CVEs (Common Vulnerabilities and Exposures) analysieren. Sie sind in der Lage, die Daten in diesem CVE mit dem realen Netzwerkverkehr zu vergleichen. Sie sind in der Lage, das Netzwerkvolumen und die Netzwerkkapazität zu analysieren. Sie sind in der Lage, die installierte (und fehlende) Software und Konfiguration eines Systems zu analysieren. Und sie sind in der Lage, Ansible-Skripte zu generieren, um den Wiederaufbau von Systemen und die Wiederherstellung von Konfigurationen und Daten zu automatisieren. Es geht nur darum, die Teile zusammenzusetzen.

Zum Abschluss

In der Welt der sozialen Medien und Nachrichten beobachten wir, wie sich die Geschichte entwickelt, da Sprache (und damit Kommunikation) bewusst weniger präzise gemacht wird. Wir beobachten, wie die Lehren von Bernays und Orwell in der realen Welt umgesetzt werden. In der Welt der Technologie stehen wir jedoch noch nicht vor diesen Herausforderungen. Es steht uns immer noch frei, präzise und präzise zu sprechen. Das richtige Vokabular zu haben, ist ein wichtiger Teil davon.

Verwandte Themen

Keine Artikel gefunden.

In Verbindung stehende Artikel

Kubernetes Cluster I/O ist ein großes Durcheinander — aber Hilfe ist unterwegs
Cyber-Resilienz

Kubernetes Cluster I/O ist ein großes Durcheinander — aber Hilfe ist unterwegs

Erfahren Sie mehr über die I/O-Verbreitung von Kubernetes-Clustern und die Anstrengungen, die unternommen werden, um die Umgebung zu vereinfachen.

Informieren Sie sich über das Ergebnis: Sicherheitslücken erklärt
Cyber-Resilienz

Informieren Sie sich über das Ergebnis: Sicherheitslücken erklärt

So berechnen wir den Vulnerability Exposure Score, der es Unternehmen ermöglicht, branchenübliche Messungen zur Schwachstellenbewertung mit dem Kontext aus ihrer Umgebung zu kombinieren.

Zero Trust operationalisieren — Schritt 4: Vorschreiben, welche Daten benötigt werden
Cyber-Resilienz

Zero Trust operationalisieren — Schritt 4: Vorschreiben, welche Daten benötigt werden

Erfahren Sie mehr über einen wichtigen Schritt auf der Zero-Trust-Reise Ihres Unternehmens: Sie müssen festlegen, welche Daten benötigt werden.

KI sollte nicht vertraut werden: Warum es transformativ sein kann, sie zu verstehen
Cyber-Resilienz

KI sollte nicht vertraut werden: Warum es transformativ sein kann, sie zu verstehen

Erfahren Sie, warum der CTO und Mitbegründer von Illumio der Meinung ist, dass die „technische Grenze“ der KI geringer ist, als es scheint — und wie sich dies auf die Art und Weise auswirkt, wie wir KI einsetzen.

Die Geschichte — und die Herausforderungen — von Firewalls der nächsten Generation
Cyber-Resilienz

Die Geschichte — und die Herausforderungen — von Firewalls der nächsten Generation

Erfahren Sie mehr über die Bedeutung von Firewalls der nächsten Generation (NGFWs), ihre Herausforderungen im Zusammenhang mit der Komplexität und mögliche zukünftige Innovationen.

Untersuchung der Verwendung von NGFW-Funktionen in einer Mikrosegmentierungsumgebung
Cyber-Resilienz

Untersuchung der Verwendung von NGFW-Funktionen in einer Mikrosegmentierungsumgebung

Erfahren Sie mehr über die Forschung von Illumio zu den Möglichkeiten der Implementierung von NGFW-Funktionen in einer Mikrosegmentierungsumgebung.

Gehen Sie von einem Verstoß aus.
Auswirkungen minimieren.
Erhöhen Sie die Widerstandsfähigkeit.

Sind Sie bereit, mehr über Zero-Trust-Segmentierung zu erfahren?