/
Cyber-Resilienz

Ein Framework für Sicherheitspraktiker für KI-Sicherheit und -Sicherheit

A logo of the AI Safety Summit 2023

Anfang November war das Vereinigte Königreich Gastgeber der KI-Sicherheitsgipfel, der allererste Weltgipfel über künstliche Intelligenz. Es brachte internationale Regierungen und KI-Experten zusammen, um die Risiken von KI zu erörtern und zu untersuchen, wie international koordinierte Maßnahmen dazu beitragen können, diese zu mindern. Dieser Gipfel folgt globalen Diskussionen über KI-Sicherheit, einschließlich der jüngsten US-Exekutivverordnung über die sichere und vertrauenswürdige Entwicklung und Nutzung von KI.

Ich hatte erwartet, dass vom Gipfel ein spezifischer Rahmen oder Richtlinien für KI-Sicherheit herauskommen würden — aber ich war enttäuscht, als ich keine greifbaren Leitlinien fand. In diesem Blogbeitrag habe ich die Art von umsetzbarem Rahmen für KI-Sicherheit skizziert, von dem ich aus meiner Sicht als leitender Sicherheitsexperte gehofft hatte, dass er vom Gipfel ausgehen würde.

Nutzen Sie die Neuheit der KI, um Sicherheit und Gefahrenabwehr zu gewährleisten

Bevor ich den Rahmen darlege, halte ich es für wichtig, einen philosophischen Schritt zurückzutreten, um zu verstehen, warum KI-Sicherheit ein so wichtiges Thema ist und warum ich von den Ergebnissen des diesjährigen KI-Sicherheitsgipfels so enttäuscht war.

Es ist ziemlich offensichtlich, dass die meisten Sicherheitsmängel der aktuellen Netzwerktechnologien, die wir heute verwenden, letztlich auf Schwächen in der Architektur der Protokolle zurückzuführen sind, von denen sie abhängen, ursprünglich vor Jahrzehnten entwickelt wurden.

Sicherheit war keine erste Überlegung. In Wirklichkeit ist dies selten der Fall.

Nehmen wir zum Beispiel die Originalprotokolle für Web (HTTP), Mail (SMTP) und Dateiübertragung (FTP). Diese wurden alle als Klartext ohne jegliche Form von Datensicherheit durch Verschlüsselung konzipiert. Die Entwickler hatten damals keine Vorstellung von einer Welt, in der Bankdaten, klinische Patienteninformationen oder sensible Benutzerinformationen über diese einfachen Netzwerkprotokolle frei und bequem auf der ganzen Welt übertragen werden könnten.

Das Gleiche gilt für das IPv4-Adressierungsschema, das in den frühen 1980er Jahren entwickelt wurde und in der IETF-Veröffentlichung (Internet Engineering Task Force) beschrieben wird. RFC 791. Wer hätte damals gedacht, dass der Welt realistischerweise die Milliarden von öffentlich adressierbaren IP-Adressen ausgehen könnten? Trotzdem erweist sich der Versuch, die Sicherheit im Nachhinein zu erhöhen, in der Regel sowohl als Engpass als auch als störendes Unterfangen.

AI nodes represented in the shape of a brain

Generative KI wie ChatGPT von OpenAI — das kennzeichnet seine erster Jahrestag in diesem Monat der Öffentlichkeit zugänglich — hat die Fortschritte im Bereich maschinelles Lernen und Deep-Learning-Funktionen vorgestellt. Diese Art von Large Language Model (LLM) kann mithilfe künstlicher neuronaler Netze (ANN) die neuronalen Netzwerke des menschlichen Gehirns weitgehend nachahmen. Zum ersten Mal hat die Welt im Laufe der Jahre den Höhepunkt verschiedener Arbeiten erlebt, die darauf abzielen, KI in Angeboten wie ChatGPT leicht nutzbar zu machen. Plötzlich ist selbst die Möglichkeit künstlicher allgemeiner Intelligenz (AGI) und der theoretisch weit überlegenen Künstlichen Superintelligenz (ASI) keine Übertreibung mehr im Vergleich zu Belletristiktiteln.

Wir müssen uns die Tatsache zunutze machen, dass die KI noch früh genug in ihrer Entwicklung steht, um ihre Sicherheit und Geborgenheit, insbesondere mit der Geschichte und dem Gepäck von Netzwerken und Sicherheit. Ein KI-Sicherheitsgipfel wie der im November 2023 hätte nicht nur Befürchtungen ansprechen, sondern auch einen Schritt zurücktreten müssen, um die KI-Sicherheit anhand einer ganzheitlichen Sichtweise zu bewerten. Leider bin ich mir nicht sicher, ob dies erreicht wurde; zumindest nicht dieses Mal.

3 Hauptbereiche für KI-Sicherheit und -Sicherheit

Für den ersten proaktiven internationalen Gipfel über KI-Sicherheit und -Sicherheit habe ich einen spürbaren Übergang von der Geopolitik zur Geopolitik erwartet, um die folgenden Hauptbereiche zu behandeln:

  • Entwicklung, Verwaltung und Endnutzung
  • Sicherheit
  • Ethik und Recht

Diese Bereiche sind miteinander verflochten und daher miteinander verwandt. Beispielsweise sollte die Entwicklung von KI-Lösungen die Bereiche Ethik und Recht umfassen, um Quellenprobleme wie Verzerrungen bei Trainingsdaten und die Konfiguration von Deep-Learning-Systemen auf verborgenen Ebenen einzudämmen. Nicht alles, was funktioniert, ist richtig. Gleichzeitig sollte die Sicherstellung der Integrität der Trainingsdaten und des Entwicklungsprozesses so früh wie möglich in den Prozess einbezogen werden.

Ein KI-Sicherheitsrahmen: Was ich mir vom KI-Sicherheitsgipfel erhofft hatte

Für jeden der drei Bereiche habe ich eine Auswahl wichtiger Standards und Frameworks vorgeschlagen, die weiter geprüft werden sollten. Das Endergebnis sollte darin bestehen, gezielte Gruppen einzurichten, die sich mit der Formulierung dieser Standards und Rahmenbedingungen befassen:

Entwicklung, Verwaltung und Endnutzung
  • Schnittstellenstandards und Rahmenbedingungen: Richtlinien und Standards für die Schnittstelle von KI zwischen verschiedenen Anbietern und dann zwischen Anbietern und Endbenutzern, ähnlich der Web-API mit JSON und USB-C für physische Geräte. Dies kann eine noch schnellere Innovation in mehreren Bereichen ermöglichen. Ein gutes Beispiel dafür ist die Bedeutung von WLAN- und Mobilfunkschnittstellen für technologische Innovationen bei Smartwatches, Fernsehern, Drohnen, Autos, Krankenwagen usw.
  • Differenzierungsstandards und Rahmenbedingungen: Richtlinien, die eine klare Bestimmung und Differenzierung zwischen künstlerischen Originalwerken und KI-generierten Werken ermöglichen, wie wir sie für das Urheberrecht und den Schutz geistigen Eigentums im Bereich Digital Rights Management (DRM) haben. Ein wichtiger Nutznießer wird die Bekämpfung von Fehlinformationen und irreführenden Inhalten wie Deep-Fakes und Wahlbeeinflussung sein, zumindest auf Rohstoffebene.
  • Qualifikationslücke im Bereich KI: Beseitigung des Qualifikationsdefizits in den Schlüsselbereichen KI-Entwicklung, KI-Administration und KI-Nutzung, ähnlich den Bemühungen in den Bereichen Computerprogrammierung und Computerkenntnisse (einschließlich Erwachsenenbildung) in den Anfängen des PC-Booms bis heute. Dadurch sollen gleiche Wettbewerbsbedingungen für die Entwicklung und Nutzung guter und schlechter KI für Werbung geschaffen werden.
Sicherheit
  • Singularität des Formschutzes: Richtlinien und Schutzmaßnahmen für die Zusammenführung von KI (wie ChatGPT, Sprach-KI, Bilderkennungs-KI usw.) mit der tatsächlichen Hardware in einer einzigen Form, ähnlich wie bei Industrierobotern oder humanoiden Robotern in der Zukunft. Eine solche Fähigkeit verleiht der KI der allgemeinen Intelligenz letztlich physische Interaktionsmöglichkeiten in der physischen Welt. Im Grunde geht es darum, sicherzustellen, dass ein physischer Roboter vom Typ ChatGPT niemals Menschen anmacht oder auf katastrophale Weise Fehlfunktionen auslöst. Es gibt bereits verschiedene Fälle, in denen Industrieroboter und selbstfahrende Autos Fehlfunktionen hatten und Menschen Schaden oder Tod verursachten.
  • Risiko von AI: Schutz vor Risiken, die von KI ausgehen. ChatGPT hat bereits eine böswillige Verwendung gezeigt. In diesem Bereich werden Bedrohungen wie die Entwicklung bösartiger Nutzlasten, die Entdeckung und Ausnutzung von Sicherheitslücken in Rekordgeschwindigkeit, Sprach- und Phishing-Betrug sowie Sabotage wie die Kompromittierung von Fertigungsprozessen oder Angriffe auf die Lieferkette untersucht.
  • Risiko zu AI: Schutz vor Risiken, die der KI selbst ausgesetzt sind. Dazu gehört auch die Nutzung von KI-Entwicklungen, Lernprozessen und Bias-Parametern. Es gibt zwar Richtlinien für Ethik, Sicherheit und Nutzung der KI bei der Entwicklung, aber sie müssen verbessert werden und die aktuellen Sicherheitspraktiken wie sichere Codierung, DevSecOps und SBOMS in der Lieferkette müssen verbessert werden. Abgesehen von der Verbraucherseite haben wir Richtlinien, die dem Gesetz über Computermissbrauch, Unternehmensrichtlinien zur Computernutzung und Richtlinien zur fairen Nutzung ähneln.
Ethik und Recht
  • KI-Bürgerethik: Ethik und Richtlinien für den Einsatz von KI in Bereichen wie Gesichtserkennung und Nutzerverhalten gegen Mitarbeiterüberwachung, Verkehrskontrolle und -durchsetzung sowie Strafjustizsystem.
  • Wissenschaftliche Ethik der KI: Ethik und Richtlinien darüber, wofür KI in Wissenschaft und Medizin eingesetzt werden kann. Beispiele hierfür sind die Gen- und Krankheitsforschung, das Klonen usw.
  • KI-Militärethik: Entwickeln Sie eine Reihe von Einsatzregeln im Stil der Genfer Konvention für den Einsatz von KI bei kinetischen Operationen, insbesondere bei autonomer KI. Dies wäre besonders wichtig, wenn die KI Entscheidungen über Leben und Tod trifft, um die Möglichkeit unbeabsichtigter Folgen wie Massenmord, Einsatz chemischer Waffen oder einer unbeabsichtigten nuklearen Detonation zu verhindern.
  • Rechtlicher Rahmen für KI: Richtlinien und Standards rund um die rechtlichen Auswirkungen der Einbindung von KI in verschiedene rechtlich relevante Situationen. Dazu könnten Szenarien wie die Art der zulässigen Beweise in Rechtsfällen oder Versicherungs- und Finanzforderungen sowie Berechnungen zur Risikoakzeptanz gehören.

Ein KI-Sicherheits- und Sicherheitsframework ist nur der Anfang

Es ist ermutigend, dass das Risiko von KI-Cyberbedrohungen auf globaler Ebene stark in den Mittelpunkt gerückt wird. Ein KI-Sicherheitsrahmen ist ein wesentlicher erster Schritt zum Aufbau einer innovativen und dennoch sicheren KI-Zukunft. Dies ist jedoch nur ein Ausgangspunkt. Idealerweise sollte es eine Auswahl von spezialisierten Elitegruppen von KI- und Branchenexperten geben, die gemeinsam KI-Sicherheitsstandards entwickeln und weiterentwickeln, ähnlich wie die Internet Engineering Task Force (IETF) und Request for Comments (RFCs).

Vor allem müssen wir auch darüber nachdenken, wie wir Organisationen dazu befähigen können, Resilienz aufbauen gegen KI-gestützte Angriffe. KI macht es Kriminellen einfacher und schneller, Angriffe zu starten. Die beste Verteidigung besteht darin, die „Lernoberfläche“ zu verkleinern, sodass KI-Cyberbedrohungen weniger Gelegenheit haben, zu lernen, sich anzupassen und den Angriff voranzutreiben.

Kontaktieren Sie uns noch heute um zu erfahren, wie sich Entwicklungen im Bereich KI auf die Cybersicherheit Ihres Unternehmens auswirken können.

Verwandte Themen

Keine Artikel gefunden.

In Verbindung stehende Artikel

Cloud-Sicherheit: Mit Illumio werden falsche Annahmen in Zusicherungen umgewandelt
Cyber-Resilienz

Cloud-Sicherheit: Mit Illumio werden falsche Annahmen in Zusicherungen umgewandelt

Untersuchung der Gefahren falscher Annahmen in Bezug auf Cloud-Dienste und Workload-Sicherheit.

Wie ich einen Space Shuttle-Start gehackt habe — und erwischt wurde
Cyber-Resilienz

Wie ich einen Space Shuttle-Start gehackt habe — und erwischt wurde

Erfahre, warum Pauls Geschichte von Hackern aus seiner Kindheit zeigt, wie intuitiv ein typischer Cyberangriff ist und wie du diese Informationen nutzen kannst, um seitliche Bewegungen zu stoppen.

Was die Cybersicherheitsverordnung von Präsident Biden für Bundesbehörden bedeutet
Cyber-Resilienz

Was die Cybersicherheitsverordnung von Präsident Biden für Bundesbehörden bedeutet

Die Cybersicherheitsverordnung von Präsident Biden zielt darauf ab, die Widerstandsfähigkeit zu erhöhen und das Risiko für Regierungsbehörden zu verringern.

KI sollte nicht vertraut werden: Warum es transformativ sein kann, sie zu verstehen
Cyber-Resilienz

KI sollte nicht vertraut werden: Warum es transformativ sein kann, sie zu verstehen

Erfahren Sie, warum der CTO und Mitbegründer von Illumio der Meinung ist, dass die „technische Grenze“ der KI geringer ist, als es scheint — und wie sich dies auf die Art und Weise auswirkt, wie wir KI einsetzen.

Wie KI und maschinelles Lernen die Zero-Trust-Segmentierung beschleunigen können
Zero-Trust-Segmentierung

Wie KI und maschinelles Lernen die Zero-Trust-Segmentierung beschleunigen können

Erfahren Sie, wie Innovationen in den Bereichen KI und ML als leistungsstarke Tools zur Beschleunigung der Implementierung der Zero-Trust-Segmentierung dienen können.

Warum KI ein Kommunikationsproblem hat
Cyber-Resilienz

Warum KI ein Kommunikationsproblem hat

Erfahren Sie, warum KI-Technologien mit der „siloübergreifenden“ Kommunikation zu kämpfen haben.

Gehen Sie von einem Verstoß aus.
Auswirkungen minimieren.
Erhöhen Sie die Widerstandsfähigkeit.

Sind Sie bereit, mehr über Zero-Trust-Segmentierung zu erfahren?