/
サイバー・レジリエンス

AI の安全とセキュリティのためのセキュリティ実務者向けフレームワーク

A logo of the AI Safety Summit 2023

11月初旬、英国が主催しました AI セーフティサミット人工知能に関する史上初のグローバルサミット。国際政府と人工知能の専門家が一堂に会し、AIのリスクと、国際的に調整された取り組みがリスク軽減にどのように役立つかについて検討しました。このサミットは、最近行われたものを含め、人工知能の安全性に関する世界的な議論に続くものです。 AI の安全、確実、信頼できる開発と利用に関する米国大統領令

サミットでAIの安全性に関する具体的なフレームワークやガイドラインが出てくることを期待していましたが、具体的なガイダンスが見つからなかったのでがっかりしました。このブログ記事では、上級セキュリティ実務者としての私の視点から、サミットで実現することを望んでいた、AI安全に関する実行可能なフレームワークの概要を説明しました。

AI の新機能を活用して安全とセキュリティに取り組む

フレームワークを説明する前に、哲学的な一歩を踏み出して、なぜ人工知能の安全性がそれほど重要なトピックなのか、そしてなぜ今年のAI安全サミットの結果に私がそれほど失望したのかを理解することが重要だと思います。

私たちが今日使用している現在のネットワーク技術のセキュリティ上の欠点のほとんどは、最終的には数十年前にその技術が依存するプロトコルが元々設計されていた方法の弱点に起因していることは明らかです。

セキュリティは当初考慮事項ではありませんでした。実際には、そうなることはめったにありません。

ウェブ (HTTP)、メール (SMTP)、ファイル転送 (FTP) のオリジナルプロトコルを例にとってみましょう。これらはすべて、暗号化によるデータセキュリティを一切含まないプレーンテキストとして設計されていました。当時の作成者は、銀行、臨床患者情報、またはユーザーの機密情報がすべて、これらのシンプルなネットワークプロトコルを介して世界中に自由かつ便利に送信される世界を想定していませんでした。

IETF(インターネット技術特別調査委員会)の出版物に記載されている1980年代初頭に作成されたIPv4アドレススキームについても同じことが言えます。 RFC 791。当時、公にアドレス可能な数十億の IP アドレスが現実的に不足するなんて誰が思ったでしょうか。それでも、セキュリティを遡及的に強化しようとすることは、通常、ボトルネックであると同時に破壊的な取り組みでもあります。

AI nodes represented in the shape of a brain

OpenAIのChatGPTなどのジェネレーティブAI — その特徴である 一周年記念 今月公開された — 機械学習とディープラーニング機能の進歩を紹介しました。この種の大規模言語モデル (LLM) は、人工ニューラルネットワーク (ANN) を介して人間の脳のニューラルネットワークを大体模倣できます。ChatGPT などのサービスで AI がすぐに使えるようになるための長年にわたるさまざまな取り組みの集大成を世界が初めて目の当たりにしました。突然、人工一般知能 (AGI) や理論的にはるかに優れた人工超知能 (ASI) の可能性でさえ、もはやフィクションのタイトルを誇張したものではなくなっているかもしれません。

AIはまだ進化の初期段階にあるという事実を活用して、AIを検討する必要があります 安全とセキュリティ特に、ネットワークとセキュリティの歴史と課題についてはなおさらです。 2023年11月に開催されたようなAI安全サミットは、懸念事項に対処するだけでなく、一歩下がってAIの安全とセキュリティを総合的な視点で評価すべきだった。残念ながら、これが達成されたかどうかはわかりません。少なくともその間はそうではありませんでした。

AI の安全とセキュリティの 3 つの主要領域

人工知能の安全とセキュリティに関する初めての積極的な国際サミットでは、以下の主要分野に取り組むために、地政学から地政学への具体的な移行を期待していました。

  • 開発、管理、および最終用途
  • [セキュリティ]
  • 倫理と法律

これらのドメインは絡み合っているため、互いに関連しています。例えば、トレーニングデータの偏りやディープラーニングシステムの隠れ層構成といったソースの問題を抑えるために、AIソリューションの開発には倫理領域と法的領域を含める必要があります。うまくいくことのすべてが正しいことであるとは限りません。同時に、トレーニングデータと開発プロセスの整合性の確保は、プロセスのできるだけ早い段階で行う必要があります。

AI セーフティの枠組み:AI セーフティサミットで期待したこと

3つの分野のそれぞれについて、さらに検討すべき主要な標準とフレームワークをいくつか提案しました。その結果、これらの標準とフレームワークの策定を目的とした焦点を絞ったグループが立ち上がるはずです。

開発、管理、および最終用途
  • インターフェース標準とフレームワーク: 物理デバイス用のJSONとUSB-Cを使用するWeb APIと同様に、異なるベンダー間、およびベンダーとエンドユーザー間のAIインターフェースに関するガイドラインと標準。これにより、複数のドメインにわたるイノベーションをさらに迅速に行うことができます。その好例が、Wi-Fiとモバイル通信インターフェースが、スマートウォッチ、テレビ、ドローン、自動車、救急車などの技術革新に貢献したことです。
  • 差別化基準とフレームワーク: デジタル著作権管理(DRM)の著作権や知的財産保護など、オリジナルの芸術作品とAIによって生成された作品との明確な判断と区別を可能にするポリシー。重要な受益分野の1つは、少なくとも商品レベルでは、ディープフェイクや選挙干渉などの誤った情報や欺瞞的なコンテンツへの取り組みです。
  • AI スキルのギャップ: 今日までのパーソナルコンピューティングの初期のブームにおけるコンピュータープログラミングとコンピューターリテラシー(成人教育を含む)の取り組みと同様に、AI開発、AI管理、およびAI使用の主要分野におけるスキルギャップに対処します。これは、優れた AI と悪い AI の開発と使用の両方に公平な条件を与えることを目的としています。
[セキュリティ]
  • フォーム保護の特異性: 将来の産業用ロボットやヒューマノイドロボットと同様に、AI(ChatGPT、音声AI、画像認識AIなど)と実際のハードウェアを1つの形式に統合するためのガイドラインと保護事項。このような能力は、最終的には汎用知能 AI に現実世界における物理的相互作用能力をもたらします。基本的に、ChatGPTタイプの物理ロボットが人間の電源を入れたり、壊滅的な誤動作を起こしたりしないようにすることです。産業用ロボットや自動運転車が誤動作し、人体に危害や死をもたらした事例はすでに様々あります。
  • リスク から 空気: AI がもたらすリスクからの保護。ChatGPTはすでに悪用されています。この分野では、進化する悪意のあるペイロード、記録的な速度の脆弱性の発見と悪用、音声詐欺やフィッシング詐欺、製造プロセスの侵害やサプライチェーン攻撃などの妨害行為などの脅威が考慮されます。
  • リスク 空気: AI 自体にもたらされるリスクからの保護。これには、AI 開発、学習プロセス、バイアスパラメータの活用が含まれます。AI 開発の倫理、セキュリティ、利用に関するガイドラインは存在しますが、セキュアコーディング、DevSecOps、サプライチェーンにおけるSBOMSなどの現在のセキュリティ慣行を踏まえて、それらを改善し、改善する必要があります。消費面以外にも、コンピューター悪用防止法に似たポリシー、コンピューターの使用に関する企業セキュリティポリシー、およびフェアユースポリシーがあります。
倫理と法律
  • 人工知能市民倫理: 従業員の監視、交通管制と執行、刑事司法制度に対する顔認識やユーザー行動などの分野でのAIの使用に関する倫理とガイドライン。
  • AI 科学倫理: 科学と医学の観点から、人工知能をどう活用できるかについての倫理とガイドライン例としては、遺伝子や病気の研究、クローニングなどがあります。
  • 人工知能軍事倫理: 動的運用、特に自律型AIにおけるAIの使用について、ジュネーブ条約のような一連のエンゲージメントルールを策定してください。これは、大量殺人、化学兵器の使用、意図しない核爆発などの意図しない結果が生じる可能性を防ぐために、AIが生死にかかわる決定を下す際に特に重要です。
  • AI の法的枠組み: 法的に関連するさまざまな状況にAIを関与させることの法的影響に関するガイドラインと基準。これには、訴訟や保険・金融請求において許容される証拠の性質、リスク許容計算などのシナリオが含まれる場合があります。

AI の安全とセキュリティのフレームワークは始まりに過ぎません

世界規模でAIサイバー脅威のリスクに重点が置かれていることは心強いことです。AI 安全フレームワークは、革新的でありながら安全な AI の未来を築くための不可欠な第一歩です。しかし、これは出発点に過ぎません。理想的には、インターネット・エンジニアリング・タスクフォース(IETF)やコメント要求(RFC)と同様の AI 安全基準を策定し、反復するために協力してくれる、AI と業界の対象分野の専門家から成る、焦点を絞ったエリートグループが選ばれるべきです。

重要なのは、組織に次のような権限を与える方法も検討する必要があるということです。 レジリエンスを構築 AI を利用した攻撃に対して。AI により、犯罪者はより簡単かつ迅速に攻撃を開始できます。最善の防御策は、AIによるサイバー脅威が学習し、適応し、攻撃を進める機会を少なくするために、「学習対象領域」を減らすことです。

今すぐお問い合わせ AIの発展が組織のサイバーセキュリティにどのように影響するかを学びます。

関連トピック

アイテムが見つかりません。

関連記事

インフォセキュリティ・ヨーロッパ2023の主要トピック、エネルギーセクターのレジリエンス、高等教育機関のサイバー脅威
サイバー・レジリエンス

インフォセキュリティ・ヨーロッパ2023の主要トピック、エネルギーセクターのレジリエンス、高等教育機関のサイバー脅威

サイバーセキュリティにおける実証済みの進路としての侵害の封じ込めに焦点を当てた Illumio の 2023 年 6 月のニュース記事の詳細をご覧ください。

ゼロトラストの運用 — ステップ 5: ポリシーの設計
サイバー・レジリエンス

ゼロトラストの運用 — ステップ 5: ポリシーの設計

組織のゼロトラストへの取り組みにおける重要なステップ、つまりポリシーの設計について学びましょう。

ドメインコントローラーのところへ連れて行って:ゼロトラストツールを使った保護と緩和
サイバー・レジリエンス

ドメインコントローラーのところへ連れて行って:ゼロトラストツールを使った保護と緩和

このブログシリーズのパート1では、最初の妥協案で検出方法をどのように使用できるかを説明しました。

AI は信頼されるべきではない:AIを理解することが変革をもたらす理由
サイバー・レジリエンス

AI は信頼されるべきではない:AIを理解することが変革をもたらす理由

IllumioのCTO兼共同創設者が、AIの「テクノロジーの境界」は見かけよりも小さいと考えている理由と、それがAIの活用方法にどのように影響しているかをご覧ください。

AIと機械学習がゼロトラストセグメンテーションを加速する方法
ゼロトラストセグメンテーション

AIと機械学習がゼロトラストセグメンテーションを加速する方法

AIとMLのイノベーションが、ゼロトラストセグメンテーションの実装を加速するための強力なツールとしてどのように役立つかをご覧ください。

AI にコミュニケーションの問題がある理由
サイバー・レジリエンス

AI にコミュニケーションの問題がある理由

AI関連テクノロジーが「クロスサイロ」コミュニケーションに苦戦している理由をご紹介します。

違反を想定.
影響を最小限に抑えます。
レジリエンスを高めます。

ゼロトラストセグメンテーションについて詳しく知る準備はできていますか?