/
サイバー・レジリエンス

AI にコミュニケーションの問題がある理由

言語は道具であり、その目的は非常に単純です。私の頭の中の考えや考えを、できるだけ完全かつ正確にあなたの心に伝えることです。ほとんどのツールと同様、言語というツールもさまざまなユーザーによってさまざまな方法で使用されることがあります。

言語の習得は成功を保証するものではない。新しい技術は新しい語彙を生む。新しいボキャブラリーがあると、そのボキャブラリーの一貫性が失われます。市場では、AI 関連のテクノロジーほど新しいものや大きなものはありません。

コンテキストがすべてです

言語は、会話の両者が文脈と定義について合意した場合にのみ機能します。もっと口語的に言えば、言語は双方が「同じ考えを持っている」場合に最も効果を発揮します。技術の世界では、この種の誤解の典型的な例が、エンジニアリングとマーケティングの間の誤解です。実際、それはよくあることなので、短編漫画のディルバートに登場するユーモアの大前提となっています。

A Dilbert cartoon about how marketing and engineering disagree
写真提供:スコット・アダムス経由 ポップバース

問題は実際には非常に単純です。エンジニアの目標は、アイデアを正確に伝えることです。マーケティングではコミュニケーションも大切ですが、正確さは二の次です。第一の目標は影響を与えることです。正確性の低い単語の方がマーケティング担当者からの反応が良ければ、精度の低い単語が使用されます。エンジニアがマーケティング資料から学ぼうとすると、当然のことながら断絶という結果になります (つまり、誤解を招きます)。

誤解のもう1つの一般的な原因は、同じ単語の定義が異なる2つのグループです。両者が正しい場合でも、両者が一致しない場合もあります。その好例が「理論」という言葉です。科学者、エンジニア、数学者にとって、「理論」という言葉は、技術者以外の人とはまったく異なる非常に正確な定義を持っています。ウィリアム・ブリッグスは数理統計学の博士号を持つ科学者で、2012年にこのテーマについて次のような見解を示しました。

「ところで、何かの知的モデルを「理論」と呼ぶのは私の腹立たしいことです。科学では、モデルとは何らかのシステムやプロセスを説明的かつ予測的に記述したものです。仮説とは、原則として改ざん可能なモデルです。つまり、モデルを反証するような証拠を明確に述べることができるモデルです。理論とは、これまでそれが間違っていることを証明しようとしてきたあらゆる試みを乗り越えてきた仮説です。」

非科学者の頭の中では「理論」と「仮説」の定義が混同されているため、科学者と非科学者の間のコミュニケーションは解決が難しい問題になっています。つまり、科学者の考えや考えを非科学者の頭の中に完全かつ正確に伝えることは難しいのです。より一般的な意味では、異なるグループ同士のコミュニケーションが難しいという好例です。

これを修正するにはどうすればよいでしょうか?

テクノロジーの消費者にとって、このような「クロスサイロ」コミュニケーションは、それがあなたとベンダーの間であろうと、あなたと組織内の他のグループとの間であろうと、日常的な課題です。冒頭で述べたように、AI 関連のテクノロジーは市場では新しいものであるため、多くの不正確さや誤解の原因となっています。

これを修正するには、まず、正確で正確なデータのソースが必要です。セールスチーム、アカウントマネージャー、セールスエンジニアが、製品の購入を促す役割を担います。彼らはマーケティング用語でコミュニケーションをとるように教えられています。あなたが言いたいのは、ほとんどのセールスエンジニアに加えて、驚くほど多くのアカウントマネージャーがエンジニアリングのバックグラウンドを持っているということです。彼らを「オタクモード」に陥らせて、マーケティングの語彙をやめて、エンジニアリングの話に切り替えるのは難しくありません。その時点で、彼らが使用するエンジニアリング用語の定義を知っておくことが重要です。

AI は、1950年代半ばからコンピューターサイエンスの分野として存在してきました。そのため、技術の世界ではボキャブラリーが定着しています。しかし、これらはすべてここ数年で消費者にとって新しいことなので、消費者向けメディアで使われる言葉の定義は少し「あいまい」です。「人工知能」、「機械学習」、「大規模言語モデル」、「GPT」、「ジェネレーティブAI」、「ディープラーニング」、「ニューラルネット」、「ChatGPT」などの用語に出くわしたことは間違いありません。これらを理解してみましょう。

AI の 2 つの基本カテゴリー

「物理学」という言葉のように、AIや人工知能はそれ自体が実際には「モノ」ではありません。むしろ、AIは他の多くの分野が存在する傘のようなものです。AI 傘下の初期の研究手段はさておき、今日の AI には統計ベースの AI とニューラルネットワークベースの AI という 2 つの基本的なタイプがあります。

機械学習

統計ベースのAIは、MLまたは機械学習としてよく知られています。基本的に、ML とは解を記述する 1 つ以上の方程式で構成されるモデルを作成し、モデルに正解と不正解を与えることによって、正と負の強化を使用してそのモデルを「トレーニング」することです。このトレーニングは基本的に、各方程式の各変数の係数をコンピューターを使って探索するもので、変数に新しい値を組み込むと、望ましい答えが得られます。

これが知性と見なすには単純すぎるように思えるかもしれませんが、その意見を持っているのはあなただけではありません。機械学習は AI の傘下では「劣った」科学と見なされるのが一般的です。ML の「インテリジェンス」としての地位には議論の余地がありますが、ツールとしての力については議論の余地はありません。ML は多くの困難なタスクに優れています。

ML はさまざまな用途に使用できますが、その有用性を定義するユースケースを 1 つだけ選ぶとしたら、私は「グループ化」を選択します。ML は、互いに「似ている」ものを見つけるのに非常に役立ちます。これは、携帯電話で愛犬の写真をすべて見つけることかもしれません。あるいは、写真に写っている人物の顔を見つけて、レンズの焦点を合わせるポイントとして使用することもできます。セキュリティについて話しているので、ネットワーク内で同様のトラフィックパターンを持つサーバーのグループを見つけ、それらのサーバーからのトラフィックが突然以前ほど少なくなった(つまり、ベースラインからの逸脱など)、侵害の可能性があるときに通知する場合に便利です。

他にも、すべての NTP サーバー、すべての Redis データベース、またはパッチが適用されていない古いバージョンの Windows を実行しているネットワーク内のすべてのマシンを検索するなど、さまざまな用途が考えられます。

製品にAIが使われていると読んだ場合、使用されている特定のテクノロジーはMLである可能性が高いです。他の AI テクノロジーと比較すると、ML は最も予測しやすく、理解しやすく、実装も簡単です。また、セキュリティ分野に共通する多くの問題をうまく解決してくれます。また、ML モデル (ベンダーが行う) のトレーニングには膨大なコンピューティングリソースが必要ですが、トレーニング後に ML モデル (製品を購入した後に行う部分) を使用するには、他のどのアプリケーションよりも多くの計算能力が必要ないことも注目に値します。

ディープラーニング

普通の人が「AI」という言葉を聞いたとき、おそらくディープラーニングに基づくソリューションを思い浮かべるでしょう。ただし、ディープラーニングを定義する前に、まずニューラルネットについて説明する必要があります。

コンピューターの基本的な構成要素はNANDゲートです。コンピュータロジックを使えば、他のタイプのゲート、ひいてはあらゆるコンピュータを NAND ゲートで構築できます。実際、アポロ宇宙船のコンピューターは大きな靴箱ほどの大きさで、約14,000個のNANDゲートが搭載されていました。

NANDゲートは単純な生き物です。最も単純な形式では、NAND ゲートには 2 つの入力と 1 つの出力があります。両方の入力がハイの場合 (「オン」、つまりロジック1)、出力はロー (「オフ」、つまりロジック0) です。他の入力の組み合わせ (ロー/ロー、ロー/ハイ、またはハイ/ロー) では高出力になります。シンプル。しかし、この低く論理的な構造から、すべてのコンピューターが構築されます。

脳の基本的な構成要素または「処理単位」はニューロンです。ニューロンは NAND ゲートほど複雑ではありません。複数の入力 (通常は数百個) と1つの出力を介して電気化学的に通信します。ニューロン内のロジックは NAND ゲート (通常はオン/オフ論理ゲートではなくアナログ閾値関数) よりも複雑ですが、これはソフトウェアで簡単にモデル化できます。

相互に「接続」されたニューロンのグループがニューラルネットです。ニューラルネットは面白いものですが、ニューラルネットの真の力は、何層にも重なったニューロンがつながり、各ニューロンが 1 つまたは複数の他のニューロンに大量に栄養を与えるときに発揮されます。これがディープラーニングです。ディープラーニングは、正式には「複数の層を含むニューラルネットワーク」と定義されています。

興味深いのは、ニューラルネットは、1943年に発明され、1958年に初めて実装されたパーセプトロンの子孫であるということです。パーセプトロンには重大な制限がありましたが、基本的なコンセプトはサウンドで、1987年にニューラルネットへと発展しました。言い換えれば、私たちは35年以上にわたって基本的な構成要素を持ち、今日の素晴らしいAI技術の基礎となる基本的な考え方を理解してきましたが、AIの進歩は近年まで氷河期でした。

足りなかったのは計算能力でした。人間の脳にはおよそ1,000億個のニューロンがあります。これらのニューロン間には、およそ100兆個のコネクションがあります。コンピュータの処理能力は誕生以来指数関数的に増加してきましたが、それぞれが数千のプロセッサコアを搭載した非常に強力なコンピュータグラフィックスコプロセッサが最近登場して初めて、意味のある数のニューロンを含むニューラルネットワークを構築することが可能になりました。これを概観するために、いくつかの数字を出してみましょう。

1986年、私がプログラミングに真剣に取り組み始めたとき、世界で最も強力なスーパーコンピューターはCray X-MP/48でした。このマシンの価格は当時約2,000万米ドル、つまり現在の金額で約5500万米ドルでした。レストランのウォークイン冷蔵庫と同じくらいの大きさで、消費電力は約350 kwで、エアコンの電源を入れた家の1平方ブロック分とほぼ同じ量でした。Raspberry Pi Zeroは、数年前に発売されたときの価格は5米ドルで、これらのシステムの1つとほぼ同じ性能でした。ポケットに入れて持ち歩き、画面を割ったときにゴミ箱に捨てる iPhone やハイエンドの Android スマートフォンは、1986 年に世界中にあったすべてのスーパーコンピューターを合わせたものとほぼ同じくらい強力です。地元の大きなスーパーセンターに行けば、数百台のiPhoneに匹敵するマシンが手に入るかもしれません。

AIのコンピューターサイエンス面では大きな進歩が見られましたが、今日のAIソリューションの優れた能力を生み出したのは、コンピューターの処理能力とこれまで以上に多くのニューロンをシミュレートする能力の驚くべき向上です。

ディープラーニングをベースにしたソリューション

ML以外では、現在のAI技術のほとんどすべてがディープラーニングに基づいています。ジェネレーティブ AI は、今日の AI に「すごい」要素をもたらすシステムの大まかな分類です。ジェネレーティブAI とは、新しいアウトプットを合成する能力であり、多くの場合、他のインプットデータのスタイルを採用しています。これには、可聴データ (音声、音、音楽)、視覚データ (写真、映画、図面)、テキスト (単語、文、段落、詩、歌詞など) などがあります。このアウトプットは、完全にオリジナルである場合もあれば、特定のアーティストのスタイルで作成された場合もあります(お気に入りの検索エンジンで、サー・ミックス・ア・ロットの「ベイビーズ・ゴット・バック」を歌っているエルビスの声や、フェルメール風のコーギーの絵の例が表示されるはずです)。

写真クレジット:ケーシーリッキー

大規模言語モデルは、人間の言語に特化したジェネレーティブAIシステムです。非常に大きな岩の下に住んでいない限り、ChatGPTについて聞いたことがあるでしょう。ChatGPTは、GPTと呼ばれるAutoAIの製品をベースにしたウェブインターフェースです。ChatGPTは、ユーザーからのプロンプトと質問に基づいて、不可解なものから驚くべきものまで、さまざまなアウトプットを生み出す優れたシステムです。ChatGPTは喜んでお子様の数学の宿題をしたり (または本のレポートを書いたり)、ストーリーを書いたり、ソフトウェアを分析したり、Pythonでコードを書くのを手伝ってくれます。ChatGPT の出力はインテリジェントなものだと簡単にわかります (ただし、この出力が本当に知性を表しているかどうかは、この記事では扱いません)。確かに、アウトプットはインテリジェンスに十分近いため、このテクノロジが今後 5 年間にどこに向かうかがわかります。

セキュリティにおけるディープラーニング

これまで、ニューラルネットワークベースのAIソリューションがセキュリティ製品に組み込まれることはほとんどありませんでした。確かにゼロではありませんが、ベンダーがこのテクノロジーの導入を約束するまでには、まだいくつかのスピードバンプが必要です。

「モチベーション」という言葉に少し自由があるとしたら、現世代の大規模言語モデルの第一の欠点は、その「モチベーション」がユーザーを満足させるアウトプットを生み出すことであるということです。ユーザーを満足させる出力が必ずしも正しい出力であるとは限らないことに気付くまでは、これはかなり良いように思えます。LLM は、ユーザーが満足している限り、間違っていても完全に満足しています。実際、正しいことはLLMにとって二次的な考慮事項であると言っても正確ではありません。LLM のアウトプットがたまたま正確であれば、それはむしろ幸せな偶然であり、LLM にとっては何の関心事でもありません。LLMが支援する詩を書く場合はこれで問題ありませんが、セキュリティポリシーを補助する場合は問題になるかもしれません。

第二に、LLMはいわば「手に負えなくなる」可能性があります。必然的に、LLMは、その用途に厳密に必要な範囲をはるかに超える幅広い知識とデータを使ってトレーニングを受けることになります。実際、LLMを従業員を雇うのと同じように考えると便利な場合があります。あなたが必要とする仕事をするために雇われた従業員は、確かにその仕事以外の人生経験があります。誤った社員と同じように、現在の LLM の実装は、安全な話題以外で進めてもかまいません。

LLMはごく最近のテクノロジーであり、これらの問題は多くの非常に賢い人々によって取り組まれています。それらは間違いなく来年かそこらで解決されるでしょう。解決したら、自然言語インターフェース、問題の自動優先順位付け、以前に解決した問題の相互参照、問題解決の提案など、さまざまな新製品機能が期待できます。今から12か月から18か月後、次のようなメールを送るような製品が市場に出ていなかったら、私は驚くだろう。

親愛なるユーザー。新しくリリースされたCVE-20240101と一致する特性を持つ異常トラフィックが、今朝の 04:53:07 から、ダラスのデータセンターにある次の 4 台のマシンから検出されました。[...] これら4台のマシンにはすべてベンダーパッチ XXX がなく、2 台にはパッチ YYY も適用されていませんでした。どちらもCVE-20240101を軽減します。これらは冗長データベースサーバーであり、フェールオーバーに十分な容量があったため、これらのマシンは一時的にネットワークから切断されました。< to automatically re-image, patch, and restore these systems, or click >詳細やその他のオプションについては、>こちら<をクリックしてください。

これらの各要素は、少なくとも研究段階ではすでに存在しています。LLMは、CVE (一般的な脆弱性と暴露) の英語テキストを解析できます。CVE 内のデータを実際のネットワークトラフィックと比較できます。ネットワークのボリュームと容量を分析できます。システムにインストールされている (または存在しない) ソフトウェアと構成を分析できます。また、Ansible スクリプトを生成して、システムの再構築や設定やデータの復元を自動化することもできます。あとは、各要素を組み合わせるだけです。

締めくくりに

ソーシャルメディアとニュースの世界では、言語(ひいてはコミュニケーション)が意図的に正確さを失うにつれて、歴史が展開するのを見守っています。私たちは、バーネイズとオーウェルの教訓が現実世界で実践されるのを目の当たりにしています。しかし、テクノロジーの世界では、まだこれらの課題に直面していません。正確かつ正確に話すことはまだ自由です。そのためには、正しい語彙力を持つことが大切です。

関連トピック

アイテムが見つかりません。

関連記事

ゼロトラストアーキテクチャとは完全ガイド
サイバー・レジリエンス

ゼロトラストアーキテクチャとは完全ガイド

Learn what it means to build Zero Trust architecture, including its core concept, network design principles, and its role in cybersecurity.

スペースシャトルの打ち上げをハッキングした方法—そして捕まった方法
サイバー・レジリエンス

スペースシャトルの打ち上げをハッキングした方法—そして捕まった方法

ポールの子供の頃のハッキングの話が、典型的なサイバー攻撃がいかに直感的であるかを示している理由と、その情報を利用してラテラルムーブメントを阻止する方法を学びましょう。

AI の安全とセキュリティのためのセキュリティ実務者向けフレームワーク
サイバー・レジリエンス

AI の安全とセキュリティのためのセキュリティ実務者向けフレームワーク

セキュリティ専門家が先日開催された「AIセーフティサミット2023」で期待していた、AI セーフティに関する実践的なフレームワークを入手しましょう。

AI は信頼されるべきではない:AIを理解することが変革をもたらす理由
サイバー・レジリエンス

AI は信頼されるべきではない:AIを理解することが変革をもたらす理由

IllumioのCTO兼共同創設者が、AIの「テクノロジーの境界」は見かけよりも小さいと考えている理由と、それがAIの活用方法にどのように影響しているかをご覧ください。

次世代ファイアウォールの歴史と課題
サイバー・レジリエンス

次世代ファイアウォールの歴史と課題

次世代ファイアウォール(NGFW)の推進力、複雑さを伴う課題、および将来のイノベーションの可能性について学んでください。

マイクロセグメンテーション環境におけるNGFW機能の使用の調査
サイバー・レジリエンス

マイクロセグメンテーション環境におけるNGFW機能の使用の調査

マイクロセグメンテーション環境でNGFW機能を実装する可能性に関するIllumioの研究の詳細をご覧ください。

Assume Breach.
影響を最小限に抑えます。
レジリエンスを高めます。

ゼロトラストセグメンテーションについて詳しく知る準備はできていますか?