1
会員になると、いいね!でマイページに保存できます。
マイクロソフトはOpenAIの大規模言語モデルをベースとしたBingやWindows Copilotなどの生成AIサービスをリリースしている。Microsoft Security Copilotは、そのうち、XDRやSOCオペレーションを支援するための生成AIセキュリティツールである。現在パートナーや早期アクセスプログラム参加者に向けたクローズドベータとして一部でのフィールド検証が行われている。セキュリティ対策のアドバイスをくれるデモ動画なども流れており、セキュリティ関係者には気になる存在だ。
Microsoft Security Copilotとは何か
まず、最初に明確にしておきたい点は、Microsoft Security Copilotは、原稿執筆時(2023年11月半ば)ではクローズドベータの状態にあるということだ。一部のセキュリティプロバイダーや早期アクセスプログラム参加者など、専門家やパートナーが、先行して利用・評価している段階である。
パートナーやテスターたちの評価や声は、今後のバージョンに反映されていくため、製品の機能や仕様に関する記述は、現時点の情報であることに留意してほしい。
もう1つ、本稿は「Microsoft Security Copilot(Security Copilot)」に関するもので、Windows Copilotなど類似のAI支援ツールやサービスとは直接関係ないことも申し添えておく。
また、GitHubのコーディング支援AIにCopilotという名前がついているように、生成AIをシステムのナビゲーターやUIフロントエンドとする名称に「Copilot」がつくものが少なくない。それらとも混同しないようにしてほしい。
ここでは、Security Copilotは、何ができて、何ができないのか。現時点での情報を整理してみた。Security Copilotについて、巷では「自然言語で質問すれば、システムの脆弱性や必要な対策についてAIが答えてくれる」といった説明がされている。
マイクロソフトのセキュリティ関連コンポーネントと連携して、自社システムのセキュリティ関連情報を整理したり、対策のアドバイスなどが得られたりするという。
本来ならば、画期的なシステムであり、セキュリティ人材を雇えない企業にとって朗報である。しかし、このような解説は間違いではないが正確でもない。そのため、技術的な背景を押さえた上で、これらの表現をかみ砕く必要がある。
「生成AI」の業務利用のリスクや注意点
Security CopilotはOpenAIの生成AIを利用したセキュリティ対策用ナビゲーションシステムである。マイクロソフトの
Webサイトでは「インシデント対応、脅威ハンティング、脅威インテリジェンス、ポスチャマネジメント(継続的なシステムの整合性・設定および体制の管理)といったエンドツーエンドのセキュリティシナリオを自然言語の形で支援してくれる」と説明されている。
この説明だけでは、Google BardやEdgeのBing、ChatGPTに「〇〇システム(製品名)の脆弱性と対策について教えて」と聞くこととの違いがよくわからない。だが、これらの生成AIツールによって提供される情報は、出典情報や学習に利用されたデータがどういったものかによって、信頼性が変わってくる。
さらに、公開情報を総合的に解釈したAIの結果は、一般化されており、個別の状況や事案に適合できないことがある。AIが回答した脆弱性が対策済みであれば、回答に新しい情報や気づきはないかもしれない。また、AIが指摘した脆弱性以外に、自社システムに脆弱性が存在しないという保証もない。
これらの前提を把握していれば、回答の解釈方法や使い方を間違えることは少ないはずだ。つまり、生成AIによる自然言語の回答は、専門家がその領域について情報を整理するには非常に威力を発揮するのである。
その一方で、専門外の情報の場合、生成されたもっともらしい回答の妥当性を判断できないため、AIの答えだからと鵜呑みにしてはならない。
このことを踏まえて、Security Copilotでは、回答結果に必ず引用や参考にしたWebサイトのURLを添付してくれるという。
【次ページ】万能ではない、Security Copilotの機能の「穴」
関連タグ