- 会員限定
- 2025/01/24 掲載
セキュリティ最大の弱点「ヒューマンエラー」を突く、生成AIの「ダークAIツール」最前線
軍関係者を狙ったサイバー攻撃増加、初の生成AI防衛契約
2024年11月、米国防総省が初となる生成AI防衛契約を締結した。この契約は、ニューヨークを拠点とするJericho Securityと締結されたもので、その額は180万ドル(約2.8億円)。同契約は、米空軍のための先進的なサイバーセキュリティソリューションの開発を目的としており、Small Business Technology Transfer(STTR)Phase IIプログラムの一環として、AFWERX(米空軍のイノベーション部門)を通じて発表された。この契約締結は、米軍が生成AIベースの脅威に対して本格的な対策を開始することを示す重要な転換点といえる。実際、米国防総省は2023年8月、生成AIと大規模言語モデル(LLM)に関するタスクフォース「Task Force Lima(TFリマ)」を設立。同タスクフォースは、12~18カ月の期間で活動することを予定しており、2024年末までに生成AIの活用に関する調査結果と今後の計画を公表する予定だ。
AFWERXは2019年以降、米国の防衛産業基盤の強化と技術展開を加速させることを目指し、6200以上の契約を締結してきた。その額は47億ドル以上に上る。
国防総省はホワイトハウスの新たな国家安全保障指令に基づき、TFリマの調査結果と提言を精査しつつ、政府全体のアプローチに沿った投資とパイロットプログラムを展開することで、技術的優位性の維持と運用効率の向上を図る方針という。
TFリマの設立背景には、生成AIと大規模言語モデルが国防総省のミッションに対して機会とリスクの両面をもたらすという認識がある。現在特に重要視されているのがリスクとその対策だ。
とりわけ深刻な問題となっているのが軍関係者を標的とした生成AIを悪用したサイバー攻撃の増加だ。一例として、空軍のドローンパイロットを狙った偽のユーザーマニュアルを使用したスピアフィッシング攻撃が挙げられる。生成AIの精度の向上に伴って、フィッシング精度も高まっており、このようなヒューマンエラーの誘発を狙ったサイバー攻撃が急増しているのが現状とされる。
生成AIにより人を狙ったフィッシング詐欺が急増
生成AIが人間らしい出力を生成できるようになったことで、攻撃対象はシステム脆弱性からヒューマンエラーを狙ったものへとシフトしつつある。サイバーセキュリティ企業SlashNextによると、ChatGPTが登場した2022年第4四半期以降、悪意のあるフィッシングメールは1265%増加。2022年だけでも、フィッシング詐欺による被害総額は20億ドルを超えたという。
この急増の背景には、WormGPTやFraudGPTといった「ダークAIツール」の存在がある。これらは生成AIツールから倫理的制約を取り除いたもので、フィッシングメールの作成やWebサイトの偽装に必要なコード生成など、あらゆる悪意のある要求に応じる。
生成AIを悪用した具体的な事例として、2024年初頭、ある多国籍企業で発生した2,500万ドル規模の詐欺事件が挙げられる。犯罪者グループは、生成AIを用いて同社のCFOや経営幹部の動画を偽造。ビデオ会議を通じて財務担当者を騙し、巨額の資金を引き出すことに成功した。
生成AIによってフィッシング詐欺はどのように変化したのか。IBMのエンジニアチームによる実験で、その影響が明らかになった。
これは「5/5ルール」と呼ばれる実験で、生成AIに5つのプロンプトと5分の作業時間を与えることで、どのようなフィッシングキャンペーンを生成できるかを分析した。実験の結果、生成AIは、IBMのエンジニアが16時間かけて作成したものと同等のフィッシングキャンペーンを生成できることが明らかになったのだ。
IBMが設定した5つのプロンプトは、(1)特定のグループや業界における懸念事項のリスト作成、(2)ソーシャルエンジニアリング技術をベースとする作成、(3)一般的なマーケティング手法の適用、(4)送信先の特定、(5)送信者の特定、というものだった。これらのプロンプトを使用することで、従来の人手による作業を大幅に効率化できることが示された。 【次ページ】さらに新しいフィッシング詐欺、企業を標的とした手口の巧妙化とは
関連コンテンツ
PR
PR
PR