導入
生成AI(新たなコンテンツや予測を作成できる人工知能システム)は、サイバーセキュリティにおける変革の原動力として台頭しています。OpenAIのGPT-4などのツールは、複雑なデータを分析し、人間のようなテキストを生成する能力を実証しており、サイバー脅威に対する新たな防御アプローチを可能にします。サイバーセキュリティの専門家や業界を問わず、ビジネス上の意思決定者は、進化する攻撃に対する防御を生成AIによって強化する方法を模索しています。金融、医療、小売、政府機関など、あらゆる分野の組織は、高度なフィッシング攻撃、マルウェア、その他の脅威に直面しており、生成AIはこれらの脅威への対策に役立つ可能性があります。このホワイトペーパーでは、生成AIをサイバーセキュリティにどのように活用できるかを、実際のアプリケーション、将来の可能性、導入における重要な考慮事項に焦点を当てます。
生成AIは、パターン検出だけでなく生成。例えば、攻撃をシミュレーションして防御を訓練したり、複雑なセキュリティデータに自然言語による説明を生成したりといった機能です。この二重の機能は諸刃の剣です。強力な新しい防御ツールを提供する一方で、脅威アクターによる悪用も可能になります。以下のセクションでは、フィッシング検出の自動化からインシデント対応の強化まで、サイバーセキュリティにおける生成AIの幅広いユースケースを考察します。また、これらのAIイノベーションがもたらすメリットと、組織が管理しなければならないリスク(AIの「幻覚」や敵対的悪用など)についても考察します。最後に、企業が生成AIを評価し、責任を持ってサイバーセキュリティ戦略に統合するための実践的なヒントを提供します。
サイバーセキュリティにおける生成AI:概要
サイバーセキュリティにおける生成AIとは、セキュリティ業務を支援するための洞察、推奨事項、コード、さらには合成データを生成するAIモデル(多くの場合、大規模言語モデルやその他のニューラルネットワーク)を指します。純粋な予測モデルとは異なり、生成AIはトレーニングデータに基づいてシナリオをシミュレートし、人間が判読できる出力(レポート、アラート、さらには悪意のあるコードサンプルなど)を生成できます。この機能は、これまでよりも動的な方法で脅威を予測、検知、そして対応するためサイバーセキュリティにおける生成AIとは? - Palo Alto Networks )。例えば、生成モデルは膨大なログや脅威インテリジェンスリポジトリを分析し、簡潔な要約や推奨アクションを生成することができ、セキュリティチームにとってAI「アシスタント」のような役割を果たします。
サイバー防御のための生成AIの初期実装は有望性を示しています。2023年、MicrosoftはSecurity Copilotをこれは、侵害を特定し、Microsoftが毎日処理する65兆の信号をふるいにかけるのに役立ちます( Microsoft Security Copilotはサイバーセキュリティ向けの新しいGPT-4 AIアシスタントです| The Verge )。アナリストは自然言語でこのシステムに指示することができ(例: 「過去24時間のすべてのセキュリティインシデントを要約してください」 )、Copilotは有用な物語の要約を作成します。同様に、Googleの脅威インテリジェンスAIは Geminiと呼ばれる生成モデルを使用して、 Googleの膨大な脅威インテリジェンスデータベースの会話型検索を可能にし、疑わしいコードをすばやく分析し、調査結果を要約してマルウェアハンターを支援します(サイバーセキュリティで生成AIを使用する方法:実際の10の例)。これらの例は、生成AIが複雑で大規模なサイバーセキュリティデータを消化し、アクセス可能な形式で洞察を提示し、意思決定を加速するという可能性を示しています。
同時に、生成AIは非常にリアルな偽コンテンツを作成できるため、シミュレーションやトレーニングには大きなメリットとなります(そして残念ながら、ソーシャルエンジニアリングを仕掛ける攻撃者にとっては大きなメリットとなります)。具体的なユースケースを見ていくと、生成AIの合成と分析、様々なサイバーセキュリティ分野の基盤となっていることがわかります。以下では、フィッシング対策からセキュアなソフトウェア開発まで、主要なユースケースを詳しく見ていきます。それぞれのユースケースが様々な業界でどのように適用されているか、その例を挙げながら解説します。
サイバーセキュリティにおける生成AIの主な応用
図: サイバーセキュリティにおける生成 AI の主な使用例には、セキュリティ チーム向けの AI 副操縦士、コードの脆弱性分析、適応型脅威検出、ゼロデイ攻撃シミュレーション、強化された生体認証セキュリティ、フィッシング検出などがあります (サイバーセキュリティにおける生成 AI の 6 つの使用例 [+ 例] )。
フィッシングの検出と防止
フィッシングは依然として最も蔓延しているサイバー脅威の 1 つであり、ユーザーを騙して悪質なリンクをクリックさせたり、認証情報を漏らさせたりします。生成 AI は、フィッシング攻撃を検出し、攻撃を阻止するためのユーザー トレーニングを強化するために導入されています。防御側では、AI モデルがメールの内容と送信者の行動を分析し、ルールベースのフィルターが見逃す可能性のあるフィッシングの微妙な兆候を見つけることができます。正規メールと詐欺メールの大規模なデータセットから学習することにより、生成モデルは、文法やスペルからは詐欺だと判断できない場合でも、口調、言葉遣い、コンテキストの異常を検知できます。実際、Palo Alto Networks の研究者は、生成 AI は「通常は検出されない可能性のあるフィッシング メールの微妙な兆候」を識別できるため、組織が詐欺師の一歩先を行くことができると述べています ( What Is Generative AI in Cybersecurity? - Palo Alto Networks )。
フィッシング攻撃のシミュレーションをAIも活用しています。例えば、Ironscales社は、組織の従業員に合わせた偽のフィッシングメールを自動生成するGPTベースのフィッシングシミュレーションツールを発表しました(「サイバーセキュリティにおける生成AIの活用方法:実例10選」)。AIが作成したこれらのメールは、最新の攻撃者の戦術を反映しており、スタッフはフィッシングコンテンツを見分けるための現実的な訓練を受けることができます。攻撃者自身もAIを活用してより説得力のある餌を作成しているため、このような個別トレーニングは非常に重要です。特に、生成AIは非常に洗練されたフィッシングメッセージを生成できますが(簡単に見破られる片言の英語の時代は終わりました)、防御側はAIが無敵ではないことに気づいています。 2024年、IBM Securityの研究者は、人間が作成したフィッシングメールとAIが生成したメールを比較する実験を行いました。その結果、 「驚くべきことに、AIが生成したメールは文法が正しいにもかかわらず、容易に検出できました」 (サイバーセキュリティにおける生成AIの6つのユースケース[+例] )。これは、人間の直感とAI支援による検出を組み合わせることで、AIが作成した詐欺メールの微妙な矛盾やメタデータのシグナルを認識できることを示唆しています。
生成 AI は他の方法でもフィッシング防御を支援します。モデルを使用して、自動応答やフィルターをます。たとえば、AI システムは、送信者の正当性を確認するために特定のクエリでメールに返信したり、LLM を使用してサンドボックスでメールのリンクと添付ファイルを分析し、悪意のある意図をまとめたりすることができます。NVIDIA のセキュリティ プラットフォームMorpheus は、従来のセキュリティ ツールと比較してスピアフィッシング メールの検出を21%サイバーセキュリティにおける生成 AI の 6 つの使用例 [+ 例] )。Morpheus は、ユーザーのコミュニケーション パターンをプロファイリングして異常な動作 (ユーザーが突然多くの外部アドレスにメールを送信するなど) も検出します。これは、侵害されたアカウントがフィッシング メールを送信していることを示している可能性があります。
実のところ、様々な業界の企業が、ソーシャルエンジニアリング攻撃に対するメールやウェブトラフィックのフィルタリングにAIを活用し始めています。例えば、金融会社は生成AIを活用して、通信詐欺につながる可能性のあるなりすまし行為を検知し、通信内容をスキャンしています。また、医療機関はフィッシング関連の侵害から患者データを保護するためにAIを導入しています。生成AIは、現実的なフィッシングシナリオを生成し、悪意のあるメッセージの特徴を特定することで、フィッシング防止戦略に強力なレイヤーを追加します。つまり、攻撃者が同じテクノロジーを使って手口を巧妙化している場合でも、AIはフィッシング攻撃をより迅速かつ正確に検知し、無効化するのに役立ちます
マルウェア検出と脅威分析
現代のマルウェアは常に進化しており、攻撃者は新たな亜種を生成したり、コードを難読化してウイルス対策シグネチャを回避したりしています。生成AIは、マルウェアの検出とその動作の理解の両方に新しい手法を提供します。1つのアプローチは、AIを使用してマルウェアの「邪悪な双子」を生成するです。セキュリティ研究者は既知のマルウェアサンプルを生成モデルに入力して、そのマルウェアの変異した亜種を多数作成できます。そうすることで、攻撃者が行う可能性のある微調整を効果的に予測できます。これらのAI生成の亜種は、ウイルス対策システムや侵入検知システムのトレーニングに使用でき、マルウェアの修正バージョンであっても実際に認識されるようになります(サイバーセキュリティにおける生成AIの6つのユースケース[+例] )。このプロアクティブな戦略は、ハッカーが検出を回避するためにマルウェアをわずかに変更し、防御側が毎回新しいシグネチャを作成するために奮闘しなければならないという悪循環を断ち切るのに役立ちます。ある業界のポッドキャストで指摘されているように、セキュリティ専門家は現在、生成AIを用いて「ネットワークトラフィックをシミュレートし、高度な攻撃を模倣する悪意のあるペイロードを生成」し、単一のインスタンスではなく、脅威ファミリー全体に対する防御のストレステストを行っています。この適応型脅威検出は、セキュリティツールが、本来であればすり抜けてしまうようなポリモーフィック型マルウェアに対して、より強固な耐性を持つことを意味します。
検出以外にも、生成 AI はマルウェア分析やリバースエンジニアリングをます。これらは従来、脅威アナリストにとって労働集約的なタスクです。大規模言語モデルには、疑わしいコードやスクリプトを調べ、そのコードの目的をわかりやすい言葉で説明させるタスクを課すことができます。実際の例としては、 VirusTotal Code Insight。これは生成 AI モデル (Google の Sec-PaLM) を活用して、潜在的に悪意のあるコードの自然言語による概要を生成します (サイバーセキュリティで生成 AI を使用する方法: 10 の実際の例)。基本的には「セキュリティ コーディング専用の ChatGPT の一種」であり、人間のアナリストが脅威を理解するのを支援するために 24 時間 365 日働く AI マルウェア アナリストとして機能します (サイバーセキュリティでの生成 AI の 6 つの使用例 [+ 例] )。セキュリティチームのメンバーは、見慣れないスクリプトやバイナリコードをじっくりと調べる代わりに、AIから即座に説明を得ることができます。例えば、 「このスクリプトはXYZサーバーからファイルをダウンロードし、システム設定を変更しようとします。これはマルウェアの挙動を示唆しています」といったこれにより、アナリストはこれまで以上に迅速に新しいマルウェアをトリアージし、理解できるようになるため、インシデント対応が劇的にスピードアップします。
生成AIは、膨大なデータセットからマルウェアを正確に特定するも使用されています。従来のウイルス対策エンジンは、既知のシグネチャを探してファイルをスキャンしますが、生成モデルはファイルの特性を評価し、学習したパターンに基づいてそれが悪意のあるものであるかどうかを予測することさえできます。数十億のファイル(悪意のあるファイルと無害なファイル)の属性を分析することにより、AIは明示的なシグネチャが存在しない悪意のある意図を捉える可能性があります。たとえば、生成モデルは、バイナリが新しい場合でも、トレーニング中に確認したランサムウェアのわずかなバリエーションのように「見える」に対抗するのに役立ちます。GoogleのThreat Intelligence AI(Chronicle/Mandiantの一部)は、その生成モデルを使用して潜在的に悪意のあるコードを分析し、「マルウェアやその他の種類の脅威と戦うセキュリティ専門家をより効率的かつ効果的に支援」して(サイバーセキュリティで生成AIを使用する方法:10の実際の例)。
その一方で、攻撃者がここでも生成 AI を使用し、適応するマルウェアを自動的に作成できることを認識する必要があります。実際、セキュリティの専門家は、による検出が困難なマルウェアの開発に役立つ可能性がある What Is Generative AI in Cybersecurity? - Palo Alto Networks )。AI モデルは、マルウェアの一部を繰り返し変形 (ファイル構造、暗号化方式などを変更) するように指示され、既知のすべてのウイルス対策チェックを回避することができます。このような敵対的な使用は、懸念が高まっています (「AI 搭載マルウェア」またはサービスとしてのポリモーフィック マルウェアと呼ばれることもあります)。このようなリスクについては後で説明しますが、生成 AI は、防御側と攻撃側の両方が使用する、このいたちごっこのツールであることを強調しています。
総じて、生成AIはセキュリティチームが攻撃者のように考え、新たな脅威とソリューションを社内で生成できるようにすることで、マルウェア対策を強化します。検出率を向上させるために合成マルウェアを作成する場合でも、ネットワーク内で発見された実際のマルウェアをAIで解析・封じ込める場合でも、これらの技術はさまざまな業界に適用できます。銀行はAI主導のマルウェア分析を使用して、スプレッドシート内の疑わしいマクロを迅速に分析するかもしれませんし、製造業はAIを活用して産業用制御システムを標的とするマルウェアを検出するかもしれません。従来のマルウェア分析を生成AIで強化することで、組織はマルウェア攻撃にこれまでよりも迅速かつ積極的に対応できるようになります。
脅威インテリジェンスと分析の自動化
組織は日々、脅威インテリジェンスデータの洪水に晒されています。新たに発見された侵害指標(IOC)のフィードから、新たなハッカー戦術に関するアナリストレポートまで、多岐にわたります。セキュリティチームにとっての課題は、この膨大な情報を精査し、実用的な洞察を引き出すことです。生成型AIは、脅威インテリジェンスの分析と利用の自動化。アナリストは、数十ものレポートやデータベースエントリを手作業で読み込む代わりに、AIを活用することで、機械のスピードで脅威インテリジェンスを要約し、文脈化することができます。
具体的な例の 1 つは、Google の脅威インテリジェンススイートです。これは、生成 AI(Gemini モデル)と、Mandiant および VirusTotal から Google が蓄積する膨大な脅威データを統合したものです。この AI は、 「Google の膨大な脅威インテリジェンス リポジトリ全体にわたる会話型検索」、ユーザーが脅威について自然な質問をして、抽出された回答を得ることができます (サイバーセキュリティで生成 AI を使用する方法: 10 の実際の例)。たとえば、アナリストが「私たちの業界を狙う脅威グループ X に関連するマルウェアを確認しましたか?」と、AI が関連する情報を引き出し、 「はい、脅威グループ X は先月、マルウェア Y を使用してフィッシング キャンペーンにリンクされていました」などと、そのマルウェアの動作の概要とともに示します。これにより、複数のツールにクエリを実行したり、長いレポートを読んだりする必要があった洞察の収集時間が大幅に短縮されます。
脅威の傾向を相関させて要約することもできます。たとえば、何千ものセキュリティに関するブログ記事、侵害のニュース、ダークウェブでのやり取りを精査し、CISOへの説明用に「今週の主要なサイバー脅威」のエグゼクティブサマリーを生成できます。従来、このレベルの分析とレポート作成には相当の人的労力が必要でしたが、現在では、適切に調整されたモデルが数秒で下書きを作成し、人間は出力を調整するだけです。ZeroFoxなどの企業は、悪意のあるコンテンツやフィッシングデータを含む「大規模なデータセットのインテリジェンスの分析と要約を加速する」ことを目的として特別に設計された生成AIツール 「サイバーセキュリティで生成AIを使用する方法:実際の10の例」 )。データの読み取りと相互参照という重労働をAIが自動化することで、脅威インテリジェンスチームは意思決定と対応に集中できるようになります。
もう 1 つの使用例は、会話型の脅威ハンティング。セキュリティ アナリストが AI アシスタントと対話して、 「過去 48 時間以内にデータ漏洩の兆候があれば教えてください」または「今週、攻撃者が悪用している主な新しい脆弱性は何ですか」と尋ねる場面を想像してみてください。AI はクエリを解釈し、内部ログまたは外部の情報ソースを検索して、明確な回答や関連するインシデントのリストで応答できます。これは突飛な話ではありません。最新のセキュリティ情報イベント管理 (SIEM) システムでは、自然言語によるクエリが取り入れられ始めています。たとえば、IBM の QRadar セキュリティ スイートでは、2024 年に生成 AI 機能が追加され、アナリストが「インシデントの要約された攻撃パスに関する具体的な質問」をして詳細な回答を得ることができるようになります。また、 自動的に解釈して要約する」 「サイバーセキュリティで生成 AI を使用する方法: 実際の 10 の例」)。基本的に、生成 AI は山のような技術データをオンデマンドでチャット サイズの洞察に変換します。
これは業界全体に大きな影響を与えます。医療機関はAIを活用することで、病院を標的とする最新のランサムウェアグループに関する最新情報を入手でき、専任のアナリストを雇用することなく対応できます。小売企業のSOCは、店舗のITスタッフに説明する際に、新たなPOSマルウェアの戦術を迅速にまとめることができます。また、様々な機関からの脅威データを統合する必要がある政府機関では、AIを活用して重要な警告を強調した統合レポートを作成できます。脅威インテリジェンスの収集と解釈を自動化する、組織が新たな脅威に迅速に対応し、ノイズに埋もれた重要な警告を見逃すリスクを軽減するのに役立ちます。
セキュリティオペレーションセンター(SOC)の最適化
セキュリティオペレーションセンター(SOC)は、アラート疲れと膨大なデータ量で知られています。典型的なSOCアナリストは、毎日何千ものアラートやイベントに目を通し、潜在的なインシデントを調査しています。ジェネレーティブAIは、定型業務の自動化、インテリジェントなサマリーの提供、さらには一部の対応のオーケストレーションまで行うことで、SOCの業務効率化に貢献しています。目標は、SOCワークフローを最適化し、人間のアナリストが最も重要な問題に集中し、残りの作業をAIコパイロットが処理できるようにすることです。
「アナリストの副操縦士」として使用することです。前述の Microsoft の Security Copilot がこれを例示しています。これは「セキュリティ アナリストの作業を置き換えるのではなく、支援するように設計」されており、インシデントの調査とレポートに役立ちます ( Microsoft Security Copilot は、サイバーセキュリティ向けの新しい GPT-4 AI アシスタントです | The Verge )。実際には、アナリストが生データ (ファイアウォール ログ、イベント タイムライン、インシデントの説明) を入力し、AI に分析または要約を依頼できます。副操縦士は、 「午前 2 時 35 分に、IP X からの疑わしいログインがサーバー Y で成功し、その後に異常なデータ転送が続いたため、そのサーバーの潜在的な侵害の可能性があることが示されています」のような説明を出力する場合があります。このような即時のコンテキスト化は、時間が重要である場合に非常に貴重です。
AIコパイロットは、レベル1のトリアージの負担軽減にも役立ちます。業界データによると、セキュリティチームは約22,000件のアラートと誤検知を整理するだけで週に15時間をサイバーセキュリティにおける生成AIの6つのユースケース[+例] )。生成AIを使用すると、これらのアラートの多くを自動的にトリアージできます。AIは明らかに無害なアラートを(理由付きで)却下し、本当に注意が必要なアラートを強調表示し、場合によっては優先順位を提案します。実際、生成AIはコンテキストを理解する能力に長けており、単独では無害に見えても、全体として多段階の攻撃を示唆するアラートを相互に関連付けることができます。これにより、「アラート疲れ」による攻撃の見逃しの可能性が軽減されます。
SOCアナリストも、自然言語をAIと組み合わせて、ハンティングと調査を迅速化しています。たとえば、 Purple AI「複雑な脅威ハンティングの質問を平易な英語で尋ねて、迅速かつ正確な回答を得る」(「サイバーセキュリティで生成AIを活用する方法:10の実例」)。アナリストが「過去1か月間にドメインbadguy123[.]comと通信したエンドポイントはありますか?」と、Purple AIがログを検索して応答します。これにより、アナリストはデータベースクエリやスクリプトを作成する必要がなくなります。AIが裏でそれを行います。また、以前はクエリ言語に熟練した熟練エンジニアが必要とされていたタスクを、経験の浅いアナリストが処理できるようになり、 AI支援を通じてチームのスキルが効果的に向上します。実際、アナリストは、生成 AI ガイダンスによって「スキルと熟練度が向上する」。これは、若手スタッフが AI からオンデマンドのコーディング サポートや分析のヒントを得られるようになり、常に上級チーム メンバーに助けを求める必要性が減ったためです (サイバー セキュリティにおける生成 AI の 6 つの使用例 [+ 例] )。
SOC のもう 1 つの最適化は、インシデントの要約と文書化の自動化。インシデントが処理された後、誰かがレポートを作成する必要がありますが、これは多くの人が面倒な作業です。Generative AI は、フォレンジック データ (システム ログ、マルウェア分析、アクションのタイムライン) を取得して、インシデント レポートの初版を生成できます。IBM は、この機能を QRadar に組み込んでおり、 「シングル クリック」さまざまな関係者 (経営陣、IT チームなど) 向けのインシデントの概要を作成できるようにしています ( How Can Generative AI Be Use in Cybersecurity? 10 Real-World Examples )。これは時間を節約するだけでなく、AI が関連するすべての詳細を一貫して含めることができるため、レポートで見落としがないことを保証します。同様に、コンプライアンスと監査のために、AI はインシデント データに基づいてフォームや証拠テーブルに記入できます。
現実世界での成果は説得力があります。Swimlane の AI 主導型 SOAR (セキュリティ オーケストレーション、自動化、対応) を早期に導入した企業は、生産性の大幅な向上を報告しています。たとえば Global Data Systems では、SecOps チームがはるかに多くのケースを処理できるようになりました。あるディレクターは 「現在 7 人のアナリストで行っている、AI を活用した自動化がなければおそらく 20 人のスタッフが必要になるでしょう」と述べています (サイバーセキュリティで生成 AI を使用する方法)。言い換えれば、 SOC の AI は処理能力を増大させることができます。クラウド セキュリティ アラートを処理するテクノロジー企業であれ、OT システムを監視する製造工場であれ、業界を問わず、SOC チームは生成 AI アシスタントを導入することで、検出と対応の迅速化、インシデントの見逃しの削減、運用の効率化を実現できます。重要なのは、よりスマートに作業することです。つまり、反復的でデータ量の多いタスクを機械に処理させ、人間が最も重要なところで直感と専門知識を適用できるようにすることです。
脆弱性管理と脅威シミュレーション
脆弱性(攻撃者が悪用できるソフトウェアやシステムの弱点)を特定し、管理することは、サイバーセキュリティの中核機能です。生成AIは、発見の迅速化、パッチ適用の優先順位付け、さらには脆弱性への攻撃シミュレーションによる準備態勢の強化などを通じて、脆弱性管理を強化します。つまり、AIは組織が防御の穴をより迅速に発見・修正し、にテストするのを支援しているのです。
自動コード レビューと脆弱性検出に使用することです。大規模なコードベース (特にレガシー システム) には、気付かれないセキュリティ上の欠陥が潜んでいることがよくあります。生成 AI モデルは、安全なコーディング プラクティスと一般的なバグ パターンでトレーニングした後、ソース コードまたはコンパイル済みバイナリに適用して潜在的な脆弱性を見つけることができます。たとえば、NVIDIA の研究者は、レガシー ソフトウェア コンテナーを分析して脆弱性を「人間の専門家よりも最大 4 倍高速な高精度で」(サイバー セキュリティにおける生成 AI の 6 つの使用例 [+ 例] )。この AI は、安全でないコードがどのようなものかを学び、何十年も前のソフトウェアをスキャンして危険な関数やライブラリにフラグを付けることで、通常は時間がかかる手動によるコード監査のプロセスを大幅に高速化しました。この種のツールは、大規模で古いコードベースに依存している金融や政府などの業界にとってゲームチェンジャーになる可能性があります。AI は、スタッフが (そもそも見つけられない場合もある) 数か月または数年かかる問題を掘り起こすことで、セキュリティの最新化を支援します。
、脆弱性スキャンの結果を処理して優先順位を付けることにより、脆弱性管理ワークフローも支援しますExposureAI生成AIを使用して、アナリストが脆弱性データを平易な言葉で照会し、即座に回答を得ることができます(サイバーセキュリティで生成AIを使用する方法:10の実際の例)。ExposureAIは、「完全な攻撃パスを物語形式で要約」し、攻撃者がその脆弱性を他の脆弱性と連鎖させてシステムを侵害する方法を説明します。さらに、修復するためのアクションを推奨し、リスクに関するフォローアップの質問に答えます。つまり、新しい重大なCVE(共通脆弱性識別子)が発表された場合、アナリストはAIに「私たちのサーバーのいずれかがこのCVEの影響を受けていますか?パッチを適用しない場合の最悪のシナリオは何ですか?」と、組織独自のスキャンデータから導き出された明確な評価を受け取ることができます。脆弱性をコンテキスト化することで (たとえば、この脆弱性はインターネットに公開されており、価値の高いサーバー上にあるため、最優先事項です)、生成 AI はチームが限られたリソースでスマートにパッチを適用できるように支援します。
生成 AI は、既知の脆弱性の発見と管理に加えて、侵入テストや攻撃シミュレーション未知の発見やセキュリティ制御のテストです。生成 AI の一種である敵対的生成ネットワーク (GAN) は、実際のネットワーク トラフィックやユーザー行動を模倣した合成データを作成するために使用されており、隠れた攻撃パターンを含む場合もあります。2023 年の研究では、GAN を使用して現実的なゼロデイ攻撃トラフィックを生成し、侵入検知システムをトレーニングすることが提案されています (サイバーセキュリティにおける生成 AI の 6 つのユース ケース [+ 例] )。AI が作成した攻撃シナリオ (実際のマルウェアが本番ネットワークで使用されるリスクがない) を IDS に入力することで、組織は実際に攻撃を受けるまで待たずに、新しい脅威を認識できるように防御をトレーニングできます。同様に、AI はシステムを調べる攻撃者をシミュレートできます。たとえば、安全な環境でさまざまなエクスプロイト手法を自動的に試して、成功するかどうかを確認します。米国国防高等研究計画局(DARPA)は、この分野に将来性を見出しています。2023年のAIサイバーチャレンジでは、生成AI(大規模言語モデルなど)を明示的に活用し、 「オープンソースソフトウェアの脆弱性を自動的に発見・修正」するコンテスト( DARPA、戦闘員が信頼できるAI・自律アプリケーションの開発を目指す > 米国国防総省 > 国防総省ニュース)の一環として取り組んでいます。この取り組みは、AIが既知の脆弱性を修正するだけでなく、新たな脆弱性を積極的に発見し、修正案を提案していることを強調しています。これは、従来は熟練した(そして高額な)セキュリティ研究者に限定されていた作業です。
インテリジェントなハニーポットやデジタルツイン作成することもできます。スタートアップ企業は、実際のサーバーやデバイスを説得力を持ってエミュレートするAI駆動型のデコイシステムを開発しています。あるCEOが説明したように、生成AIは「デジタルシステムのクローンを作成して実際のシステムを模倣し、ハッカーをおびき寄せる」こと(サイバーセキュリティにおける生成AIの6つのユースケース[+例] )。これらのAI生成ハニーポットは、実際の環境(通常のテレメトリを送信する偽のIoTデバイスなど)のように動作しますが、攻撃者をおびき寄せるためだけに存在するのです。攻撃者がデコイをターゲットにすると、AIは基本的に攻撃者をだまして攻撃手法を明らかにさせ、防御側はそれを研究して実際のシステムを強化することができます。生成モデリングを活用したこのコンセプトは、 攻撃者を逆転させる。
あらゆる業界において、脆弱性管理の迅速化とスマート化は、侵害の減少につながります。例えば、医療IT分野では、AIが医療機器内の脆弱な古いライブラリを迅速に発見し、攻撃者に悪用される前にファームウェアの修正を促す可能性があります。銀行業界では、AIが新しいアプリケーションへの内部者攻撃をシミュレーションし、あらゆるシナリオにおいて顧客データの安全性を確保できます。このように、生成AIは組織のセキュリティ体制を検査する顕微鏡とストレステスターの両方の役割を果たします。隠れた欠陥を明らかにし、独創的な方法でシステムに圧力をかけ、レジリエンス(回復力)を確保します。
安全なコード生成とソフトウェア開発
生成AIの能力は攻撃の検知だけにとどまらず、最初からより安全なシステムを構築する。ソフトウェア開発において、AIコードジェネレーター(GitHub Copilot、OpenAI Codexなど)は、コードスニペットや関数全体を提案することで、開発者がコードをより速く記述するのを支援します。サイバーセキュリティの観点からは、AIが提案するコードが安全であることを保証し、AIを活用してコーディングプラクティスを改善することが挙げられます。
一方では、生成AIは、セキュリティのベストプラクティスを組み込んだコーディングアシスタント。開発者はAIツールに「Pythonでパスワードリセット関数を生成して」、理想的には機能するだけでなく、安全なガイドライン(適切な入力検証、ログ記録、情報漏洩のないエラー処理など)に従ったコードを返すことができます。広範な安全なコード例でトレーニングされたこのようなアシスタントは、脆弱性につながる人的エラーを減らすのに役立ちます。たとえば、開発者がユーザー入力のサニタイズを忘れた場合(SQLインジェクションなどの問題の原因となる)、AIはそれをデフォルトで含めるか、警告することができます。一部のAIコーディングツールは現在、まさにこの目的を果たすためにセキュリティ重視のデータで微調整されています。基本的には、セキュリティ意識を持ったAIペアプログラミングです。
しかし、裏を返せば、生成 AI も適切に管理されなければ、同じように簡単に脆弱性をもたらす可能性があるということです。Sophos のセキュリティ専門家 Ben Verschaeren 氏が指摘したように、生成 AI をコーディングに使用することは、 「短くて検証可能なコードには適していますが、未チェックのコードが本番システムに統合されると危険です」 。リスクとは、AI が論理的には正しいコードを生成する可能性があるものの、専門家でない人が気付かないような安全でないコードを生成する可能性があることです。さらに、悪意のある人物が、脆弱なコードパターンをシード(データポイズニングの一種)して、AI が安全でないコードを提案するように、公開されている AI モデルほとんどの開発者はセキュリティの専門家ではないので、AI が便利な解決策を提案した場合、欠陥があることに気づかずに盲目的に使用する可能性があります(サイバーセキュリティにおける生成 AI の 6 つのユースケース [+ 例] )。この懸念は現実のものであり、実際、LLM(大規模言語モデル)の OWASP トップ 10 リストがあり、コーディングに AI を使用する場合のこのような一般的なリスクが概説されています。
これらの問題に対抗するため、専門家はコーディングの分野で「生成 AI に生成 AI で対抗する」コードのレビューとテストを行う。AI は、人間のコード レビュー担当者よりもはるかに高速に新しいコード コミットをスキャンし、潜在的な脆弱性やロジックの問題にフラグを立てることができます。ソフトウェア開発ライフサイクルに統合されるツールもすでに登場しています。コードが記述され (おそらく AI の支援を受けて)、セキュア コードの原則についてトレーニングされた生成モデルがそれをレビューし、懸念事項 (非推奨関数の使用、認証チェックの欠落など) があればレポートを生成します。前述の NVIDIA の研究では、コードの脆弱性検出を 4 倍高速化しましたが、これはセキュア コード分析に AI を活用した例です (サイバー セキュリティにおける生成 AI の 6 つのユース ケース [+ 例] )。
安全な構成とスクリプトの作成を支援できます。例えば、企業が安全なクラウドインフラストラクチャを導入する必要がある場合、エンジニアはAIに、セキュリティ制御(適切なネットワークセグメンテーション、最小権限のIAMロールなど)が組み込まれた構成スクリプト(Infrastructure as Code)の生成を依頼できます。数千もの構成でトレーニングされたAIは、エンジニアが微調整できるベースラインを作成できます。これにより、システムの安全なセットアップが加速され、クラウドセキュリティインシデントの一般的な原因である構成ミスのエラーを削減できます。
一部の組織では、生成AIを活用して安全なコーディングパターンの知識ベースを維持しています。開発者が特定の機能を安全に実装する方法がわからない場合は、会社の過去のプロジェクトやセキュリティガイドラインから学習した社内AIに問い合わせることができます。AIは、機能要件と会社のセキュリティ標準の両方に準拠した推奨アプローチやコードスニペットを返す場合があります。このアプローチは、 Secureframeのアンケート自動化、会社のポリシーと過去のソリューションから回答を引き出し、一貫性のある正確な応答を保証します(基本的に安全なドキュメントを生成します)(生成AIはサイバーセキュリティでどのように使用できますか? 10の実際の例)。この概念はコーディングに翻訳されます。つまり、以前に何かを安全に実装した方法を「記憶」し、再びその方法で実装するようにガイドするAIです。
まとめると、生成AIはセキュアコーディング支援をより利用しやすくするいます。テクノロジー、金融、防衛など、カスタムソフトウェアを大量に開発する業界は、コーディングを高速化するだけでなく、常に警戒を怠らないセキュリティレビュー担当者としても機能するAIコパイロットの導入から大きな恩恵を受けるでしょう。適切に管理されていれば、これらのAIツールは新たな脆弱性の導入を減らし、開発チームがベストプラクティスを遵守するのに役立ちます。たとえ開発チームのすべてのステップにセキュリティ専門家が関与していなくてもです。その結果、初日から攻撃に対してより堅牢なソフトウェアが実現します。
インシデント対応サポート
マルウェアの蔓延、データ侵害、攻撃によるシステム障害など、サイバーセキュリティインシデントが発生した場合、一刻を争うのが現状です。インシデント対応チーム(IR)がインシデントをより迅速に、より多くの情報に基づいて封じ込め、修復できるよう、生成AIの活用がますます増えています。これは、AIがインシデント発生時の調査と文書化の負担の一部を担い、場合によっては対応策を提案または自動化できるという考え方です。
IR における AI の重要な役割の 1 つは、リアルタイムのインシデント分析と要約。インシデントの発生中、対応者は「攻撃者はどのように侵入したか?」 、 「どのシステムが影響を受けている 、 「どのデータが侵害された可能性があるか?」場合があります。生成 AI は、影響を受けたシステムのログ、アラート、フォレンジック データを分析し、迅速に洞察を提供できます。たとえば、Microsoft Security Copilot を使用すると、インシデント対応者はさまざまな証拠 (ファイル、URL、イベント ログ) を入力し、タイムラインまたは概要を要求できます ( Microsoft Security Copilot は、サイバー セキュリティ用の新しい GPT-4 AI アシスタントです | The Verge )。AI は次のように応答する可能性があります。 「侵害は、10:53 GMT にユーザー JohnDoe に送信されたマルウェア X を含むフィッシング メールから始まった可能性があります。実行されると、マルウェアはバックドアを作成し、2 日後に財務サーバーに横移動してデータを収集するために使用されました。」数時間ではなく数分でこの一貫した画像が得られるため、チームは情報に基づいた決定 (どのシステムを分離するかなど) をより迅速に行うことができます。
生成 AI は、封じ込めや修復のアクションも提案。たとえば、エンドポイントがランサムウェアに感染した場合、AI ツールはそのマシンを隔離し、特定のアカウントを無効にし、ファイアウォールで既知の悪意のある IP をブロックするためのスクリプトまたは命令セットを生成できます。これは基本的にプレイブックの実行です。Palo Alto Networks は、生成 AI は「インシデントの性質に基づいて適切なアクションまたはスクリプトを生成」し、対応の初期手順を自動化できると述べています ( What Is Generative AI in Cybersecurity? - Palo Alto Networks )。セキュリティ チームが圧倒されるシナリオ (数百台のデバイスにわたる広範な攻撃など) では、AI が事前に承認された条件下でこれらのアクションの一部を直接実行することさえあり、休みなく働くジュニア レスポンダーのように機能します。たとえば、AI エージェントは、侵害されたと判断した資格情報を自動的にリセットしたり、インシデントのプロファイルに一致する悪意のあるアクティビティを示すホストを隔離したりできます。
インシデント対応中は、チーム内および関係者間でのコミュニケーションが不可欠です。生成 AI はインシデントの更新レポートや概要をその場で作成する。エンジニアがトラブルシューティングを中断して電子メールの更新を書く代わりに、AI に「このインシデントでこれまでに何が起こったかを要約して経営陣に報告してください」と依頼できます。インシデントデータを取り込んだ AI は、次のような簡潔な要約を作成できます。 「午後 3 時現在、攻撃者は 2 つのユーザー アカウントと 5 台のサーバーにアクセスしました。影響を受けたデータには、データベース X のクライアント レコードが含まれます。封じ込め対策: 侵害されたアカウントの VPN アクセスは取り消され、サーバーは隔離されています。次のステップ: 永続化メカニズムをスキャンしています。」その後、対応者はこれをすばやく検証または調整して送信し、関係者に正確で最新の情報を常に提供できます。
事態が収束した後には、通常、詳細なインシデントレポートを作成し、そこから得られた教訓をまとめる必要があります。これはAIサポートが真価を発揮するもう一つの領域です。AIはすべてのインシデントデータをレビューし、事後レポートを生成。例えばIBMは、生成AIを統合することで、ボタンを押すだけで「関係者と共有できるセキュリティケースとインシデントのシンプルな概要」を 「サイバーセキュリティにおける生成AIの活用方法:10の実例」)。事後レポートを効率化することで、組織はより迅速に改善を実施できるだけでなく、コンプライアンスのためのより適切な文書化も可能になります。
革新的な将来を見据えた活用 AIを活用したインシデントシミュレーション挙げられます。火災訓練のように、一部の企業は生成AIを用いて「もしも」のインシデントシナリオをシミュレーションしています。AIは、ネットワーク構成を考慮した上でランサムウェアがどのように拡散するか、あるいは内部関係者がどのようにデータを盗み出すかをシミュレーションし、現在の対応計画の有効性を評価します。これにより、チームは実際のインシデントが発生する前にプレイブックを準備し、改良することができます。まるで、常に改善を続けるインシデント対応アドバイザーが、常に準備状況をテストしてくれるようなものです。
金融や医療など、インシデントによるダウンタイムやデータ損失が特に大きなコストとなるハイステークスの業界では、こうしたAIを活用したIR機能は非常に魅力的です。サイバーインシデントを経験した病院は、システムの長期にわたる停止を許容できません。迅速に封じ込めを支援するAIは、文字通り人命を救うことになるかもしれません。同様に、金融機関はAIを活用して、午前3時に不正侵入の疑いのある侵入の初期トリアージを処理できます。そのため、オンコール対応の担当者がオンラインになるまでには、多くの準備作業(影響を受けたアカウントのログオフ、取引のブロックなど)が既に完了しています。インシデント対応チームを生成AIで強化する、組織は対応時間を大幅に短縮し、対応の徹底性を高め、最終的にはサイバーインシデントによる被害を軽減することができます。
行動分析と異常検出
多くのサイバー攻撃は、「通常」の行動から逸脱した行動に気づくことで検知できます。例えば、ユーザーアカウントが異常な量のデータをダウンロードしたり、ネットワークデバイスが突然未知のホストと通信したりするなどです。生成AIは、行動分析と異常検知の、ユーザーとシステムの通常のパターンを学習し、何か異常な兆候があれば警告を発します。
従来の異常検出では、多くの場合、特定のメトリック(CPU 使用率の急上昇、変則的な時間帯のログインなど)に対して統計的なしきい値や単純な機械学習が使用されています。生成 AI は、より微妙な動作プロファイルを作成することでこれをさらに進めることができます。たとえば、AI モデルは、従業員のログイン、ファイル アクセス パターン、メールの習慣を長期間にわたって取り込み、そのユーザーの「通常」を多次元的に理解することができます。その後、そのアカウントが通常から大幅に外れたこと(新しい国からログインし、深夜に大量の HR ファイルにアクセスするなど)を行った場合、AI は 1 つのメトリックだけでなく、ユーザーのプロファイルに適合しない全体的な動作パターンとして逸脱を検出します。技術的には、生成モデル(オートエンコーダーやシーケンス モデルなど)は、「通常」の様子をモデル化し、予想される動作の範囲を生成できます。現実がその範囲から外れると、異常としてフラグが付けられます(サイバーセキュリティにおける生成 AI とは? - Palo Alto Networks )。
ネットワーク トラフィックの監視です。2024 年の調査によると、米国の組織の 54% が、ネットワーク トラフィックの監視をサイバー セキュリティにおける AI の主な使用例に挙げています (北米: 2024 年の世界におけるサイバー セキュリティにおける AI の主な使用例)。生成 AI は、企業のネットワークの通常の通信パターン (通常、どのサーバーが相互に通信するか、営業時間中と夜間に移動するデータ量など) を学習できます。攻撃者がサーバーからデータを抽出し始めた場合、検出を避けるためにたとえゆっくりでも、AI ベースのシステムは「サーバー A は午前 2 時に 500 MB のデータを外部 IP に送信することはない」、アラートを発する可能性があります。AI は静的ルールだけでなく、ネットワーク動作の進化するモデルを使用しているため、静的ルール (「データが X MB を超える場合はアラート」など) が見逃したり誤ってフラグを立てたりする可能性のある微妙な異常を捕捉できます。この適応性により、正常と異常の固定ルールを定義することが非常に複雑な、銀行取引ネットワーク、クラウド インフラストラクチャ、IoT デバイス フリートなどの環境で AI 駆動型異常検出が強力になります。
ユーザー行動分析 (UBA)にも役立ちます。各ユーザーまたはエンティティのベースラインを生成することにより、AI は認証情報の不正使用などを検出できます。たとえば、経理部のボブが突然顧客データベースを照会し始めた場合 (以前はしたことのないことです)、ボブの行動の AI モデルはこれを異常としてマークします。これはマルウェアではなく、ボブの認証情報が盗まれて攻撃者に使用されているか、ボブが調査すべきでない場所を調べている可能性があります。いずれの場合も、セキュリティチームは調査するように警告されます。このような AI 駆動型 UBA システムはさまざまなセキュリティ製品に存在しており、生成モデリング手法により精度が向上し、コンテキスト (ボブが特別なプロジェクトに参加しているなど、AI が他のデータから推測できる場合があります) を考慮することで誤報が削減されています。
アイデンティティおよびアクセス管理の分野では、ディープフェイク検出のニーズが高まっています。生成 AI は、生体認証セキュリティを欺く合成音声や動画を作成できます。興味深いことに、生成 AI は、人間が気づきにくい音声や動画の微妙なアーティファクトを分析することで、これらのディープフェイクの検出にも役立ちます。アクセンチュアの事例では、生成 AI を使用して無数の表情や状況をシミュレートし、生体認証システムが実際のユーザーと AI 生成のディープフェイクを区別できるようにトレーニングしました。このアプローチにより、アクセンチュアは 5 年間でシステムの 90% でパスワードを排除し (生体認証などの要素に移行)、攻撃を 60% 削減しました (サイバーセキュリティにおける生成 AI の 6 つのユース ケース [+ 例] )。基本的に、同社は生成 AI を使用して生体認証を強化し、生成攻撃に対する耐性を高めました (AI が AI と戦う素晴らしい例)。この種の行動モデリング(この場合、生きた人間の顔と AI で合成された顔の違いを認識すること)は、認証において AI への依存が高まるにつれて重要になります。
生成AIを活用した異常検知は、さまざまな業界に適用可能です。医療分野では、医療機器の動作を監視してハッキングの兆候を探します。金融分野では、取引システムを監視して不正行為やアルゴリズム操作の兆候となる可能性のある不規則なパターンを探します。エネルギー/公共事業分野では、制御システムの信号を観察して侵入の兆候を探し幅広さ(動作のあらゆる側面を観察)と深さ(複雑なパターンを理解する)を兼ね備えているため、サイバーインシデントの兆候を大小問わず見つけ出す強力なツールとなります。脅威が通常の業務に紛れ込み、よりステルス性を高めるにつれて、「正常」を正確に特徴づけ、何かが逸脱した際に警告するこの能力は不可欠になります。このように、生成AIは疲れを知らない歩哨として機能し、常に正常の定義を学習・更新することで環境の変化に対応し、より詳細な調査が必要な異常についてセキュリティチームに警告を発します。
サイバーセキュリティにおける生成AIの機会とメリット
サイバーセキュリティにおける生成AIの応用は、これらのツールを導入する意欲のある組織に多くの機会とメリットを。以下では、生成AIがサイバーセキュリティプログラムに魅力的な追加要素となる主なメリットをまとめます。
-
脅威の検知と対応の迅速化:生成AIシステムは膨大なデータをリアルタイムで分析し、人間による手動分析よりもはるかに高速に脅威を認識できます。この高速化の利点は、攻撃の早期検知とインシデントの封じ込めを迅速化することにつながります。実際、AIを活用したセキュリティ監視は、人間では相関分析に非常に長い時間を要する脅威を捕捉できます。インシデントに迅速に対応(あるいは初期対応を自律的に実行)することで、組織は攻撃者がネットワークに滞留する時間を大幅に短縮し、被害を最小限に抑えることができます。
-
精度と脅威カバレッジの向上:生成モデルは新しいデータから継続的に学習するため、進化する脅威に適応し、悪意のある活動のより微細な兆候を捉えることができます。これにより、静的なルールと比較して検出精度が向上し(誤検知と誤検出が減少)、例えば、フィッシングメールやマルウェアの挙動の特徴を学習したAIは、これまで見たことのない亜種を識別できます。その結果、新しい攻撃を含むより幅広い種類の脅威をカバーできるようになり、セキュリティ体制全体が強化されます。セキュリティチームはAI分析から詳細な洞察(マルウェアの挙動の説明など)を得ることで、より正確で的を絞った防御が可能になります(サイバーセキュリティにおける生成AIとは? - Palo Alto Networks )。
-
反復タスクの自動化:生成AIは、ログの精査やレポートの作成からインシデント対応スクリプトの作成に至るまで、日常的で労働集約的なセキュリティタスクの自動化に優れています。この自動化により、人間のアナリストの負担が軽減され、高度な戦略策定や複雑な意思決定に集中できるようになります(サイバーセキュリティにおける生成AIとは? - Palo Alto Networks )。脆弱性スキャン、構成監査、ユーザーアクティビティ分析、コンプライアンスレポート作成といった、日常的ながらも重要な作業は、AIによって処理(あるいは少なくとも初期段階の草稿作成)できます。これらのタスクを機械のスピードで処理することで、AIは効率性を向上させるだけでなく、人的ミス(侵害の大きな要因)を削減します。
-
プロアクティブな防御とシミュレーション:生成AIを活用することで、組織は事後対応型からプロアクティブなセキュリティへと移行できます。攻撃シミュレーション、合成データ生成、シナリオベースのトレーニングといった技術を活用することで、防御側は脅威が前に。セキュリティチームは、安全な環境でサイバー攻撃(フィッシング攻撃、マルウェアのアウトブレイク、DDoS攻撃など)をシミュレーションし、対応策を検証することで、弱点を補強することができます。人間の力だけでは徹底的な対策を講じることは難しい場合が多いこの継続的なトレーニングによって、防御体制を常に最新の状態に保つことができます。これはサイバー空間における「火災訓練」に似ています。AIは、防御体制に多くの仮想的な脅威を投入することで、訓練と改善を可能にします。
-
人間の専門知識の強化(AI による戦力増強):生成 AI は、疲れを知らない若手アナリスト、アドバイザー、アシスタントを 1 つにまとめたような働きをします。経験の浅いチーム メンバーに、通常は熟練した専門家から期待されるガイダンスや推奨事項を提供できるため、チーム全体で専門知識が効果的に民主化されますサイバー セキュリティにおける生成 AI の 6 つのユース ケース [+ 例] )。これは、サイバー セキュリティの人材不足を考えると特に貴重です。AI は、小規模なチームが少ないリソースでより多くの成果を上げるのに役立ちます。一方、経験豊富なアナリストは、AI が単調な作業を処理して、明らかでない洞察を浮き彫りにすることから恩恵を受け、その洞察を検証して対応することができます。結果として、AI が各メンバーの影響力を増幅させ、セキュリティ チームの生産性と能力がはるかに向上します(サイバー セキュリティにおける生成 AI の活用方法)。
-
意思決定支援とレポート機能の強化:技術データを自然言語による洞察に変換することで、生成AIはコミュニケーションと意思決定能力を向上させます。セキュリティリーダーは、AIが生成したサマリーを通じて問題をより明確に把握し、生データを解析することなく、情報に基づいた戦略的な意思決定を行うことができます。同様に、AIがセキュリティ態勢やインシデントに関する分かりやすいレポートを作成することで、経営幹部やコンプライアンス担当者などへの部門横断的なコミュニケーションも改善されます(「サイバーセキュリティにおける生成AIの活用方法:10の実例」)。これは、リーダーシップレベルでのセキュリティ問題に対する信頼と連携を構築するだけでなく、リスクやAIによって発見されたギャップを明確に表現することで、投資や変更の正当性を高めることにも役立ちます。
これらの利点を組み合わせることで、サイバーセキュリティに生成AIを活用する組織は、運用コストを削減しながら、セキュリティ体制を強化できます。以前は手に負えない脅威に対応し、監視されていなかったギャップをカバーし、AI主導のフィードバックループを通じて継続的に改善することができます。最終的に、生成AIは、スピード、規模、高度高度な防御策によって、敵を出し抜くチャンスを提供します。ある調査によると、ビジネスリーダーとサイバーリーダーの半数以上が、生成AIの使用による脅威の検出速度と精度の向上を期待しています( [PDF] グローバルサイバーセキュリティ展望2025 | 世界経済フォーラム)(サイバーセキュリティにおける生成AI:LLMの包括的レビュー... )-これらのテクノロジーの利点に対する楽観的な見方を証明しています。
サイバーセキュリティにおける生成AI活用のリスクと課題
可能性を秘めている一方で、サイバーセキュリティにおける生成AIの活用には、リスクと課題。AIを盲目的に信頼したり、誤用したりすると、新たな脆弱性が生じる可能性があります。以下では、主要な懸念事項と落とし穴、そしてそれぞれの状況について概説します。
-
サイバー犯罪者による敵対的利用:防御側を支援するのと同じ生成機能が、攻撃者の力になることもあります。脅威アクターはすでに生成 AI を使用して、説得力の増したフィッシングメールの作成、ソーシャルエンジニアリング用の偽の人物やディープフェイク動画の作成、検出を回避するために絶えず変化するポリモーフィック型マルウェアの開発、さらにはハッキングのさまざまサイバーセキュリティにおける生成 AI とは? - Palo Alto Networks )。サイバーセキュリティリーダーのほぼ半数(46%)が、生成 AI がより高度な敵対的攻撃につながることを懸念しています(生成 AI セキュリティ:トレンド、脅威、および緩和戦略)。この「AI 軍拡競争」は、防御側が AI を導入すれば、攻撃者もすぐに後を追うことになる(実際、一部の領域では、規制されていない AI ツールを使用して攻撃者が先行している可能性がある)ことを意味します。組織は、より頻繁で、より洗練され、追跡が困難な AI 強化型脅威に備える必要があります。
-
AIの幻覚と不正確さ:生成AIモデルは、もっともらしい出力を生成するものの不正確または誤解を招く可能性があります。これは幻覚と呼ばれる現象です。セキュリティの文脈では、AIがインシデントを分析し、特定の脆弱性が原因であると誤って結論付けたり、攻撃を封じ込めることができない欠陥のある修復スクリプトを生成したりする可能性があります。これらの誤りは、額面通りに受け取ると危険です。NTTデータは、 「生成AIは真実ではないコンテンツをもっともらしく出力する可能性があり、この現象は幻覚と呼ばれています…現時点では完全に排除することは困難です」 (生成AIのセキュリティリスクと対策、およびサイバーセキュリティへの影響|NTTデータグループ)と警告しています。検証なしにAIに過度に依存すると、誤った方向への取り組みや誤った安心感につながる可能性があります。例えば、AIは重要なシステムが安全でないのに安全であると誤ってフラグ付けしたり、逆に、実際には発生していない侵害を「検知」してパニックを引き起こしたりする可能性があります。このリスクを軽減するには、AI 出力の厳格な検証と、重要な意思決定に人間が関与することが不可欠です。
-
誤検知と偽陰性:幻覚に関連して、AI モデルのトレーニングや設定が不十分だと、無害なアクティビティを悪意のあるものとして過剰に報告したり (誤検知) 、さらに悪いことに、本当の脅威を見逃したり (偽陰性) する(サイバーセキュリティにおける生成 AI の使用方法)。誤アラートが多すぎると、セキュリティ チームが圧倒され、アラート疲れ (AI が約束した効率性の向上が台無しになる) につながる可能性があります。一方、検出漏れは組織を危険にさらします。生成モデルを適切なバランスに調整するのは困難です。環境はそれぞれ異なるため、AI はすぐに最適なパフォーマンスを発揮するとは限りません。継続的な学習も諸刃の剣です。AI が偏ったフィードバックや変化する環境から学習すると、精度が変動する可能性があります。セキュリティ チームは AI のパフォーマンスを監視し、しきい値を調整するか、モデルに修正フィードバックを提供する必要があります。重要インフラへの侵入検知のような、リスクの高い状況では、AI の提案を既存のシステムと一定期間並行して実行し、それらが競合するのではなく、整合して補完するようにすることが賢明な場合があります。
-
データのプライバシーと漏洩:生成 AI システムは、多くの場合、トレーニングと運用に大量のデータを必要とします。これらのモデルがクラウドベースであったり、適切にサイロ化されていない場合、機密情報が漏洩するリスクがあります。ユーザーがうっかり独自のデータや個人データを AI サービスに入力してしまうと (ChatGPT に機密インシデントレポートの要約を依頼するなど)、そのデータがモデルの知識の一部になってしまう可能性があります。実際、最近の調査では、生成 AI ツールへの入力の 55% に機密情報または個人を特定できる情報が含まれていて、データ漏洩に関する深刻な懸念が生じています ( 『生成 AI セキュリティ: トレンド、脅威、および緩和戦略』)。さらに、AI が内部データでトレーニングされ、特定の方法でクエリされると、出力されるあります。組織は厳格なデータ処理ポリシー (機密資料にはオンプレミスまたはプライベート AI インスタンスを使用するなど) を実装し、従業員に対して秘密情報をパブリック AI ツールに貼り付けないよう教育する必要があります。プライバシー規制(GDPR など)も関係してきます。適切な同意や保護なしに個人データを使用して AI をトレーニングすると、法律に違反する可能性があります。
-
モデルのセキュリティと操作:生成 AI モデル自体がターゲットになる可能性があります。攻撃者は、トレーニングまたは再トレーニング段階で悪意のあるデータや誤解を招くデータを入力して AI が誤ったパターンを学習するようにするモデル ポイズニングサイバーセキュリティにおける生成 AI の使用方法)。たとえば、攻撃者は脅威インテリジェンス データを微妙にポイズニングして、AI が攻撃者自身のマルウェアを悪意のあるものとして認識できないようにする可能性があります。もう 1 つの戦術は、プロンプト インジェクションまたは出力操作。これは、攻撃者が AI に入力を発行して AI が意図しない動作をするようにする方法を見つけ、安全ガードレールを無視したり、公開すべきではない情報 (内部プロンプトやデータなど) を明らかにしたりする方法です。さらに、モデル回避。これは、攻撃者が AI を騙すために特別に設計された入力を作成します。これは敵対的サンプルで見られます。敵対的サンプルでは、わずかに乱されたデータが人間には正常と表示されますが、AI は誤分類します。 AI サプライ チェーンのセキュリティを確保すること (データの整合性、モデル アクセス制御、敵対的堅牢性テスト) は、これらのツールを導入する際にサイバー セキュリティの新しい部分ですが、必要な部分です (サイバー セキュリティにおける生成 AI とは? - Palo Alto Networks )。
-
過度の依存とスキル低下:組織がAIに過度に依存し、人間のスキルが衰退してしまうという、よりソフトなリスクがあります。若手アナリストがAIの結果を盲目的に信頼するようになると、AIが利用できない、あるいはAIが間違っている状況で必要な批判的思考力や直感力が育たない可能性があります。避けるべきシナリオは、優れたツールを持っているにもかかわらず、それらのツールが故障した場合の対応策が全くわからないセキュリティチームです(パイロットが自動操縦に過度に依存している状況に似ています)。AIの支援なしに定期的にトレーニングを実施し、AIはアシスタントであり、絶対的な神託ではないという意識を育むことは、人間のアナリストの鋭い洞察力を維持するために重要です。特に影響力の大きい判断においては、人間が最終的な意思決定者であり続ける必要があります。
-
倫理とコンプライアンスの課題:サイバーセキュリティにおけるAIの活用は倫理的な問題を提起し、規制遵守の問題を引き起こす可能性があります。例えば、AIシステムが異常を理由に従業員を悪意のある内部関係者と誤って判断した場合、その従業員の評判やキャリアに不当なダメージを与える可能性があります。AIによる意思決定は不透明になる場合があり(「ブラックボックス」問題)、監査人や規制当局に特定のアクションが行われた理由を説明することが困難になります。AI生成コンテンツが普及するにつれて、透明性を確保し、説明責任を維持することが重要になります。規制当局はAIを精査し始めています。例えば、EUのAI法は「高リスク」AIシステムに要件を課すことになっており、サイバーセキュリティAIもそのカテゴリーに含まれる可能性があります。企業はこれらの規制を順守し、NIST AIリスク管理フレームワークなどの標準に準拠して、責任を持って生成AIを使用する必要があります(サイバーセキュリティにおける生成AIの活用方法:10の実例)。コンプライアンスはライセンスにも適用されます。オープンソースまたはサードパーティのモデルを使用する場合、特定の使用を制限したり、共有の改善を要求する条件が適用される場合があります。
要約すると、生成AIは万能薬ではありません。慎重に実装しなければ、他の弱点を解決する一方で、新たな弱点を生み出す可能性があります。2024年の世界経済フォーラムの調査では、約47%の組織が攻撃者による生成AIの進歩を最大の懸念事項として挙げており、サイバーセキュリティにおける「生成AIの影響として最も懸念されるもの」 [PDF] グローバルサイバーセキュリティ展望2025 | 世界経済フォーラム)(サイバーセキュリティにおける生成AI:LLMの包括的レビュー… )。したがって、組織はバランスの取れたアプローチを採用する必要があります。つまり、AIのメリットを活用しつつ、ガバナンス、テスト、そして人間による監視を通じてこれらのリスクを厳格に管理する必要があります。次に、そのバランスを実際にどのように実現するかについて説明します。
将来展望:サイバーセキュリティにおける生成AIの進化する役割
今後、生成AIはサイバーセキュリティ戦略の不可欠な要素となるでしょう。同時に、サイバー攻撃者が引き続き利用するツールとなるでしょ猫とネズミの駆け引きが加速するでしょう。生成AIが今後数年間でサイバーセキュリティにどのような影響を与えるかについて、将来的な洞察をいくつかご紹介します。
-
AIを活用したサイバー防御が標準化: 2025年以降、中規模から大規模の組織のほとんどが、セキュリティ運用にAI活用ツールを組み込んでいると予想されます。今日のアンチウイルスやファイアウォールが標準であるように、AIコパイロットや異常検知システムは、セキュリティアーキテクチャの基本コンポーネントとなる可能性があります。これらのツールは、クラウドセキュリティ、IoTデバイス監視、アプリケーションコードセキュリティなど、それぞれに最適化され、連携して動作する個別のAIモデルなど、より特化したものになるでしょう。ある予測では、 「2025年には、生成AIがサイバーセキュリティに不可欠な存在となり、組織は高度化・進化する脅威に対してプロアクティブに防御できるようになる」(サイバーセキュリティにおける生成AIの活用方法)。AIは、リアルタイムの脅威検知を強化し、多くの対応アクションを自動化し、セキュリティチームが手動で管理できるよりもはるかに大量のデータを管理できるよう支援します。
-
継続的な学習と適応:サイバー空間における将来の生成AIシステムは、リアルタイムで学習し、知識ベースをほぼリアルタイムで更新する能力を向上させるでしょう。これは真に適応的な防御につながる可能性があります。例えば、午前中に別の企業を狙う新たなフィッシング攻撃を学習し、午後には既に自社のメールフィルターを調整しているAIを想像してみてください。クラウドベースのAIセキュリティサービスは、このような集合学習を促進する可能性があります。ある組織からの匿名化された知見が、すべての加入者に利益をもたらします(脅威インテリジェンスの共有に似ていますが、自動化されています)。ただし、機密情報の共有を避け、攻撃者が共有モデルに不正なデータを送り込むのを防ぐため、慎重な取り扱いが必要になります。
-
AIとサイバーセキュリティ人材の融合:サイバーセキュリティ専門家のスキルセットは、AIとデータサイエンスの熟練度を含むように進化します。今日のアナリストがクエリ言語とスクリプトを習得するのと同様に、将来のアナリストはAIモデルを定期的に微調整したり、AIが実行する「プレイブック」を作成したりするかもしれません。 「AIセキュリティトレーナー」や「サイバーセキュリティAIエンジニア」、AIツールを組織のニーズに合わせて調整し、そのパフォーマンスを検証し、安全な運用を確保することを専門とする新しい役割が生まれるかもしれません。一方で、サイバーセキュリティの考慮事項はAI開発にますます影響を与えるようになります。AIシステムは、セキュリティ機能(セキュアアーキテクチャ、改ざん検出、AIの意思決定の監査ログなど)を基盤として構築され、信頼できるAI(公平性、説明可能性、堅牢性、安全性)が、セキュリティが重要な状況におけるAIの導入を導くでしょう。
-
より高度な AI を活用した攻撃:残念ながら、脅威の状況も AI とともに進化します。ゼロデイ脆弱性の発見、高度に標的を絞ったスピアフィッシングの作成 (例: AI がソーシャルメディアをスクレイピングして完璧にカスタマイズされた餌を作成する)、説得力のあるディープフェイクの音声や動画を生成して生体認証を回避したり詐欺を実行したりするために、AI がより頻繁に使用されるようになると予想されます。最小限の人間の監視で、多段階の攻撃 (偵察、エクスプロイト、ラテラルムーブメントなど) を独自に実行できる自動ハッキングエージェントが登場する可能性があります。これにより、防御側も AI に頼らざるを得なくなります (基本的には自動化対自動化 。一部の攻撃は、AI ボットが何千ものフィッシングメールの組み合わせを試して、どれがフィルターを通過できるかを確認するなど、機械の速度で発生する可能性があります。サイバー防御は、これに追いつくために同様の速度と柔軟性で動作する必要があります ( What Is Generative AI in Cybersecurity? - Palo Alto Networks )。
-
セキュリティにおける規制とAI倫理: AIがサイバーセキュリティ機能に深く組み込まれるにつれ、これらのAIシステムが責任ある形で使用されるよう、より厳格な監視と規制が敷かれるでしょう。セキュリティにおけるAIに特化したフレームワークや標準が整備されることが予想されます。政府は透明性に関するガイドラインを策定するかもしれません。例えば、悪意のある活動が疑われる従業員のアクセスを停止するなど、重要なセキュリティ上の決定は、人間のレビューなしにAIのみで行うことのないよう義務付けるといったことが考えられます。また、AIセキュリティ製品には認証制度が導入され、AIのバイアス、堅牢性、安全性が評価されていることを購入者に保証する仕組みも生まれるかもしれません。さらに、AI関連のサイバー脅威をめぐる国際協力も強化される可能性があります。例えば、AIが作り出す偽情報の取り扱いに関する合意や、特定のAI駆動型サイバー兵器に対する規範などが挙げられます。
-
より広範なAIおよびITエコシステムとの統合:サイバーセキュリティにおける生成AIは、他のAIシステムやIT管理ツールと統合される可能性が高いでしょう。例えば、ネットワーク最適化を管理するAIは、セキュリティAIと連携して、変更による抜け穴を防げるよう監視できます。AI主導のビジネスアナリティクスは、セキュリティAIとデータを共有し、異常(売上の急激な減少と、攻撃によるウェブサイトの問題の可能性)を相関分析する可能性があります。つまり、AIはサイロ化されるのではなく、組織の運用におけるより大規模なインテリジェントファブリックの一部となるのです。これにより、運用データ、脅威データ、さらには物理セキュリティデータまでをAIで統合し、組織のセキュリティ体制を360度ビューで把握できる、包括的なリスク管理が可能になります。
長期的には、生成AIが防御側に有利なバランスをもたらすことが期待されます。AIは現代のIT環境の規模と複雑さに対応することで、サイバー空間の防御力を高めることができます。しかし、これは道のりであり、これらの技術を改良し、適切に信頼できるようになるまでには、成長痛を伴うでしょう。常に情報を入手し、責任あるAI導入こそが、将来の脅威に最も適切に対応できる立場にあると言えるでしょう。
ガートナーの最近のサイバーセキュリティトレンドレポートが指摘しているように、 「生成型AIのユースケース(およびリスク)の出現は、変革へのプレッシャーを生み出している」 (サイバーセキュリティトレンド:変革によるレジリエンス - ガートナー)。適応力のある企業はAIを強力な味方として活用する一方、対応に遅れをとる企業はAIを活用した敵に後れを取る可能性があります。今後数年間は、AIがサイバー戦場をどのように変革するかを決定づける極めて重要な時期となるでしょう。
サイバーセキュリティにおける生成AI導入の実践的ポイント
サイバーセキュリティ戦略において生成 AI を活用する方法を検討している企業向けに、責任ある効果的な導入を導くための実用的なポイントと推奨事項
-
教育とトレーニングから始めましょう。セキュリティチーム(そしてITスタッフ全体)が、生成型AIのできることとできないことを確実に理解していることを確認しましょう。AIを活用したセキュリティツールの基礎に関するトレーニングを提供し、セキュリティ意識向上プログラムをAIを活用した脅威にも対応できるよう更新しましょう。例えば、AIがいかにして非常に説得力のあるフィッシング詐欺やディープフェイク通話を生成できるかを従業員に指導しましょう。同時に、業務におけるAIツールの安全かつ承認された使用方法についても従業員にトレーニングを実施しましょう。十分な知識を持つユーザーは、AIを誤って扱ったり、AIを活用した攻撃の被害に遭ったりする可能性が低くなります( 「サイバーセキュリティにおける生成型AIの活用方法:10の実例」)。
-
明確なAI利用ポリシーの定義:生成AIを他の強力なテクノロジーと同様に、ガバナンスを効かせて扱いましょう。AIツールを誰が使用できるか、どのツールが承認されるか、そしてどのような目的で使用できるかを指定するポリシーを策定しましょう。機密データの取り扱いに関するガイドライン(機密データを外部AIサービスに提供しない)を盛り込み、漏洩を防止しましょう。例えば、インシデント対応にはセキュリティチームメンバーのみが社内AIアシスタントを使用でき、コンテンツ作成にはマーケティング部門が審査済みのAIを使用できるようにし、それ以外のメンバーは制限するといった運用が可能です。現在、多くの組織がITポリシーで生成AIを明示的に取り上げており、主要な標準化団体は全面的な禁止ではなく、安全な使用ポリシーの導入を推奨しています( 「サイバーセキュリティにおける生成AIの活用方法:10の実例」)。これらのルールとその根拠を全従業員に周知徹底しましょう。
-
「シャドー AI」を軽減し、使用状況を監視:シャドー IT と同様に、「シャドー AI」は、従業員が IT 部門の承認なく AI ツールやサービスを使い始めると発生します (例: 開発者が許可されていない AI コード アシスタントを使用する)。これにより、目に見えないリスクが生じる可能性があります。許可されていない AI の使用を検出して制御するしてください。ネットワーク監視では、一般的な AI API への接続にフラグを立てることができ、アンケートやツール監査では、スタッフが使用しているものを明らかにできます。善意の従業員が不正行為をしようと誘惑されないように、承認された代替手段を提供します (たとえば、人々が有用だと感じる場合は、公式の ChatGPT Enterprise アカウントを提供します)。AI の使用状況を明るみに出すことで、セキュリティ チームはリスクを評価および管理できます。監視も重要です。AI ツールのアクティビティと出力を可能な限りログに記録して、AI が影響を与えた決定の監査証跡を確保します ( How Can Generative AI Be Use in Cybersecurity? 10 Real-World Examples )。
-
AIを防御に活用して後れを取らない:攻撃者はAIを利用するため、防御にもAIを活用する必要があります。生成AIがセキュリティ運用にすぐに役立つ可能性のある、影響の大きい領域(アラートトリアージや自動ログ分析など)をいくつか特定し、パイロットプロジェクトを実施します。急速に変化する脅威に対抗するため、 AIのスピードとスケールを活用して防御を強化しますサイバーセキュリティにおける生成AIの活用方法:10の実例)。AIを使用してマルウェアレポートを要約したり、脅威ハンティングクエリを生成したりするといったシンプルな統合でも、アナリストの時間を節約できます。まずは小規模に開始し、結果を評価し、反復します。成功すれば、AIのより広範な導入の根拠が築かれます。目標は、AIを戦力倍増器として活用することです。例えば、フィッシング攻撃がヘルプデスクの業務を圧迫している場合は、AIメール分類ツールを導入して、攻撃量を事前に削減します。
-
安全で倫理的なAIプラクティスへの投資:生成AIを実装する際は、安全な開発およびデプロイメントのプラクティスに従ってください。プライベートまたはセルフホストモデルを。サードパーティのAIサービスを利用する場合は、セキュリティとプライバシー対策(暗号化、データ保持ポリシーなど)を確認してください。AIリスク管理フレームワーク(NISTのAIリスク管理フレームワークやISO/IECガイダンスなど)を組み込み、AIツールのバイアス、説明可能性、堅牢性などの問題に体系的に対処してください(サイバーセキュリティにおける生成AIの活用方法:10の実例)。また、メンテナンスの一環としてモデルの更新/パッチ適用も計画してください。AIモデルにも「脆弱性」が存在する可能性があります(例えば、ドリフトが発生した場合や、モデルに対する新しいタイプの敵対的攻撃が発見された場合は、再トレーニングが必要になる場合があります)。AIの利用にセキュリティと倫理を組み込むことで、結果に対する信頼を構築し、新たな規制へのコンプライアンスを確保できます。
-
人間を常に監視:サイバーセキュリティにおける人間の判断を完全に置き換えるのではなく、AIを補助的に活用しましょう。人間による検証が必要な意思決定ポイントを特定します(例えば、AIがインシデントレポートを作成し、それを配布前にアナリストがレビューする、あるいはAIがユーザーアカウントのブロックを提案し、そのアクションを人間が承認するなど)。これにより、AIのエラーが放置されるのを防ぐだけでなく、チームがAIから学び、AIがAIから学ぶことが可能になります。協調的なワークフローを奨励しましょう。アナリストは、AIの出力に疑問を持ち、サニティチェックを行うことに抵抗がないようにする必要があります。時間の経過とともに、この対話はAI(フィードバックを通じて)とアナリストのスキルの両方を向上させることができます。基本的に、AIと人間の強みが互いに補完し合うようにプロセスを設計します。つまり、AIは量と速度を、人間は曖昧さや最終決定を担当します。
-
測定、監視、調整:最後に、生成AIツールをセキュリティエコシステムの生きたコンポーネントとして扱いましょう。そのパフォーマンスを継続的に測定しましょう。インシデント対応時間は短縮されていますか?脅威を早期に捕捉していますか?誤検知率の傾向はどうですか?チームからのフィードバックを求めましょう。AIの推奨事項は有効ですか?それともノイズを生み出していますか?これらの指標を用いて、モデルの改良、トレーニングデータの更新、AIの統合方法の調整を行います。サイバー脅威とビジネスニーズは進化するため、AIモデルは効果を維持するために定期的に更新または再トレーニングする必要があります。モデルのガバナンス計画を策定し、保守の責任者とレビュー頻度を含めましょう。AIのライフサイクルを積極的に管理することで、AIを負債ではなく資産として維持することができます。
結論として、生成AIはサイバーセキュリティ能力を大幅に強化できますが、導入を成功させるには、綿密な計画と継続的な監視が不可欠です。従業員を教育し、明確なガイドラインを策定し、バランスの取れた安全な方法でAIを導入する企業は、より迅速かつスマートな脅威管理の恩恵を受けることができます。これらの教訓は、人間の専門知識とAIによる自動化を組み合わせ、ガバナンスの基礎を網羅し、AI技術と脅威環境の両方が必然的に進化する中で、俊敏性を維持するロードマップとなります。
「サイバーセキュリティにおいて生成AIをどのように活用できるか」という問いに、理論だけでなく日常の実践においても自信を持って答えることができ、ますますデジタル化とAI主導が進む世界における防御力を強化することができます。(サイバーセキュリティにおける生成AIの活用方法)
このホワイトペーパーの次に読むとよいホワイトペーパー:
🔗 AI が代替できない仕事と、AI が代替する仕事とは?
自動化の影響を受けない仕事とそうでない仕事について、世界的な見通しを探ります。
🔗 AIは株式市場を予測できるか?
市場動向を予測するAIの能力に関する限界、ブレークスルー、そして誤解について詳しく見ていきます。
🔗生成AIは人間の介入なしに何を実行できるのでしょうか?
AIが単独で動作できる領域と、依然として人間の監視が不可欠な領域を理解します。