ローンチイベント: スマートAI Security 。 完全なデータ制御。 座席の指定

閉める
閉める
明日に向けたネットワーク
明日に向けたネットワーク
サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。
Netskopeを体験しませんか?
Netskopeプラットフォームを実際に体験する
Netskope Oneのシングルクラウドプラットフォームを直接体験するチャンスです。自分のペースで進められるハンズオンラボにサインアップしたり、毎月のライブ製品デモに参加したり、Netskope Private Accessの無料試乗に参加したり、インストラクター主導のライブワークショップに参加したりできます。
SSEのリーダー。 現在、シングルベンダーSASEのリーダーです。
Netskope は、 SSE プラットフォームと SASE プラットフォームの両方で、ビジョンで最も優れたリーダーとして認められています
2X ガートナーマジック クアドラント SASE プラットフォームのリーダー
旅のために構築された 1 つの統合プラットフォーム
ダミーのためのジェネレーティブAIの保護
ダミーのためのジェネレーティブAIの保護
ジェネレーティブ AI の革新的な可能性と堅牢なデータ セキュリティ プラクティスのバランスを取る方法をご覧ください。
ダミーのための最新のデータ損失防止(DLP)eBook
最新の情報漏えい対策(DLP)for Dummies
クラウド配信型 DLP に移行するためのヒントとコツをご紹介します。
SASEダミーのための最新のSD-WAN ブック
SASEダミーのための最新のSD-WAN
遊ぶのをやめる ネットワークアーキテクチャに追いつく
リスクがどこにあるかを理解する
Advanced Analytics は、セキュリティ運用チームがデータ主導のインサイトを適用してより優れたポリシーを実装する方法を変革します。 Advanced Analyticsを使用すると、傾向を特定し、懸念事項に的を絞って、データを使用してアクションを実行できます。
Netskopeテクニカルサポート
Netskopeテクニカルサポート
クラウドセキュリティ、ネットワーキング、仮想化、コンテンツ配信、ソフトウェア開発など、多様なバックグラウンドを持つ全世界にいる有資格のサポートエンジニアが、タイムリーで質の高い技術支援を行っています。
Netskopeの動画
Netskopeトレーニング
Netskopeのトレーニングは、クラウドセキュリティのエキスパートになるためのステップアップに活用できます。Netskopeは、お客様のデジタルトランスフォーメーションの取り組みにおける安全確保、そしてクラウド、Web、プライベートアプリケーションを最大限に活用するためのお手伝いをいたします。

このレポートでは、組織が生成 AI アプリの利点と関連するリスクをどのようにバランスさせながら管理しているかを調査し、DLP とインタラクティブなユーザー コーチングを含む、ますます人気が高まっている戦略に焦点を当てています。

28分で読めます

エグゼクティブサマリー リンク リンク

今年の AI アプリに関するクラウドと脅威レポートでは、genAI の使用が急速に拡大し、企業ユーザーに広範囲に及んで大きな影響を与えていることから、genAI アプリケーションの傾向とリスクに特に焦点を当てています。 調査対象となった組織の 96% に genAI を使用しているユーザーがおり、過去 12 か月間でユーザー数は 3 倍に増加しています。 genAIアプリの実際の使用には、コーディング、ライティング支援、プレゼンテーションの作成、ビデオと画像の生成の支援が含まれます。 これらのユースケースでは、データ セキュリティの課題、具体的にはソース コード、規制対象データ、知的財産などの機密データが承認されていないアプリに送信されないようにする方法が提示されます。

このレポートでは、まず genAI アプリケーションの使用傾向について検討し、次に genAI の使用によってもたらされる広範なリスクを分析し、不完全なデータや新しい脅威領域に直面した場合に組織の改善に役立つ効果的な特定の制御について説明し、最後に将来の傾向と影響について検討します。

何百万もの匿名化されたユーザーアクティビティに基づいて、genAIアプリの使用は2023年6月から2024年6月にかけて大きな変化を遂げました。

  • 現在、ほぼすべての組織が genAI アプリケーションを使用しており、過去 1 年間で使用組織は 74% から 96% に増加しています。
  • GenAIの採用は急速に拡大しており、まだ安定した状態には達していません。 平均的な組織では、1 年前と比べて genAI アプリの数が 3 倍以上増加し、それらのアプリをアクティブに使用しているユーザー数もほぼ 3 倍になっています。
  • データ リスクは、genAI アプリの早期導入者にとって最大の懸念事項であり、genAI アプリとの独自のソース コードの共有が、すべてのデータ ポリシー違反の 46% を占めています。
  • genAI アプリを安全に有効化するためのセキュリティ制御の導入が増加しており、4 分の 3 以上の組織が、ブロック/許可ポリシー、DLP、ライブ ユーザー コーチング、その他の制御を使用して、データを保護しながら genAI アプリを有効にしています。

AIは一般的に人気があり、かなりの投資を引き付けており、2020年から2024年3月22日までの240+株式取引で合計280億ドル以上の資金が調達されました。[1]

AI 100 エクイティ ファンディングによる上位企業

OpenAIとAnthropicが総資金調達の約3分の2(64%)を占めており、AIの資金調達はgenAIによって支配され、推進されています。 これは、2022年11月にOpenAIがChatGPTをリリースして以来、genAIの興奮が高まっていることを反映しています。 スタートアップだけでなく、AIに特化したETFや投資信託が複数作られており、公開市場の投資家からの資金調達がさらにレベルアップしていることを示しています。 この多額の投資は、研究開発、製品のリリース、および関連するリスクや乱用にとって追い風となります。

株価売上高倍率(PER)が桁外れであることは、執行が投資家の高い期待に遅れをとっていることを示しています。 Hugging Faceは、$30Mの収益に対して$4.5Bの評価額の150倍の倍数を持ち、Perplexityは$8Mの収益に対して$520Mの評価額の65倍の倍数を持っています[1]。

AI 100 企業別の収益倍率

実質収益は遅れているものの、製品のリリース活動は高く、AIイノベーションサイクルの初期段階にあり、多額の研究開発投資を行っていることを示しています。 例えば、2022年11月以降、ChatGPTの機能リリース(マイナーとメジャー)は34回(マイナーとメジャー)あり[2]、月に約2回リリースされています。

genAIが短期的にはAI投資の原動力となり、企業ユーザーに最も広範なリスクと影響をもたらすことは明らかです。 これは、検索、コピー編集、スタイル/トーンの調整、コンテンツ作成などのユースケースで、主要なアプリケーション、検索、デバイス プラットフォームにデフォルトでバンドルされているか、バンドルされる予定です。 主なリスクは、データの損失、機密情報の意図しない共有、genAIサービスからの情報の不適切な使用(法的権利)など、ユーザーがアプリに送信するデータに起因します。 現在、テキスト (LLM) はより幅広いユースケースで多く使用されていますが、ビデオ、画像、その他のメディア用の genAI アプリも要因となっています。

このレポートでは、過去 12 か月間の匿名化された顧客データに基づいて genAI の使用状況と傾向をまとめ、アプリケーションの使用、ユーザーのアクション、リスク領域、早期管理の詳細を説明するとともに、今後 12 か月間の指針となるガイダンスを提供します。

 

2022 年 11 月に ChatGPT が一般公開されてから約 18 か月が経過しましたが、大多数の組織ではユーザーが何らかの genAI アプリケーションを使用しています。 これは、2023年6月の74%から、2024年6月時点では96%へと着実に上昇しています。 現在、ほぼすべての組織が genAI アプリを使用しています。

 

各組織で使用される genAI アプリの数は大幅に増加しており、2023 年 6 月の 3 つの異なる genAI アプリの中央値から、2024 年 6 月には 9.6 を超えるアプリへと 3 倍以上に増加します。 上端を見ると、さらに大きな成長があります。 上位 25% の組織ではアプリ数が 6 個から 24 個に増加し、上位 1% (図には示されていません) ではアプリ数が 14 個から 80 個に増加しました。

この傾向は、テクノロジー イノベーション サイクルの早い段階で genAI の提供が増加し、組織の効率性を高める機会に対する多大な投資と期待が高まったことから、当然のことです。 ユーザーからのリスクを管理する組織にとっての意味は、使用されている GenAI 製品の数が継続的に増加し、リスク管理を検討するときに変化する目標を提示することです。これについては、このレポートの後半で説明します。

 

この 1 年間で、使用されている上位の AI アプリは変化しました。 2023年6月、ChatGPT、Grammarly、Google Bard(現Gemini)は、企業ユーザー数が多い唯一の重要なgenAIアプリでした。 2024年6月現在、GenAIアプリはさらに多く利用されており、大きな利用が行われています。 このレポートでは、Netskope Threat Labs によって追跡されている約 200 種類のアプリを取り上げています。 ChatGPT は 80% の組織で使用されており、人気を維持しています。一方、2024 年 1 月に一般提供が開始された Microsoft Copilot は、57% の組織で使用されており、3 位となっています。 GrammarlyとGoogle Gemini(旧Bard)は上位をキープしています。

時間の経過に伴う成長は、すべてのアプリケーションでほぼ着実な増加を示していますが、注目すべき例外として、リリース後 6 か月で調査対象となったすべての組織の 57% にまで使用率が伸びた Microsoft Copilot があります。 これは、Microsoft の新しい製品に対する Microsoft エンタープライズ インストール ベースの採用率が高いことを示しています。

最も人気のあるgenAIアプリのリストには、来年にかけて変動するさまざまな新規参入者が含まれています。 これらの各アプリの分類も興味深いもので、企業ユーザーによる genAI アプリの最も人気のある使用ケースを示しています。

最も人気のあるGenAIアプリのカテゴリー

GenAIアプリケーションカテゴリ
チャットGPT検索、全般
Grammarlyライティング
双子座検索、全般
マイクロソフト コパイロット検索、全般
パープレキシティAI検索、全般
クイルボットライティング
VEEDの研究
チャットベース全般, 検索
ライトソニックライティング
ガンマプレゼンテーション

今後 1 年間でトップ アプリケーションが大きく変わり、来年のレポートではまったく異なるものになると予想されます。 また、追加の統合や、相手先ブランド供給(OEM)との関係も行われます。 たとえば、Chatbaseでは、ChatGPTとGeminiのモデルが選択肢として提供されています。 市場シェアの観点からは、アプリケーションの活動を基盤となるテクノロジーごとにグループ化したい場合があります。 ただし、組織のリスクの観点からは、セキュリティ制御はアプリケーションによって異なることが多く、アプリケーションを区別するために何らかのレベルでドメイン/URLが組み込まれているため、ユーザー向けアプリケーションによるグループ化がより重要です。 つまり、ChatGPT 自体は禁止するが、その下で ChatGPT を使用する Chatbase を許可するというポリシーが存在する可能性は十分にあります。 ユースケースが異なるため、リスク管理と制御も異なります。

 

genAI アプリを使用する組織が増えているだけでなく、それらのアプリを使用するユーザー アクティビティの量も増加しています。 genAI アプリを使用するユーザー全体の割合はまだ比較的低いものの、増加率は大きく、2023 年 6 月の 1.7% から 2024 年 6 月には 5% を超え、平均的な組織では 12 か月でほぼ 3 倍になります。 月間ユーザー数が平均を上回る組織でも、genAI の導入が前年比で大幅に増加しました。上位 25% の組織では、genAI アプリの使用が 7% から 15% に増加しました。 組織の規模に関係なく、成長率が鈍化する兆候はまだ見られないため、genAI の導入は今後 1 年間にわたって引き続き増加すると予想されます。

 

Risks リンク リンク

データは、GenAIアプリが使用されているときに保護すべき最も重要な資産であることに変わりはありません。 ユーザーは依然としてデータリスクを引き起こし、防止する主要なアクターであり、今日、GenAIユーザーにとって最も緊急なセキュリティリスクはすべてデータ関連です。
ユーザーの視点からデータリスクを次の2つの側面で検討すると便利です。

  • ユーザーはどのようなデータをgenAIサービスに送信しますか?
  • ユーザーはgenAIサービスからどのようなデータを受け取り、使用しますか?

入力: データ提出

出力: データ結果

ユーザーはどのようなデータをgenAIサービスに送信しますか?

ユーザーはgenAIサービスからどのようなデータを受け取り、使用しますか?

リスク:

  • 不明/疑わしいアプリ

  • データ漏洩:PII、資格情報、著作権、企業秘密、HIPAA/GDPR/PCI

リスク:

  • 正しさ:幻覚、誤報

  • 法律:著作権侵害

  • 経済的:仕事の効率、交換

  • ソーシャルエンジニアリング:フィッシング、ディープフェイク

  • 恐喝

  • 不快なコンテンツ

この調査に含まれる組織の中で、過去 12 か月間に認識されたリスクと脅威は、アプリケーションの使用とデータのリスクに重点が置かれており、これはアプリケーションやサービスに重点を置いた市場の初期段階でよくあるケースです。 さらに、対処されているリスクは表の左側にあります:ユーザーがgenAIアプリにプロンプトを送信することに関連するデータリスクとは対照的に、表の右側は、genAIサービスから来る、または生成されるように見えるデータを使用するリスクに関連しています。 この優先順位付けは、ほとんどの組織にとって意味があります。最初の優先事項は、組織の情報資産を保護することであり、その後に genAI アプリのコンテンツの使用に関する責任や正確性の問題が続きます。

このレベルでリスクをさらに列挙して優先順位を付けることにより、組織は genAI アプリ固有のリスクをより深く理解できるだけでなく、それらのリスクに対処するために必要な制御とポリシーを決定できるようになります。

 

Controls リンク リンク

genAI 市場における初期のリスクはユーザーによるデータの送信に焦点が当てられていたため、表の左側にある制御も組織にとって優先事項となっていました。 これらのコントロールについては、以下で詳しく説明します。

入力: データ提出

出力: データ結果

ユーザーはどのようなデータをgenAIサービスに送信しますか?

ユーザーはgenAIサービスからどのようなデータを受け取り、使用しますか?

リスク:

  • 不明/疑わしいアプリ

  • データ漏洩:PII、資格情報、著作権、企業秘密、HIPAA/GDPR/PCI

リスク:

  • 正しさ:幻覚、誤報

  • 法律:著作権侵害

  • 経済的:仕事の効率、交換

  • ソーシャルエンジニアリング:フィッシング、ディープフェイク

  • 恐喝

  • 不快なコンテンツ

Controls:

  • AUP: 使用するアプリを制限する

  • DLP:防止/ブロック

  • ユーザートレーニング/コーチング

  • 疑わしいデータ移動の高度な検出

Controls:

  • AUP:どのデータから、どのアプリから、どのような目的で

  • データ参照/ソースポリシー

  • 職務の明確化/ツール/プロセス

  • フィッシング対策

  • ディープフェイク/幻覚検出(データ監査)

  • データトレーサビリティ/フィンガープリント

 

アプリケーション

genAIアプリのリスクの出発点は、アプリケーション自体です。 実際には、アプリケーション制御は、そのリスクを制御するための出発点でもあり、通常はインラインSWGまたはプロキシ内の許可リストまたはブロックリストとして実装されます。

ほとんどの組織は、データを保護するために genAI アプリの使用を制限しており、2024 年 6 月時点で 77% の組織が少なくとも 1 つの genAI アプリをブロックしています。これは、2023 年 6 月の 53% の組織から 45% 増加しています。

この傾向は、genAIアプリケーションの使用に関する基本的な制御が十分に成熟し、採用されていることを示しています。 組織内で使用されるアプリを制御することは、リスクを軽減するための必須の出発点です。 ただし、効果を発揮するには、より詳細な制御が必要になります。 多くの場合、アプリケーションの特定の使用によって、アクティビティを許可するかどうかが決まります。 例えば、ChatGPTでの一般的な検索は許可されるべきですが、ソースコードの提出は許可されるべきではありません。

ブロックされたアプリケーションをさらに詳しく見ると、組織内のすべてのユーザーに対してブロックされたアプリケーションの数の中央値も、2023 年 6 月の 0.6 個から 2024 年 6 月の 2.6 個以上に増加しています。 市場に出回っている何百もの genAI アプリと比較して、genAI アプリに対する組織全体の禁止が非常に少ないことは、他のより微妙な制御が普及していることを示しています。これについては、このレポートの後半で詳しく説明します。

最もブロックされたgenAIアプリケーションは、人気にある程度の影響を与えていますが、あまり人気のないアプリもかなり多くブロックされています。 genAI アプリをブロックしている組織のうち、28% が Beautifal.ai (最も頻繁にブロックされる genAI アプリ) をブロックし、19% が Perplexity AI (10 番目に頻繁にブロックされるアプリ) をブロックしています。 新しいアプリが正当なビジネス目的を果たしているかどうか、特定のユースケースに対して安全であるかどうかを判断するために評価されるため、ブロックは一時的な措置となることがよくあります。

ブロックされる具体的なアプリケーションは組織のポリシーによって異なりますが、上記のトップ 10 リストのように割合が十分に高い場合は、すべての組織が、特定のアプリケーションが自社の環境内で使用されているかどうか、またアプリケーションのカテゴリに関する制御を調整するかどうかを検討する価値があります。 次の表は、genAI 空間におけるさまざまなユースケースで最も多くブロックされているアプリを示しています。

最もブロックされたGenAIアプリのカテゴリー

GenAIアプリケーションカテゴリ
Beautiful.aiプレゼンテーション
ライトソニックライティング
クレイヨンImages
タクティクビジネスミーティングの文字起こし(Zoom、Meet)
AIチャット全般, 検索, ライティング, PDF要約
Githubのコパイロットコーディング
ディープAI全般, 検索, チャット, 画像, ビデオ
サイトサイト研究
ポーAI全般, 検索
パープレキシティAI全般, 検索

 

データ漏洩防止(DLP)

組織が許可されたアプリケーションのリストを超えて成熟するにつれて、許可されたアプリケーションの使用に関してよりきめ細かい制御を実施する傾向があります。 当然のことながら、DLPコントロールはGenAIデータリスクコントロールとして人気が高まっています。 データ損失防止の人気は、2023 年 6 月の 24% から、2024 年 6 月には DLP を使用して genAI アプリに送信されるデータの種類を制御する組織の 42% 以上にまで増加し、前年比で 75% 以上増加しています。

DLP コントロールの増加は、genAI アプリの使用が増加するというより広範な傾向の中で、データ リスクを効果的に軽減する方法を組織全体で理解していることを反映しています。 DLP ポリシーでは、組織は特定のデータ フローを制御し、特に機密情報や秘密情報を含む genAI プロンプトをブロックすることを目指しています。 データ保護ポリシーを持つ組織では、ソース コードがすべての DLP 違反のほぼ半分 (46%) を占め、業界規制やコンプライアンス要件によって規制されたデータが 35%、知的財産が 15% を占めています。 規制対象データは、GenAI以前の違反領域のトップであり、規制対象データの不適切な共有に関するユーザーの手動トレーニングの課題を強化しています。


機密データを genAI アプリに投稿することは、組織間の現在の優先順位を反映するだけでなく、さまざまな genAI アプリの有用性も示します。 たとえば、GitHub Copilot の人気と、ソフトウェア開発プラットフォームとしての Microsoft の市場シェアが相まって、将来的にはコード生成における genAI の使用が増える可能性があります。

 

Coaching

明らかに悪意のあるアプリケーションやアクティビティは、ブロックしてアラートを生成するコントロールによって適切に処理されますが、データリスクは多くの場合、グレーゾーンです。 コーチングコントロールは、特にgenAIのような動きの速い初期のテクノロジーサイクルにおいて、グレーゾーンに対処するための非常に効果的な手法です。 さらに、組織はコーチングを使用して、誤検知や承認プロセスの遅延によって生産性を低下させることなく、セキュリティ制御を通知および改善することができます。

コーチングコントロールは、genAIアプリの操作中にユーザーに警告ダイアログを提供し、ユーザーがアクションをキャンセルまたは続行できるようにします。 ブラウザに組み込まれた安全なブラウジング機能のように機能します。 利点は、ユーザーの作業をブロックするのではなく、ユーザーに通知し、ユーザーの行動を改善することができるように、ユーザーにとってより親しみやすいエクスペリエンスを提供することです。

genAI アプリケーションの使用を制御するポリシーを持つ組織では、2023 年 6 月の 20% の組織と比較して、2024 年 6 月時点で 31% の組織がコーチング ダイアログを使用しており、導入率は 50% 以上増加しています。

これは、他のセキュリティ ドメインからの同様のコーチング制御を genAI アプリ リスクなどの新しいドメインに適用する組織の高度化が進んでいることと一致しています。 成長は鈍化していますが、コーチング制御は、DLP またはアプリケーションに基づく完全なブロックやアラートと比較すると比較的新しいものです。 コーチングを活用してデータに関連するよりグレーなリスクを管理する方法を理解する組織が増えるにつれて、コーチングの採用は拡大し続けると予想されます。

コーチングダイアログアラートに対する実際のユーザーの反応を分解すると、有効性の尺度がわかります。 genAI アプリのコーチング ダイアログ アラートを受け取ったすべてのユーザーのうち、57% のケースで、ユーザーは実行中のアクションを停止することを選択しました。これにより、ユーザーは genAI アプリのプロンプトで機密データを送信したり、不明または新しい genAI アプリの使用を避けたりすることでリスクが軽減されました。 57% という数字は、コーチングが明示的なアプリケーション ブロックと DLP ポリシーを補完する効果的なコントロールとなり得ることを裏付けるのに十分な高さです。 さらに、コーチングはフィードバックも可能にします。 続行することを決定すると、ほとんどの組織では、コーチングのやり取り中にユーザーが自分の行動を正当化することを要求するポリシーを導入します。

これは、ユーザーの意思決定がセキュリティ ポリシーの基礎となることを示唆するものではありません。 むしろ、コーチングを活用している組織では、完全にブロックされていない genAI アプリの使用の約半分が、ユーザーの決定によってさらに削減される可能性があることを示しています。 同様に重要なのは、コーチング ダイアログに対するユーザーの決定が、セキュリティ ポリシーのレビューと調整に反映される可能性があることです。 ユーザーの決定には誤りがあり、リスクが伴う可能性がありますが、この 2 つの分類は、さらなるレビューの基礎を形成します。 ユーザーがコーチングダイアログに基づいて使用しないことを決定したアプリケーションは、完全なブロックリストについて分析する必要があります。 ユーザーが使用を決定したアプリケーションは、許可された企業標準リストに掲載するためにレビューするか、より優れたアプリやより受け入れやすいアプリがある場合はブロックする必要があります。 コーチング プロンプトに対するユーザーの応答は、DLP ポリシーなどのより微妙なポリシーを調整して、適用対象をより絞り込むためにも使用できます。

 

行動分析

行動検出エンジンによって検出されたデータ移動に関して、疑わしいユーザー行動の高度な検出の初期の兆候が見られます。 疑わしいデータの移動は、多くの場合、ユーザーまたは組織の通常のアクティビティ ベースラインに関して、ユーザーによる疑わしいまたは予期しない動作の複数の指標で構成されます。 指標には、異常なダウンロードまたはアップロード アクティビティ、新しい genAI アプリなどのデータの新しいまたは疑わしいソースまたはターゲット、予期しないまたは難読化された IP アドレスやユーザー エージェントの使用などのその他の疑わしい動作が含まれる場合があります。

疑わしいデータ移動に対して検出された高度な動作アラートの一例としては、組織が管理するアプリケーションからデータが移動され、承認されていない個人の genAI アプリにアップロードされるケースが挙げられます。

コーチングと同様に、これらのアラートに表示されるアプリのリストを使用して、genAI アプリケーションの使用に関する制御作業に優先順位を付けることもできます。 たとえば、よく使用される 2 つのアプリが機能的に重複している場合があり、それだけでアプリの数を減らすための取り組みが優先される可能性があります。

行動アラートの使用は、従来は認証情報の侵害、内部脅威、横方向の移動、悪意のある行為者によるデータ流出活動など、検出が困難な脅威を組織が早期に認識し、採用していることを示しています。

機密データの動きを詳しく見てみると、機密データの発生源となった上位のアプリケーションは、OneDrive(34%)、Google Drive(29%)がトップ、次いでSharePoint(21%)、Outlook(8%)、Gmail(6%)と、企業のクラウドアプリの人気を反映していることがわかります。

上位 3 つのアプリはすべてクラウド ストレージおよびコラボレーション アプリであり、84% の確率で機密データのソースとなっていました。一方、主要な電子メール クラウド アプリは 14% の確率でソースとなっていました。 機密データの移動にどの特定のアプリケーションが頻繁に関与しているかを把握することで、セキュリティチームは、ファイル共有アプリケーションの周囲に追加のDLP制御を配置するなど、制御を適切に調整できます。 組織は、アプリ間のデータ移動、特に管理対象アプリから管理対象外の genAI アプリへの移行に関するセキュリティ リスク評価と制御の実装を優先する必要があります。これは、このような移動が一般的になりつつあり、大きなデータ損失の影響をもたらす可能性があるためです。

 

指導 リンク リンク

過去12か月の傾向に基づいて、現在のセキュリティ運用とリスク評価を見直し、特に必要なAIとgenAI固有の変更に焦点を当てることをお勧めします。

GenAIリスクを理解し、管理するためのフレームワークには、genAI固有のリスクを具体的にカスタマイズした5つの主要な領域でのセキュリティ運用の見直しが含まれます。

  • genAIアプリの使用とユーザー行動の現状の分析、特にリスク評価。
  • リスク分析と統制の実装のための計画。
  • 許可された genAI アプリケーションと DLP ポリシーを含む防止制御。
  • コーチングや行動分析などの検出制御。
  • 新しい不適切なアプリケーションのブロックを含む修復/軽減制御。

分析の最初のステップは、計画のベースラインを形成するために、使用されている genAI アプリのインベントリを作成することです。 その後、許可されたアプリの制限 (受け入れ可能なアプリケーションの一覧) と、それらのアプリに送信されるデータの制限 (DLP 制御) を使用して、防止と検出の制御を実装できます。

 

アプリの使用基準を作成する

セキュア Web ゲートウェイまたはプロキシとローカル DNS 解決のログを活用して、次の主要なメトリックを収集します。

  • アプリの人気度:どのアプリ、週/月に何回
  • ユーザー数:週/月あたりの最小ボリューム
  • ユーザー数:使用量(例: ユーザートランザクション)日/週/月ごと、データ量(プロンプト/レスポンスサイズ/量)

簡単なスプレッドシート分析により、このレポートに示されているものと同様のグラフを生成できます。 簡単な自動化により、これを週次または月次で確認して、時間の経過に伴う変化や任意の時点での外れ値を特定できます。

 

未知数の削減

アプリケーションと使用状況のベースラインから、次の手順は、不明または疑わしいアプリを削除し、受け入れ可能なアプリの一覧を適用することです。 これにより、攻撃対象領域と攻撃ベクトルの両方が減少します。 具体的な対策としては、ユーザーの作業要件に基づいて許容されるアプリ リストを特定すること、疑わしい不明なアプリをブロックすること、安全な Web ゲートウェイとプロキシ内でコーチング手法を使用してユーザーが自己監視できるようにトレーニングすることなどが挙げられます。

 

機密データの損失を減らす

高度な脅威を検出することは簡単ではありませんが、インサイダー脅威や侵害された資格情報は依然として一般的でありながら困難な課題であるため、genAIの脅威についても計画を立てる必要があります。 行動検出アラートは genAI ベンダーの製品には含まれていませんが、既存のサイバーセキュリティ プラットフォームおよびソリューションの一部です。 これらの行動検出機能は、GenAI 固有の脅威に焦点を当てて評価する必要があります。 特定のアラートの数と種類が出発点です。

製品の評価には、アラート検出に加えて、リスクのスコアリングと追跡も含める必要があります。 行動検出は、一般的に、ユーザーとアプリの詳細なリスク追跡の概念により効果的になり、根本原因分析をユーザーレベルとアプリレベルで行うことができます。 たとえば、特定のアプリやユーザーはより大きなリスクを引き起こす可能性があり、対象を絞った修復によってリスクを軽減できます。

 

リスクフレームワークの改良

リスクフレームワークは、AIまたはgenAIに特化して見直し、適応または調整する必要があります。 NIST AI Risk Management Framework[4]のような取り組みは、社内の取り組みに活用できます。

金融サービスセクターにおける人工知能特有のサイバーセキュリティリスクの管理、米国財務省、2024年3月[5]は金融サービス分野におけるAIリスク管理の優れた例ですが、あなたの業界や組織にも応用できます。

優れたリスク管理フレームワークは、genAIアプリからの情報の使用による責任リスクや法的リスクなど、将来有望な脅威領域に対する将来の計画をサポートします。 これは、genAI アプリに送信されるデータのガイドラインとともに、許容使用ポリシー (AUP) に記載できます。 このポリシーは、SWG/プロキシでの手動制御 (トレーニング) と技術的制御の組み合わせとして実装できます。

長期的なリスク管理の改善の多くは、ギャップ分析、優先順位付け、計画、実行を一貫して定期的に繰り返すことによってもたらされます。

 

前途 リンク リンク

genAI リスクに対処するための特定の技術的対策に加えて、組織は今後 12 か月間に起こりうる変化に先手を打つために、主要な傾向を追跡することに時間を費やす必要があります。 ベストプラクティス、3大エンタープライズベンダー、genAI投資、インフラストラクチャ企業の成長と投資、チャット/LLMサービスプロバイダーの採用という5つの主要な領域でトレンドを追跡することをお勧めします。

 

Best practices

ベストプラクティスとコンプライアンスフレームワークは、製品やテクノロジーが広く採用され、大規模で確立されたユーザーベースが確立された後に作成されることが多いという意味で、遅行指標になる傾向があります。 これらのベストプラクティスを追跡することは、共通の脅威領域に基づく優先順位付け、ギャップ分析、および具体的な技術的制御またはリスク管理イニシアチブの実装を支援するために価値があります。

有用なガイドラインとなる2つの文書は、 NIST AI Risk Management Framework[4]、米国財務省による金融サービスセクターにおける人工知能固有のサイバーセキュリティリスクの管理、2024年3月[5]です。
さらに、業界の ISAC を追跡してください。これらのフォーラムでは AI 関連のリスクに関するベストプラクティスや指標の共有が議論される可能性があります。

 

ビッグスリーエンタープライズインパクト

スタートアップについては、資金調達、評価、収益、製品リリースなど多くの議論がありますが、最終的には、主要なアプリケーション、プラットフォーム、デバイスベンダーの取り組みが企業とそのユーザーに最も大きな影響を与えることになります。

大手 3 社は、アプリ、プラットフォーム、デバイスを総合して、消費者と企業のユーザー数 (1 億~ 10 億以上) が最も多くなっています。

  • マイクロソフト: Apps/AD/Azure/Surface/AI PC
  • Google:アプリ/ワークスペース/GCP/Android
  • アップル:iPhone / iPad / Mac

彼らは、genAIを既存のサービスに無料で組み込んだ、または組み込む可能性があります。

  • Microsoft: Windows、Git、Visual Studio の一部としての Copilot
  • Google: Google 検索の一部としての双子座
  • Apple: iOS / MacOSの一部としてのAppleIntelligenceとChatGPT

組織は、Microsoft、Google、Apple が genAI で何を行っているかを追跡する必要があります。 ユーザーが使用するユースケースと機能に重点を置くことで、組織は今後 12 か月間に予想される事態と起こり得る事態の両方に対してより適切に備えることができます。 たとえば、エンジニアリング部門がコーディング支援に GitHub Copilot の使用を標準化する場合、セキュリティ ポリシーでは、Copilot や同様のアプリに関するアプリ、DLP、高度な検出制御を積極的に実装する必要があります。

 

より多くの投資、イノベーション、脅威

ベンチャーキャピタルはそれほど長く傍観者(または銀行)に座っているわけではなく、Microsoftからの$ 10B +は間違いなくOpenAIによって費やされます。 最も多くの資金を持つ企業が、最終的に最も多くの研究開発と製品のリリースを推進することになります。 これらのスタートアップとそのgenAIサービスは、市場シェアとユーザー数の急速な成長に焦点を当てているという理由だけで、最も可能性の高いリスク源であるため、優先されるべきです。

投資の一部は、専門分野別のデータセットに基づく新しいgenAIサービスを提供する企業に流れ込んでいる(例えば、 法律情報または医療情報)、または言語(例: 日本語から英語への専門的なテキスト翻訳)、またはその他の専門分野。 短期的には、制御するアプリの数が非常に多いため、セキュリティチームにとってより多くの課題が発生しますが、最終的には、genAIアプリの目的に特異性が増し、アプリレベルの制御とそれに関連するアプリのDLP制御がより効果的で的を絞ったものになるため、助けになります。 ChatGPT などの万能型の汎用 genAI アプリでは、ユースケースやデータセットがほぼ何でも可能で、ポリシーが一般的すぎる可能性があるため、リスクを管理するのがはるかに困難です。

他の企業は、多くの場合、競争に勝つために、迅速に、頻繁にリリースし、「本番環境でテストする」でしょう。 また、競争圧力や市場のダイナミクスにより、スタートアップ企業だけでなく大企業も、テストよりも機能の開発とリリースを優先することができます。

「たまに問題が起きるかもしれないという理由だけで機能の導入を控えるのではなく、問題が見つかったらすぐに対処することが重要です」と、3月にGoogleの検索担当副社長に昇進したリズ・リード氏は、CNBCが入手した音声によると、全社会議で述べた。 [3]

これは、市場への迅速な移行という哲学に対する判断ではなく、イノベーションサイクルの早い段階でベンダーの考え方を観察するものです。 genAIベンダーの製品と機能のリリースを見ることで、リスク領域が明らかになる前に予測できます。 少なくとも、これにより、迅速なリリース サイクルに対する期待が設定され、新しい機能を評価するための内部トリアージ/評価がトリガーされ、使用している genAI アプリの「バージョン」に対する組織の制御に関する疑問が生じます。

 

インフラ企業

多くの企業は、ユーザーがより多く使用するため、genAIアプリやサービスに焦点を当てるかもしれません。 ただし、基盤となるインフラストラクチャ企業(多くの場合、公開企業)とハードウェアを提供する企業を追跡して、将来のマクロトレンド、特に投資を特定する必要があります。 1990年代のインターネットブームの際のルータービジネスと同様に、インフラストラクチャ企業とその財務実績は、アプリケーションとソフトウェアの投資の主要な指標となり、分析および計画すべき今後の脅威領域を特定します。

たとえば、NVDAへの投資(例: データセンター、SOC、PC)や収益・顧客基盤の拡大など、genAIアプリケーションやサービス市場の動向が見て取れます。

ミューチュアル・ファンドやETFからの公開市場投資の財務追跡や、時価総額と収益/利益(価格/売上高)、インフラ収益とスタートアップ/ソフトウェア収益の乖離などの指標の追跡も、R&Dのトレンドを決定することができます。 R&Dは通常、製品のリリースにつながり、それが使用とリスクにつながります。

 

チャット/LLMサービス

組織が genAI テクノロジーを使用して独自のチャット サービスや検索機能を導入する場合、このレポートで説明されていない他の脅威、つまり、幻覚や偏った結果をもたらすガードレールをバイパスするプロンプト攻撃や、データ ポイズニングなどのその他のデータ インジェクション攻撃のリスクがあることは明らかです。 組織は、プロジェクトを計画する際に、これらのリスクに時間を費やす必要があります。

LLM やその他の genAI アプリを使用する検索サービスやチャット サービスを自社の Web サイトに広く導入する組織が増えるにつれ、攻撃者は一般的に使用量の増加とそれに伴う金銭を追うため、すべての genAI サービスに対する攻撃が増加するでしょう。

これらの脅威の傾向により、販売チャット サービスやサポート ナレッジ ベース検索機能など、組織独自の genAI サービスの調整や見直しが必要になる場合があります。 サービス プロバイダーである、またはサービス プロバイダーになる予定の組織は、この広範なマクロ トレンドに基づいてリスク プロファイルを定期的に確認し、リスク姿勢に変化があったかどうか、またそれが公開されている genAI サービスの保護、検出、または軽減のための制御フレームワークに影響しているかどうかを確認する必要があります。

 

CISOの視点

genAI はイノベーションと効率性に大きな期待を抱かせますが、組織が積極的に対処しなければならない大きなリスクももたらします。 ガバナンス、テクノロジー、プロセス、人材の活用はすべて適用し、取り組みの強力なバックストップをサポートするフレームワークを活用する必要があります。 今回の調査でもわかったように、規制情報がサービスと共有されるなど、驚きの点もありました。 多くの組織が genAI ソリューションを導入していますが、規制情報や秘密やパスワードなどの機密データと組み合わせた genAI をシャドー IT サービスとして使用することは、どの組織にとっても避けたいリスクです。 唯一のアプローチは、戦術的および戦略的な使用と採用の両方に対処するためのプログラム的な行動計画を採用することです。 この調査では、サービスが採用され、評価と資金調達に迅速に対応していることが示されました。 ニュートンの第 2 法則は導入サイクルの加速にも適用できることを覚えておくと、組織は一夜にして変化した脅威に迅速に対処できるようになります。 状況は変化するかもしれませんが、急速な導入とトレンドは依然として「予測」として役立ち、「genAI の今後の天気」は業界の同業者との会話を促進し、他の脅威レポートや調査のレンズとして使用できます。

 

Conclusion リンク リンク

人工知能(AI)技術、特にジェネレーティブAI(genAI)によって推進される技術の普及は、企業全体のリスク管理に大きな影響を与えています。 GenAI はイノベーションと効率性の向上を約束する一方で、組織が積極的に対処しなければならない大きなリスクももたらします。

GenAIは、コンテンツを自律的に生成する能力があり、独自の課題を提起しています。 企業は、genAIが生成した出力が誤って機密情報を公開したり、誤った情報を広めたり、さらには悪意のあるコンテンツを持ち込んだりする可能性があることを認識する必要があります。 そのため、これらのリスクを包括的に評価し、軽減することが重要になります。

データはgenAIシステムの中核であるため、genAIアプリの使用によるデータリスクに焦点を当てる必要があります。 ここでは、genAIによるリスクに対処するための具体的な戦術的ステップをご紹介します。

  • 現在の状態を把握する: まず、既存の AI インフラストラクチャ、データ パイプライン、GenAI アプリケーションを評価します。 セキュリティ制御の脆弱性とギャップを特定します。
  • コアコントロールを実装する: アクセス制御、認証メカニズム、暗号化などの基本的なセキュリティ対策を確立します。 これらの基本的な制御は、安全な AI 環境の基礎を形成します。
  • 高度な制御を計画する: 基本的なことを超えて、高度なセキュリティ制御のロードマップを作成します。 脅威モデリング、異常検出、継続的な監視を検討してください。
  • 測定、開始、修正、反復: セキュリティ対策の有効性を定期的に評価します。 現実世界での経験と新たな脅威に基づいて適応し、洗練します。

AI/genAI ベンダーと関わる場合、組織はデータ保護対策、暗号化プロトコル、プライバシー規制への準拠について問い合わせる必要があります。
組織は、法的、倫理的、責任上の影響を含む、より広範なリスク管理の問題を考慮する必要があります。 法務、コンプライアンス、リスクのステークホルダーを含む既存の社内リスク管理チームと協力して、リスク管理フレームワークを見直し、AIとgenAIのリスク領域に適応します。 NIST AIリスク管理フレームワーク[4]を活用して、組織自身の取り組みを導きます。

最後に、AIとサイバーセキュリティのマクロトレンドについて常に情報を入手してください。 AI倫理、規制の変更、敵対的攻撃の動向を監視します。 新たな問題点と脅威領域を予測することで、企業はリスク軽減戦略を積極的に調整できます。
要約すると、企業は、技術的な専門知識、戦略的計画、警戒心を組み合わせて、AI関連リスクの進化する状況をナビゲートする必要があります。 genAIは変革をもたらす一方で、データ、評判、ビジネス継続性を保護するための堅牢なリスク管理アプローチを求めています。

 

References リンク リンク

[1] 2024年の最も有望な人工知能スタートアップ、CB Insights、https://www.cbinsights.com/research/report/artificial-intelligence-top-startups-2024/
[2] ChatGPT — OpenAI のリリース ノート。 https://help.openai.com/en/articles/6825453-chatgpt-release-notes
[3] TECH Googleの検索責任者は、AI製品の間違いを「常に見つけるとは限らない」と述べており、それらを転がすリスクを冒さなければならないとCNBCで述べています。 https://www.cnbc.com/2024/06/13/google-wont-always-find-mistakes-in-ai-search-vp-reid-tells-staff.html
[4] NIST AIリスク管理フレームワーク、NIST。 https://www.nist.gov/itl/ai-risk-management-framework
[5] 金融サービスセクターにおける人工知能固有のサイバーセキュリティリスクの管理、米国財務省、2024年3月。 https://home.treasury.gov/system/files/136/Managing-Artificial-Intelligence-Specific-Cybersecurity-Risks-In-The-Financial-Services-Sector.pdf

 

このレポートについて リンク リンク

Netskope は、世界中の何百万ものユーザーに脅威とデータからの保護を提供します。 このレポートに記載されている情報は、事前に承認された一部の Netskope 顧客に関連して Netskope Security Cloud プラットフォームによって収集された匿名の使用データに基づいています。 このレポートの統計は、2023 年 6 月 1 日から 2024 年 6 月 30 日までの 13 か月間に基づいています。

このレポートには、金融サービス、ヘルスケア、製造、通信、小売など、世界中のさまざまな分野の何百もの組織の何百万人ものユーザーが含まれています。 このレポートに含まれる組織には、それぞれ 1,000 人を超えるアクティブ ユーザーがいます。

 

Netskope Threat Labs

業界の第一人者であるクラウド脅威とマルウェアの研究者が配置されており、 Netskope Threat Labs最新のウェブ、クラウド、および企業に影響を与える脅威に対する防御を発見、分析、設計します。当社の研究者は、DEF CON、Black Hat、RSAC などのトップセキュリティ会議で定期的にプレゼンターやボランティアを務めています。