閉める
閉める
明日に向けたネットワーク
明日に向けたネットワーク
サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。
            Netskopeを体験しませんか?
            Netskopeプラットフォームを実際に体験する
            Netskope Oneのシングルクラウドプラットフォームを直接体験するチャンスです。自分のペースで進められるハンズオンラボにサインアップしたり、毎月のライブ製品デモに参加したり、Netskope Private Accessの無料試乗に参加したり、インストラクター主導のライブワークショップに参加したりできます。
              SSEのリーダー。 現在、シングルベンダーSASEのリーダーです。
              Netskope は、 SSE プラットフォームと SASE プラットフォームの両方で、ビジョンで最も優れたリーダーとして認められています
              2X ガートナーマジック クアドラント SASE プラットフォームのリーダー
              旅のために構築された 1 つの統合プラットフォーム
                ""
                Netskope One AI Security
                組織はビジネスを前進させるために安全な AI を必要としますが、制御とガードレールによって速度やユーザー エクスペリエンスが犠牲になってはなりません。Netskope は、AI のメリットを活かすお手伝いをします。
                  ""
                  Netskope One AI Security
                  組織はビジネスを前進させるために安全な AI を必要としますが、制御とガードレールによって速度やユーザー エクスペリエンスが犠牲になってはなりません。Netskope は、AI のメリットを活かすお手伝いをします。
                    ダミーのための最新のデータ損失防止(DLP)eBook
                    最新の情報漏えい対策(DLP)for Dummies
                    クラウド配信型 DLP に移行するためのヒントとコツをご紹介します。
                      SASEダミーのための最新のSD-WAN ブック
                      SASEダミーのための最新のSD-WAN
                      遊ぶのをやめる ネットワークアーキテクチャに追いつく
                        リスクがどこにあるかを理解する
                        Advanced Analytics は、セキュリティ運用チームがデータ主導のインサイトを適用してより優れたポリシーを実装する方法を変革します。 Advanced Analyticsを使用すると、傾向を特定し、懸念事項に的を絞って、データを使用してアクションを実行できます。
                            Netskopeテクニカルサポート
                            Netskopeテクニカルサポート
                            クラウドセキュリティ、ネットワーキング、仮想化、コンテンツ配信、ソフトウェア開発など、多様なバックグラウンドを持つ全世界にいる有資格のサポートエンジニアが、タイムリーで質の高い技術支援を行っています。
                              Netskopeの動画
                              Netskopeトレーニング
                              Netskopeのトレーニングは、クラウドセキュリティのエキスパートになるためのステップアップに活用できます。Netskopeは、お客様のデジタルトランスフォーメーションの取り組みにおける安全確保、そしてクラウド、Web、プライベートアプリケーションを最大限に活用するためのお手伝いをいたします。

                                このレポートでは、世界中の組織に影響を与える主要なサイバーセキュリティ リスクの傾向を分析します。これは、生成 AI (genAI) ツールの採用の増加とそれに関連するデータ セキュリティの課題に対処します。さらに、データ ポリシー違反の件数が増加しており、無許可のクラウド サービス、個人用アプリケーション、genAI プラットフォームを通じて機密情報が漏洩するケースが増えていることも浮き彫りにしています。

                                23分 読む

                                紹介 リンク リンク

                                Netskope クラウドおよび脅威レポート 2026 年版は、前年の最も重要なサイバーセキュリティの傾向を分析し、2026 年の企業の状況を特徴付ける課題とリスクの重要なプレビューを提供するように設計されています。2025 年には、生成 AI が急速に、そして多くの場合は統制されていない形で導入され、サイバーセキュリティの状況は根本的に変化しました。組織がクラウド データ セキュリティ、執拗なフィッシング キャンペーン、信頼できるチャネルを通じて配信されるマルウェアの複雑さに対処する中で、広範な AI 利用、特に「シャドウ AI」と新興の「エージェント AI」の導入により、新たな複雑なデータ漏洩リスクが現代の企業環境に重層化しました。 このレポートでは、2025 年の最も重要なトレンドを振り返り、2026 年の進化する脅威の状況の重要なプレビューとして機能し、セキュリティ チームが現在対処しなければならないリスクの付加的な性質を強調しています。 セキュリティ チームは、既存のリスクを管理する必要があるだけでなく、genAI によって生み出されるリスクも管理する必要があります。

                                genAI 特有の最も差し迫ったリスクは、データ露出の大幅な増加であり、genAI アプリケーションの使用に関連するデータ ポリシー違反の割合は昨年 2 倍に増加しました。この急速な導入は、多くの場合、シャドー AI (管理されていないサービスや個人アカウントの従業員)によって推進されており、その結果、ソース コード、規制対象データ、知的財産などの機密性の高い資料が漏洩することになります。 同時に、内部および外部のリソースにわたって複雑で自律的なアクションを実行するエージェント AIシステムの運用導入により、セキュリティ境界と信頼モデルの根本的な再評価を必要とする、広大で新しい攻撃対象領域が生まれます。

                                この新たな AI による脅威と従来のセキュリティ上の懸念の組み合わせにより、2026 年の進化する脅威の状況が定義されます。従業員の行動や新しい AI ツールは従来の安全対策よりも速く進化しているため、監視、データ損失防止 (DLP) 制御、および全体的なセキュリティ体制を強化することが不可欠です。

                                このレポートの内容 リンク リンク

                                • SaaS genAI は急速に増加しています。 ChatGPTやGeminiなどのSaaS genAIアプリを使用する人の数は3倍に増加し、アプリに送信されるプロンプトの数は昨年で6倍に増加しました。 シャドーAIは依然として大きな課題であり、genAIユーザーの47%が 個人用AIアプリを使用しています。
                                • GenAI データ ポリシー違反インシデントが急増しています。genAIアプリの人気の高まりにより、ユーザーが AI アプリに機密データを送信するインシデントの数は過去 1 年間で倍増し、平均的な組織では 1 か月あたり 223 件のインシデントが発生しています。
                                • 個人アプリは重大な内部脅威リスクです。内部脅威インシデントの 60% は個人クラウド アプリ インスタンスに関係しており、規制されたデータ、知的財産、ソース コード、およびクレデンシャルが組織ポリシーに違反して個人アプリ インスタンスに送信されることが頻繁にあります。
                                • フィッシングは依然として根深い課題です。フィッシング リンクをクリックする人の数は前年比で減少しているにもかかわらず、フィッシングは依然として根深い問題であり、毎月 10,000 人のユーザーのうち 87 人がフィッシング リンクをクリックし、Microsoft が最も模倣されているブランドとなっています。
                                • マルウェアは、信頼できるチャネルを通じて組織に侵入し続けています。攻撃者は、npm などのソフトウェア レジストリや、GitHub、OneDrive、Google Drive などの人気のあるクラウド アプリなど、信頼できるチャネルを通じて被害者にマルウェアを配布することに成功し続けています。

                                 

                                SaaS genAIの使用が急速に増加 リンク リンク

                                過去1年間、企業は従業員が AI 生成ツールをどのように活用するかについて苦慮し続けてきました。 。 SaaS やクラウド プラットフォームの初期の頃と同様に、IT チームやセキュリティ チームが企業承認の genAI ツールを従業員に導入するずっと前から、多くの従業員が個人アカウントでサインインして独自に AI アプリを試し始めていました。このパターンにより、現在では一般的にシャドー AI と呼ばれるもの、つまり組織の可視性、ポリシー、および制御の外で行われる AI の使用が生まれました。

                                企業ライセンスおよびガバナンス フレームワークの急速な推進にもかかわらず、規制されていないアクセスは依然として広く蔓延しています。組織全体の内部モニタリングによると、従業員のかなりの割合が、組織とは関係のない ChatGPT、Google Gemini、Copilot を使用するクレデンシャルなどのツールに依存していることがわかりました。 良いニュースは、この行動が正しい方向に変わりつつあることです。個人アカウントの使用は過去1年間で大幅に減少しており、個人用AIアプリを使用するAIユーザーの割合は78%から47%に減少しました。 同時に、組織が管理するアカウントの割合は25%から62%に増加しており、より多くの企業がAIアクセスを標準化し、監視を成熟させていることを示しています。 ただし、個人アカウントと企業アカウントを切り替えて使用しているユーザーの重複は増加しており、ユーザーの 4% から 9% に増加しています。この重複は、ユーザーが望むレベルの利便性や機能を提供するために、企業がまだ取り組むべきことがあることを示しています。管理アカウントへの移行は喜ばしいことですが、同時に、従業員の行動がガバナンスを上回る速さで進む可能性があることも浮き彫りにしています。露出を減らしたい組織には、より明確なポリシー、より適切なプロビジョニング、そして従業員全体で AI ツールが実際にどのように使用されているかを継続的に可視化する必要があります。

                                個人アカウントと組織アカウントの genAI 使用状況の内訳を示すグラフ

                                個人アカウントから組織が管理する AI アカウントへの移行は喜ばしいことですが、組織は別の課題にも取り組んでいます。つまり、 SaaS genAI アプリケーションを使用する人の総数は飛躍的に増加しており、過去 1 年間で組織全体で平均 3 倍に増加しています。 この傾向が特に注目すべきなのは、マネージド genAI アプリケーションに関する制御とガバナンスが強化されているにもかかわらず、この傾向が発生している点です。これは、従業員の genAI 機能に対する需要と依存が、組織のガードレールを実装するよりも速いペースで加速し続けていることを示しています。

                                月ごとの genAI ユーザー数の中央値を示すグラフ。網掛け部分は第 1 四分位と第 3 四分位を示す。

                                ユーザー数は平均で 3 倍に増加し、SaaS genAI アプリに送信されるデータの量も 1 か月あたり 3,000 件から 18,000 件へと 6 倍に増加しました。一方、上位 25% の組織は 1 か月あたり 70,000 件を超えるプロンプトを送信しており、上位 1% (図には示されていません) は 1 か月あたり 140 万件を超えるプロンプトを送信しています。次のセクションでは、SaaS genAI アプリへのデータフローの増加に伴うリスクについて説明します。

                                組織あたりの GenAI プロンプトの中央値。網掛け部分は第 1 四分位と第 3 四分位を示しています。

                                過去 1 年間で、さまざまな地域や業界で、いくつかの genAI アプリケーションが主力として登場しました。ChatGPT の採用率は 77% で、続いて Google Gemini が 69% でした。Microsoft 365 Copilot の採用率は 52% に達し、日常の職場環境に統合された AI 機能に対する強い関心が示されました。これらの主要なツール以外にも、組織は、運用、分析、ワークフロー主導のニーズに合わせたさまざまな特殊な組み込み AI アプリケーションを広範囲に活用しました。

                                組織がそれらのアプリを使用する割合に基づいて、最も人気のある genAI アプリを示すグラフ

                                以下のグラフは、過去 1 年間に地域や業界全体で主要な genAI アプリケーションの採用がどのように変化したかを示しています。ChatGPT は年間を通じて平均 77% と、一貫して高い使用率を維持しました。Google Gemini は 46% から 69% へと力強い上昇傾向を示し、機能が重複する複数のSaaS genAI サービスの増加傾向を示しています。 Microsoft 365 Copilot は、Microsoft 365 製品エコシステムへの統合によって、52% の採用率を達成しました。困惑度も着実に成長し、23% から 35% に増加しました。これは、Comet ブラウザの人気の高まりと、合理化された検索重視の AI ワークフローによるものと考えられます。注目すべきは、以前は最も頻繁にブロックされていた genAI アプリケーションの 1 つである Grok が 4 月に人気を集め始め、以前の制限にもかかわらずより多くの組織がその機能を試したため、使用率が 28% に上昇したことです。

                                組織の割合別に最も人気のあるアプリを示すグラフ

                                生成型 SaaS AI ツールの急速かつ分散的な導入により、2026 年にはクラウド セキュリティの状況が根本的に変化するでしょう。私たちは 2 つの大きな変化が起こると予想しています。1 つはビジネス機能全体での genAI の使用量の急激な増加の継続、もう 1 つは最も人気のあるSaaS genAI プラットフォームとしての Gemini エコシステムによる ChatGPT の座の座からの追放です。 現在のペースでいくと、Gemini は 2026 年前半に ChatGPT を追い抜く見込みで、この分野における熾烈な競争と急速な革新を反映しています。機密情報が未承認の AI エコシステムに自由に流入し、偶発的なデータ漏洩やコンプライアンス リスクが増大するため、組織はデータ ガバナンスの維持に苦労することになります。一方、攻撃者はこの断片化された環境を悪用し、AI を活用して超効率的な偵察を実施し、独自のモデルやトレーニング データを標的とした高度にカスタマイズされた攻撃を仕掛けます。AI 主導のイノベーションとセキュリティのバランスを取るには、AI を認識したデータ保護ポリシーと、すべてのSaaSアプリケーションにわたって genAI の使用を監視および制御できる集中型の可視性レイヤーへの移行が必要となり、きめ細やかでコンテキストを認識したアクセス制御と倫理的なガードレールの施行が、来年の重要なセキュリティ優先事項となります。

                                 

                                GenAIのデータポリシー違反事件が急増している リンク リンク

                                前のセクションでは、genAI ユーザー数が 3 倍に増加し、SaaS genAI アプリに送信されるプロンプトの数が 6 倍に増加したことを強調しました。この傾向がサイバーセキュリティの専門家にとって懸念すべき主な理由は、使うの増加に伴い、第三者への望ましくないデータ露出が増加するためです。 このリスクは、これらのツールが日常的に使用される方法に根ざしています。 ユーザーが AI システムにドキュメント、データセット、またはコードを要約するように依頼する場合でも、テキスト、メディア、またはソフトウェア スニペットを生成するために AI システムを利用する場合でも、ワークフローではほとんどの場合、内部データを外部サービスにアップロードするか、内部データ ストアを外部 AI アプリに接続する必要があります。この要件だけでも、かなりの露出リスクが生じます。このセクションでは、genAI の使用量の劇的な増加に伴う機密データの暴露リスクを検証し、同じ期間でデータ ポリシー違反が 2 倍に増加していることを強調します。

                                平均的な組織では、データ ポリシー違反を犯したユーザーの数とデータ ポリシー インシデントの数の両方が過去 1 年間で 2 倍に増加しており、genAI ユーザーの平均 3% が毎月平均 223 件の genAI データ ポリシー違反を犯しています。一方、上位 25% の組織では、genAI ユーザーベースの 13% にわたって毎月平均 2,100 件のインシデントが発生しており、問題の深刻度は組織によって大きく異なることがわかります。

                                データ ポリシー違反が 2 倍に増加しているのに対し、genAI ユーザーは 3 倍、プロンプトは 6 倍に増加しているというこの矛盾は、組織のセキュリティ体制に重大なギャップがあることを示しています。違反件数の 2 倍の増加は、検出されたインシデントのみを表しています。使用量に比べて違反の増加が少ないことは、多くの組織がこの活動の管理においてまだ成熟度に達していないことを浮き彫りにしています。組織の 50% には、genAI アプリに対する強制力のあるデータ保護ポリシーがありません。このような環境では、従業員が検知されることなく機密データを AI モデルに送信し、データ漏洩の実際の範囲が隠される可能性があります。したがって、観測された 2 倍の増加は、実際のデータ漏洩リスクを過小評価している可能性が高く、技術的な強制ではなくユーザーの信頼に依拠している大多数の組織では問題がさらに深刻であることを示唆しています。このような組織は、データ ガバナンスの強化と、強制可能なコンテンツ認識型制御の実装を真剣に検討する必要があります。

                                genAiアプリへの機密データの平均アップロード数を示すグラフ。中央値の割合。網掛け部分は第1四分位と第3四分位を示す。

                                genAIに関連するデータ漏洩リスクは、利用可能なAIツールの数が膨大であることと、承認や監視のないシャドーAIツールが継続的に存在することによって増幅されます。 その結果、組織は、内部ポリシーに違反していくつかのカテゴリの機密データが genAI プラットフォームに転送されることに頻繁に遭遇します。関連する最も一般的なタイプのデータは次のとおりです。

                                • ソース コード。デバッグのヘルプ、リファクタリングの提案、コード生成を求めるときにユーザーが送信することが多いコードです。
                                • 個人データ、財務データ、医療データなどの規制対象データ
                                • 知的財産(従業員が分析や要約のためにアップロードする契約書、社内文書、独自の調査研究など)。
                                • コード サンプルや構成ファイル内に頻繁に表示されるパスワードとキー

                                過去 1 年間に genAI データ ポリシー違反に最も関係した 3 つのデータ カテゴリは、ソース コード (42%)、規制対象データ (32%)、知的財産 (16%) でした。このようなインシデントの発生頻度の増加は、genAIツールの急速な導入と日常業務へのより深い統合から、従業員がIT / セキュリティ部門の承認や監視なしにAIツールを使用する際のデータセキュリティ意識の欠如まで、さまざまな要因によって引き起こされています。

                                データ ポリシー違反の急増と、定期的に侵害されるデータの機密性の高さの組み合わせは、AI リスクを制御するための取り組みを行っていない組織にとって最大の懸念事項となるはずです。より強力な管理がなければ、偶発的な漏洩、コンプライアンス違反、下流の侵害の可能性は月ごとに増加し続けます。

                                genAIアプリのデータポリシー違反の種類を示すグラフ

                                従来の genAI アプリケーションに加えて、AI 搭載ブラウザーやモデル コンテキスト プロトコル(MCP) を活用したアプリケーションなどの新興テクノロジーは、AI エージェントをエンタープライズ リソースに接続するための推奨方法として急速に普及しつつあり、潜在的なリスクがさらに高まっています。これらのツールは、タスクを実行したり、ローカルまたはクラウドのリソースにアクセスしたり、ユーザーに代わって他のソフトウェアと対話したりできるため、組織の攻撃対象領域を効果的に拡大します。MCP 対応エージェントは外部のサービスやツールに接続する可能性があるため、機密情報が誤って公開され、悪意のある人物がこれらの機能を悪用してシステムやワークフローを侵害する可能性があります。広く採用されない場合でも、組織は AI ブラウザと MCP 統合システムを新たな懸念事項として扱い、それに応じてガバナンス、監視、および使用ポリシーを実装する必要があります。

                                2026 年の AI ブラウザと MCP サーバーの台頭により、すでに深刻化している genAI データ漏洩の問題がさらに深刻化し、より多くの組織が AI テクノロジーの可視性と制御を向上させる必要に迫られることになります。 セキュリティリーダーにとっての中心的な課題は、従業員が genAI の恩恵を受けられるようにしながら、機密資料をどのように保護するかということです。多くの組織にとって、DLP の対象範囲の強化、従業員の意識向上、明確なデータ処理ポリシーの施行が主な焦点領域となります。

                                不要なgenAIアプリをブロックすることでデータ漏洩リスクを軽減

                                前のセクションでは、コンテンツ認識型データ保護ポリシーが genAI アプリ内の機密データのフローを制御する方法に焦点を当てました。根本的な前提は、これらのアプリは特定の状況で使うのに安全で、正当なビジネス目的に役立たなければならないというものでした。 アプリがいかなる状況においても使うのに安全でない場合、または正当なビジネス目的に役立たない場合、リスク軽減ははるかに簡単になります。アプリを完全にブロックするだけです。 組織の 90% がこの基本的だが効果的な戦略を採用しており、平均的な組織では 10 個のアプリを積極的にブロックしています。 ここでの「アクティブなブロック」とは、組織がすべてのユーザーに対してアプリをブロックするポリシーを持っていることだけでなく、そのポリシーがユーザーがアプリを使用しようとするのを積極的に阻止していることを意味します(誰も使用しようとしていないものをブロックするポリシーとは対照的に)。 各組織のポリシーは異なりますが、一部のツールは他のツールよりもはるかに頻繁に制限されており、セキュリティ チームが最も重大な危害の可能性があると見なしている場所が明らかになります。多くの環境では、ツールを 1 つずつ評価するよりも、リスクの高い genAI サービスのカテゴリ全体をブロックする方が、より管理しやすい保護を実現できる可能性があります。

                                現在、 ZeroGPTは genAI 関連のアプリケーションの中で最も頻繁にブロックされており、組織の 45% がアクセスを制限しています。AI 検出ツールでは、分析のためにユーザーに全文、ソース コード、その他の機密資料の提出を求めることが多いため、多くのセキュリティ チームはこのサービスを高リスクと見なしています。

                                DeepSeek は、透明性の限界、急速に進化するプラットフォームの動作、データ主権、新興 AI エコシステムに関連する不確実性に対する懸念から、43% の組織がこれをブロックしています。

                                これらのブロックの傾向は、組織が個々のツールによってもたらされるリスクに対応しているだけでなく、ガバナンス戦略も成熟させていることを示唆しています。特に、セキュリティの保証が明確でないサービスや、ユーザー コンテンツの処理方法や保存方法に関する開示が不十分なサービスでは、機密データが組織外に流出するのを防ぐことに重点が移っています。

                                ""

                                不要な AI アプリのブロック ポリシーは、一般的に非常に効果的です。Netskope Threat Labsが追跡している genAI アプリの数は、過去 1 年間で 317 個から 1,600 個以上に 5 倍増加しましたが、組織内の AI アプリの平均数は 6 個から 8 個にわずか 33% 増加しました。 管理が緩い上位 1% の組織 (図には示されていません) のみで、アプリ数が 47 から 89 へと大幅に増加しました。これらの外れ値は、すべての組織にとって、genAI アプリがいくつあり、それらがすべて正当なビジネス目的に役立っているかを把握するためのリマインダーとして機能するはずです。 例外的な組織では、ビジネス上重要でないアプリへのアクセスを制限し、重要なアプリにはデータ保護およびコーチング ポリシーを適用するだけで、リスクを大幅に軽減できます。

                                ""

                                2026 年には、新しい genAI アプリの継続的な導入や、AI ブラウザーなどの genAI アプリと対話する新しい方法によって、より多くの組織が genAI エコシステムを制御し始めるため、数十の genAI アプリケーションの使用を許可する外れ値の組織の数は減少すると予想されます。 genAI を使う の可視性が向上した後、より多くの組織が、承認リストにあるものを除くすべての AI アプリケーションをブロックするという、より積極的なアプローチを取るようになります。

                                エージェント型AIの導入により、データの露出と内部者リスクが増大

                                AI ブラウザや MCP サーバーとともに、genAI 分野で組織にセキュリティ体制の進化を迫る新たなトレンドとして、エージェント AI があります。エージェント AI システムとは、内部および外部のリソースにわたって複雑で自律的なアクションを実行するシステムです。すでに組織では、 SaaSサービスと Azure OpenAI のような AI プラットフォームの両方でエージェント AI が急速に導入されています。 初期の導入では利便性からSaaSアプリケーションが好まれましたが、プラットフォーム ベースのソリューションにより、企業はモデルを社内でホストし、既存のインフラストラクチャと統合し、特定のワークフローに合わせたカスタム アプリケーションや自律エージェントを構築できます。

                                現在、組織の 33% が Azure 経由で OpenAI サービスを使用し、27% が Amazon Bedrock を使用し、10% が Google Vertex AI を活用しています。 こうしたエンタープライズ グレードのプラットフォームへの移行は、より強力なプライバシー制御とより緊密な統合オプションを提供する、安全なクラウドベースの genAI サービスの利用可能性の拡大によって推進されています。前年比の成長がこの勢いをさらに強調しています。Bedrock ユーザー数と Bedrock トラフィック量はともに 3 倍に増加し、Vertex AI ユーザー数は 6 倍、トラフィック量は 10 倍に増加しました。これらの傾向は、組織がよりプライベートで柔軟性が高く、コンプライアンスに準拠した展開フレームワークを模索する中で、genAI インフラストラクチャをいかに急速に拡張しているかを浮き彫りにしています。

                                ホストされたモデルや自律 AI エージェントを介して、管理されたフレームワークを通過するデータが増えても、セキュリティ リスクは依然として高いままです。エージェントシステムの急速な増加により、ツールの悪用、安全でない自律アクション、データ流出の経路の拡大など、新しい攻撃ベクトルが導入されています。管理モデルは一部のリスクを軽減しますが、プロンプトインジェクション、過剰な権限を持つツールへのアクセス、安全でない API 統合、または意図しないコンテキスト間のデータ漏洩によるリスクを排除することはできません。AI エージェントがタスクを実行し、内部および外部のサービスと対話する能力を獲得するにつれて、誤った構成や侵害されたワークフローの潜在的な影響は大幅に増大します。これらのプラットフォームを導入する組織は、安全性を犠牲にして拡張性を確保するために、近代化と厳格なセキュリティ制御、継続的な監視、最小権限設計を組み合わせる必要があります。

                                ""

                                AI エージェントとアプリケーションがオンプレミスまたは管理されたエンタープライズ環境内で実行される場合でも、基盤となるモデルには、従来のブラウザ インターフェースではなく、クラウドでホストされる API を通じて頻繁にアクセスされます。ブラウザベースのインタラクションはchatgpt.comのようなドメインを経由して行われるが、自動化されたワークフロー、内部ツール、AI エージェントは、プログラムによるアクセスのために api.openai.com などのエンドポイントに依存します。

                                この変化は急速に加速しています。現在、70%の組織がapi.openai.comに接続しています。内部ツールやエージェントシステム全体での非ブラウザ genAI の使用における OpenAI の支配的な役割を反映しています。AssemblyAI は、強力な音声テキスト変換機能とオーディオインテリジェンス機能により、54% で続いています。Anthropic の API は組織の 30% を占めており、これは、推論を多用するタスク、構造化分析、アプリケーション開発において開発者による Claude モデルの採用が増えていることによる傾向です。

                                AI が運用インフラストラクチャに深く浸透するにつれて、API ベースの genAI の使用が加速し、エンタープライズ自動化および AI エージェントが大規模な言語モデルと対話するための主要なチャネルの 1 つになるでしょう。

                                ""

                                エージェント AI の採用が拡大するにつれ、本レポートで前述したデータ漏洩リスク (エージェントが genAI アプリにデータをより高速に送信できるため) が増大するだけでなく、機密データやシステムへのアクセス権を与えられたエージェントがより高い確率で損害を与える可能性があるため、インサイダー リスクも増大します。悪意のある内部関係者がエージェントを利用して組織に損害を与える可能性があるだけでなく、不注意な内部関係者がエージェントを誤って構成したり、不正確に指示したりする可能性もあります。LLM に基づくエージェント システムの非決定性により、これらのリスクはさらに増大します。途中で幻覚が複合して、データの漏洩やその他の組織への損害が発生する可能性があります。

                                エージェント AI の急速な普及と、プラットフォームベースの API 駆動型ワークフローへの移行により、2026 年には厳しいセキュリティ要件が課せられることになります。組織は、これらの自律システムは新たなレベルの効率を可能にする一方で、攻撃対象領域を劇的に拡大し、内部関係者によるデータ漏洩の可能性を加速させることを認識する必要があります。 エージェントのアクセスと自律性が拡大するにつれ、2026 年の成功は、このイノベーションと厳格なセキュリティの近代化を組み合わせることにかかっています。具体的には、継続的な監視、最小権限の原則、およびツールの誤用や意図しないデータ流出のリスクの増大を抑えるための堅牢なエージェント対応制御を実装する必要があります。

                                 

                                個人用クラウドアプリの使用は重大な内部脅威リスクである リンク リンク

                                これまでのところ、このレポートでは、genAI の急速な導入によって生じるサイバーセキュリティの付加的なリスクに焦点を当ててきました。このレポートの残りの部分では、これらの新しいリスクが追加された関連するレガシーリスクに焦点を移します。このセクションでは、引き続き内部データ漏洩リスクの主な要因である個人用クラウド アプリの使用に焦点を当てます。 従業員は利便性、コラボレーション、AI ツールへのアクセスのために個人アカウントに頻繁に依存しており、この行動は機密情報を保護しようとする組織にとって大きな課題をもたらします。

                                インサイダー脅威インシデントの 60% は個人のクラウド アプリ インスタンスに関係しており、規制されたデータ、知的財産、ソース コード、およびクレデンシャルが組織ポリシーに違反して個人のアプリに送信されることが頻繁にあります。 個人アカウント経由のクラウド アプリケーションへのトラフィックは過去 1 年間で基本的に変化がありませんでしたが、組織は防御態勢を強化してきました。個人用アプリに送信されるデータに対してリアルタイム制御を実施している組織の数は 70% から 77% に増加しており、管理されていない環境への機密データの漏洩防止への重点が高まっていることを反映しています。DLP は、個人アプリの使用に関するリスクを軽減するための最も人気のあるツールの 1 つであり、組織の 63% が使用しています。 これは、genAI とは対照的です。genAI では、組織のわずか 50% が、望ましくないデータ漏洩のリスクを軽減するために DLP を使用しています。

                                組織は、パーソナルクラウドや genAI アプリケーションを通じてデータ漏洩のリスクを軽減するためのさまざまな対策を継続的に実施しています。これらの戦略には、個人用アプリへのアップロードをブロックすること、従業員が機密情報を安全に扱えるようにリアルタイムのユーザー ガイダンスを提供すること、管理されていないサービスへの不正なデータ転送を防止するために DLP ソリューションを活用することなどが含まれます。

                                Google ドライブは最も頻繁に制御されるアプリであり、組織の 43% がリアルタイム保護を実装しています。続いて Gmail が 31%、OneDrive が 28% となっています。興味深いことに、個人向け ChatGPT は広く採用されているにもかかわらず、28% で 4 位にランクされており、従来のクラウド プラットフォームと比較して、組織が genAI ツールのガバナンスに関してまだ追いついていないことが示唆されています。これらの数字は、不正なデータ移動を制限し、管理されていないサービスでの個人アカウントの使用に関連するリスクを軽減するための継続的な取り組みを強調しています。

                                ""

                                 

                                個人用アプリにおけるデータポリシー違反

                                過去 1 年間で、個人用クラウド アプリにデータをアップロードするユーザーの割合は 21% 増加しました。現在、平均的な組織内のユーザーの 31% が毎月個人用クラウド アプリにデータをアップロードしています。これは、毎月 AI アプリを操作しているユーザー数 (15%) の 2 倍以上です。AI の導入と同じペースで増加しているわけではありませんが、個人のクラウド アプリにデータを送信する人の数が増えているため、データ セキュリティのリスクが高まっています。

                                組織の 63% は個人アプリへの機密データの移動を監視および管理するために DLP を使用しており、ユーザーが組織ポリシーに違反してアップロードしているデータの種類のスナップショットを提供します。 個人情報、財務情報、医療情報などの規制対象データは、個人用クラウド アプリに関連するデータ ポリシー違反の 54% を占めています。これに対し、知的財産は 22% を占めており、承認された環境から専有情報が流出するリスクが継続していることを反映しています。違反の 15% はソースコード、8% はパスワードと API キーです。

                                2026 年を見据えると、個人向けクラウド アプリの使用によるリスクの増大により、戦略的な重点が求められます。個人用アプリにデータを送信する人の数が増え続けているため、組織は新たな AI リスクに対処する際に個人用アプリのリスクから焦点を逸らさないようにする必要があります。DLP の対象範囲を強化し、従業員教育を改善し、明確なデータ処理ポリシーを厳格に適用して、偶発的および悪意のあるデータ漏洩の脅威の増大を抑制することは、両方の領域でリスクを軽減する効果的な戦略となります。

                                ""

                                 

                                フィッシングは依然として根強い課題である リンク リンク

                                前のセクションでは、主に企業におけるAIの導入とパーソナルクラウドアプリを取り巻く内部者リスクに焦点を当ててきました。 。 このセクションでは、外部の敵対者と、彼らが世界中の組織にもたらし続けている継続的なリスクに焦点を移します。さらに、過去 1 年間のフィッシングの傾向についても調査します。クラウド環境を標的としたフィッシング キャンペーンはますます巧妙化しています。攻撃者は、偽造ログイン ページ、悪意のある OAuth アプリケーション、クレデンシャル Cookie とセッション Cookie をリアルタイムで盗むリバース プロキシ ベースのフィッシング キットにますます依存しています。 組織がより重要なワークフローをクラウド アプリケーションに移行するにつれて、アイデンティティは事実上新しい境界となり、クラウド アプリのクレデンシャル盗難が最も効率的な侵害経路の 1 つとなっています。

                                嬉しいことに、ユーザーの脆弱性は過去 1 年間でわずかに減少しました。フィッシング リンクのクリック数は、昨年の 10,000 ユーザーあたり 119 回から今年は 10,000 ユーザーあたり 87 回に減少し、27% 減少しました。しかし、フィッシングは依然として初期アクセス試行のかなりの部分を占めており、相当数の人が依然としてフィッシングリンクをクリックしていることからもわかるように、完全に軽減するのは依然として困難です。

                                ブランドのなりすましも、依然として主要な戦術となっています。マイクロソフトは、クラウド フィッシング キャンペーンのクリック数の 52% を占め、最もなりすましの被害に遭っているブランドです。これに続いて、Hotmail (11%)、DocuSign (10%) が続きます。 これらの誘惑は、認証フローや文書署名プロンプトを模倣して、クレデンシャルを収集したり、アプリの機密権限を取得したりすることがよくあります。

                                ""

                                増加傾向にあるのが、OAuth 同意フィッシングの悪用です。攻撃者はユーザーを騙して悪意のあるクラウド アプリケーションへのアクセスを許可させ、パスワードと多要素認証 (MFA) を完全に回避します。セッション ハイジャック キットの増加と相まって、フィッシングは単純な電子メール詐欺から、最新のクラウド アプリが認証してユーザーのログイン状態を維持する方法を悪用する高度な技術を駆使した ID レイヤー攻撃へと移行しています。組織は、ユーザー トレーニングや電子メール フィルターだけに頼るのではなく、継続的なセッション監視、トークン保護、異常なアクセス検出を強化する必要があります。

                                最も価値の高いクレデンシャルが住んでいる場所を攻撃者が追跡するにつれて、フィッシングのターゲットは顕著に変化しています。 クラウドおよびSaaSアプリケーションは依然として頻繁に標的となっていますが、銀行ポータルは、 観測されたフィッシング詐欺の 23% を占めており、攻撃者が金融詐欺とアカウント乗っ取りに重点を置いていることを反映しています。 政府サービスも、デジタルIDや国民サービスポータルを悪用して個人情報窃盗や脱税を行う攻撃者によって、21%に急増しました。クラウド生産性スイート、e コマース プラットフォーム、ソーシャル メディアが引き続き上位の標的となっていますが、攻撃者の攻撃の中心となっているのは金融システムと政府システムです。

                                ""

                                最近はユーザーの脆弱性が低下しているにもかかわらず、クリック数が継続的に増加していることからもわかるように、根本的なフィッシングリスクは依然として非常に高いままです。2026 年には、攻撃者が AI を活用して、より高度で超効率的な餌やアイデンティティ層攻撃を仕掛けてくるため、この脅威は加速し、減少傾向も長くは続かないでしょう。成功は、組織が ID を新しい境界として扱い、堅牢な MFA 戦略をどこでも使えるようにし続けるだけでなく、継続的なセッション監視、トークン保護、堅牢な異常アクセス検出を階層化するかどうかにかかっています。

                                 

                                マルウェアは信頼できるチャネルを通じて組織に侵入し続けている リンク リンク

                                2026 年を迎えるにあたり、複合的な脅威モデルの最終層は、外部の敵対者が信頼できるチャネルを悪用し、使い慣れたワークフローを悪用して被害者を騙してマルウェアをインストールさせようとする執拗さです。攻撃者は、ユーザーが使い慣れたプラットフォームと快適に対話できることを知りながら、信頼できるクラウド サービスを悪用してマルウェアを配布することが増えています。 GitHub は依然として最も悪用されるサービスであり、毎月 12% の組織が従業員がアプリケーション経由でマルウェアにさらされていることを検出しています。これに続いて Microsoft OneDrive (10%)、Google Drive (5.8%) が続きます。コラボレーションやソフトウェア開発の分野ではマルウェアが広く使用されているため、プロバイダーがマルウェアを削除する前に感染ファイルを拡散させる理想的なチャネルとなります。

                                ファイルベースの脅威を超えて、ウェブで配信されるマルウェアは量と洗練度が増し続けています。 最近のキャンペーンでは、従来のダウンロードではなく、動的で欺瞞的な Web コンポーネントに依存する傾向が高まっています。 iframe ベースのインジェクションなどの手法では、悪意のある JavaScript をサイレントに読み込む隠しフレームが埋め込まれ、自動リダイレクト、不正なスクリプトの実行、ドライブバイ ダウンロードが可能になります。攻撃者はまた、正規のファイル ダウンロード ワークフローを模倣してクレデンシャルをキャプチャしたりペイロードを配信したりする偽のアップローダーや、対話型要素を使用してユーザーにスクリプトを有効にしたりブラウザ保護を回避させたりする偽の CAPTCHAページも展開します。

                                懸念が高まっているのは、攻撃者が大規模な言語モデルを使用して適応可能な悪意のあるコードを生成したり、難読化を自動化したりするLLM 支援マルウェアの出現です。 この変化により、開発サイクルが高速化され、ペイロードのカスタマイズ性が向上しますが、大規模な検出やブロックはますます困難になります。

                                ""

                                相互接続されたサービス、SaaS プラットフォーム、パッケージ エコシステム間の信頼関係を攻撃者がますます標的とするようになり、ソフトウェア サプライ チェーン攻撃は増加し続けています。最近の例の 1 つは、npm サプライ チェーンを標的としたShai-Hulud活動の新たな波であり、悪意のあるパッケージが開発者ワークフローを通じて有害なコードを配布しようとします。

                                パッケージ エコシステムを超えて、SaaS 間の統合が重大な弱点として浮上し、攻撃者は API 信頼チェーンを悪用してクラウド アプリケーション間を横方向に移動しています。ある注目度の高い事例では、Salesforce が Gainsight 統合を介して許可リストにない IP アドレスから発信された疑わしい API 呼び出しを検出し、関連するアクセス トークンを取り消して機能を制限し、徹底的な調査を開始するよう Salesforce に促しました。

                                もう一つの注目すべきインシデントは、Mandiant/Google によって特定された多段階サプライ チェーン攻撃である、UNC6395 として追跡されたSalesloft の侵害です。攻撃者は監視されていないアプリ間統合、具体的には Salesloft Drift を悪用しており、侵害された SaaS コネクタがデータ盗難の目に見えない経路になる可能性があることを実証しています。

                                これらのインシデントは、2026 年まで続くと予想される傾向を浮き彫りにしています。サプライ チェーン攻撃は、従来のソフトウェア更新から最新のクラウド スタックに移行し、パッケージ レジストリ、自動化パイプライン、相互接続された SaaS エコシステム (セキュリティ制御が断片化または不明瞭になっていることが多い) を標的にしています。この傾向に対抗するために、組織はこれらの信頼関係を詳細に可視化し、セキュリティ スタックが攻撃者がセキュリティ制御を回避して被害者を騙すために使用するさまざまな戦術から防御できるようにすることを優先する必要があります。

                                推奨事項 リンク リンク

                                2026 年のサイバーセキュリティの状況は、生成 AI の急速かつ多くの場合は管理されていない導入によって引き起こされる、複雑性の増大によって根本的に定義されます。この進化は既存の脅威に取って代わるものではなく、むしろそれらの上に新たな、複雑なリスクを重ね合わせたものです。 最も差し迫った課題は、望ましくないデータ漏洩の大幅な増加です。同時に、内部リソース全体で複雑かつ自律的なアクションを実行するエージェント AI システムの出現により、内部者リスクを増幅する広大な新しい攻撃対象領域が生まれ、セキュリティ境界の再評価が必要になります。このような新しい AI 主導の脅威と、信頼できるクラウド チャネルを通じて配信される執拗なフィッシングや攻撃などの従来の懸念事項が組み合わさっているため、セキュリティ チームは付加的な脅威モデルを管理する必要があり、来年は監視、DLP 制御、AI 対応のセキュリティ体制の強化が不可欠になります。

                                Netskope Threat Labs は、このレポートで明らかになった傾向に基づき、組織がセキュリティ体制全体を改めて見直すことを強く推奨しています。

                                • すべてのウェブおよびクラウド トラフィックを含むすべての HTTP および HTTPS ダウンロードを検査して、マルウェアがネットワークに侵入するのを防ぎます。 Netskopeお客様は、すべてのカテゴリからのダウンロードとすべてのファイル タイプに適用される脅威保護ポリシーを使用して、 Netskope One Next Gen Secure Web Gateway構成できます。
                                • 正当な業務目的を持たないアプリや、組織に不均衡なリスクをもたらすアプリへのアクセスをブロックしてください。推奨されるアプローチは、現在業務で使用している信頼できるアプリのみを許可し、それ以外をすべてブロックするポリシーから始めることです。
                                • DLP ポリシー ソース コード、規制対象データ、パスワードとキー、知的財産、暗号化などの潜在的に機密性の高い情報を検出します。
                                • 使う新たに確認されたドメインや新たに登録されたドメインなど、より高いリスクをもたらす可能性のあるカテゴリに該当するWebサイトにアクセスする必要がある場合に、追加の保護を提供するRemote Browser Isolation 分離(RBI)テクノロジー。

                                 

                                Netskope Threat Labs リンク リンク

                                Netskope Threat Labsは、業界をリードするクラウド脅威およびマルウェアの研究者が配置されており、企業に影響を与える最新のクラウド脅威に対する防御を発見、分析、および設計しています。当社の研究者は、DefCon、BlackHat、RSAなどの主要なセキュリティカンファレンスで定期的にプレゼンターやボランティアとして活躍しています。

                                 

                                このレポートについて リンク リンク

                                Netskope は、世界中の何百万ものユーザーに脅威からの保護を提供します。このレポートで提示される情報は、 Netskope One プラットフォームによって収集された匿名の使用データに基づいています。

                                このレポートの統計は、2024 年 10 月 1 日から 2025 年 10 月 31 日までの期間に基づいています。統計は、攻撃者の戦術、ユーザーの行動、組織のポリシーを反映します。

                                AI CyberSprintをプレイ - 究極のオンラインレースカーゲーム