Netskope named a Leader in the 2024 Gartner® Magic Quadrant™ for Security Service Edge. Get the report

閉める
閉める
  • Netskopeが選ばれる理由 シェブロン

    ネットワークとセキュリティの連携方法を変える。

  • 導入企業 シェブロン

    Netskope は世界中で 3,000 を超える顧客にサービスを提供しており、その中にはフォーチュン 100 企業の 25 以上が含まれます

  • パートナー シェブロン

    私たちはセキュリティリーダーと提携して、クラウドへの旅を保護します。

Still Highest in Execution.
Still Furthest in Vision.

Learn why 2024 Gartner® Magic Quadrant™ named Netskope a Leader for Security Service Edge the third consecutive year.

レポートを読む
Netskope Named a Leader in the 2024 Gartner® Magic Quadrant™ for Security Service Edge graphic for menu
私たちは、お客様が何にでも備えることができるように支援します

お客様について
窓の外を見て微笑むメガネをかけた女性
Netskopeのパートナー中心の市場開拓戦略により、パートナーは企業のセキュリティを変革しながら、成長と収益性を最大化できます。

Netskope パートナーについて学ぶ
色々な若い専門家が集う笑顔のグループ
明日に向けたネットワーク

サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。

ホワイトペーパーはこちら
明日に向けたネットワーク
Netskope One プラットフォームの紹介

Netskope One は、SASE とゼロトラスト変革を可能にする統合型セキュリティおよびネットワーキング サービスを提供するクラウドネイティブ プラットフォームです。

Netskope One について学ぶ
青い照明の抽象画
セキュアアクセスサービスエッジ(SASE)アーキテクチャの採用

Netskope NewEdgeは、世界最大かつ最高のパフォーマンスのセキュリティプライベートクラウドであり、比類のないサービスカバレッジ、パフォーマンス、および回復力を顧客に提供します。

NewEdgeの詳細
NewEdge
Netskope Cloud Exchange

Netskope Cloud Exchange (CE) は、セキュリティポスチャに対する投資を活用するための強力な統合ツールを提供します。

Cloud Exchangeについて学ぶ
Netskopeの動画
  • セキュリティサービスエッジ製品 シェブロン

    高度なクラウド対応の脅威から保護し、あらゆるベクトルにわたってデータを保護

  • Borderless SD-WAN シェブロン

    すべてのリモートユーザー、デバイス、サイト、クラウドへ安全で高性能なアクセスを提供

  • Secure Access Service Edge シェブロン

    Netskope One SASE は、クラウドネイティブで完全に統合された単一ベンダーの SASE ソリューションを提供します。

未来のプラットフォームはNetskopeです

インテリジェントセキュリティサービスエッジ(SSE)、クラウドアクセスセキュリティブローカー(CASB)、クラウドファイアウォール、セキュアウェブゲートウェイ(SWG)、およびZTNAのプライベートアクセスは、単一のソリューションにネイティブに組み込まれており、セキュアアクセスサービスエッジ(SASE)アーキテクチャへの道のりですべてのビジネスを支援します。

製品概要はこちら
Netskopeの動画
Next Gen SASE Branch はハイブリッドである:接続、保護、自動化

Netskope Next Gen SASE Branchは、コンテキストアウェアSASEファブリック、ゼロトラストハイブリッドセキュリティ、 SkopeAI-Powered Cloud Orchestrator を統合クラウド製品に統合し、ボーダレスエンタープライズ向けに完全に最新化されたブランチエクスペリエンスを実現します。

Next Gen SASE Branchの詳細はこちら
オープンスペースオフィスの様子
SASEアーキテクチャの設計 For Dummies

SASE設計について網羅した電子書籍を無償でダウンロード

電子書籍を入手する
最小の遅延と高い信頼性を備えた、市場をリードするクラウドセキュリティサービスに移行します。

NewEdgeの詳細
山腹のスイッチバックを通るライトアップされた高速道路
アプリケーションのアクセス制御、リアルタイムのユーザーコーチング、クラス最高のデータ保護により、生成型AIアプリケーションを安全に使用できるようにします。

生成AIの使用を保護する方法を学ぶ
ChatGPTと生成AIを安全に有効にする
SSEおよびSASE展開のためのゼロトラストソリューション

ゼロトラストについて学ぶ
大海原を走るボート
NetskopeがFedRAMPの高認証を達成

政府機関の変革を加速するには、Netskope GovCloud を選択してください。

Netskope GovCloud について学ぶ
Netskope GovCloud
  • リソース シェブロン

    クラウドへ安全に移行する上でNetskopeがどのように役立つかについての詳細は、以下をご覧ください。

  • ブログ シェブロン

    Netskope がセキュリティ サービス エッジ (SSE) を通じてセキュリティとネットワークの変革を実現する方法を学びます

  • イベント&ワークショップ シェブロン

    最新のセキュリティトレンドを先取りし、仲間とつながりましょう。

  • 定義されたセキュリティ シェブロン

    サイバーセキュリティ百科事典、知っておくべきすべてのこと

「セキュリティビジョナリー」ポッドキャスト

How to Use a Magic Quadrant and Other Industry Research
このエピソードでは、マックス・ヘイビー、スティーブ・ライリー、モナ・フォークナーが、マジック・クアドラントを作成する複雑なプロセスと、それが単なるチャート以上のものである理由を分析します。

ポッドキャストを再生する
マジック・クアドラントとその他の業界調査の活用方法ポッドキャスト
最新のブログ

Netskope がセキュリティ サービス エッジ (SSE) 機能を通じてゼロ トラストと SASE の導入をどのように実現できるかをご覧ください。

ブログを読む
日の出と曇り空
SASE Week 2023年:SASEの旅が今始まります!

第4回 SASE Weekのリプレイセッション。

セッションの詳細
SASE Week 2023
セキュリティサービスエッジとは

SASEのセキュリティ面、ネットワークとクラウドでの保護の未来を探ります。

セキュリティサービスエッジの詳細
4方向ラウンドアバウト
  • 会社概要 シェブロン

    クラウド、データ、ネットワークセキュリティの課題に対して一歩先を行くサポートを提供

  • リーダーシップ シェブロン

    Netskopeの経営陣はお客様を成功に導くために全力を尽くしています。

  • カスタマーソリューション シェブロン

    お客様の成功のために、Netskopeはあらゆるステップを支援いたします。

  • トレーニングと認定 シェブロン

    Netskopeのトレーニングで、クラウドセキュリティのスキルを学ぶ

データセキュリティによる持続可能性のサポート

Netskope は、持続可能性における民間企業の役割についての認識を高めることを目的としたイニシアチブである「ビジョン2045」に参加できることを誇りに思っています。

詳しくはこちら
データセキュリティによる持続可能性のサポート
思想家、建築家、夢想家、革新者。 一緒に、私たちはお客様がデータと人々を保護するのを助けるために最先端のクラウドセキュリティソリューションを提供します。

当社のチーム紹介
雪山を登るハイカーのグループ
Netskopeの有能で経験豊富なプロフェッショナルサービスチームは、実装を成功させるための規範的なアプローチを提供します。

プロフェッショナルサービスについて学ぶ
Netskopeプロフェッショナルサービス
Netskopeトレーニングで、デジタルトランスフォーメーションの旅を保護し、クラウド、ウェブ、プライベートアプリケーションを最大限に活用してください。

トレーニングと認定資格について学ぶ
働く若い専門家のグループ

AI Assistants: A New Challenge for CISOs

Mar 27 2024

Over the past year, AI innovation has swept through the workplace. Across industries and all team functions, we are seeing employees using AI assistants to streamline various tasks, including taking minutes, writing emails, developing code, crafting marketing strategies and even helping with managing company finances. As a CISO, I’m already envisaging an AI assistant which will help me with compliance strategy by actively monitoring regulatory changes, evaluating an organisation’s compliance status, and identifying areas for improvement. 

However, amidst all this enthusiasm, there is a very real challenge facing CISOs and DPOs: how to protect corporate data and IP from leakage through these generative AI platforms and to third party providers.

Curiosity won’t kill the CISO

While many enterprises have contemplated completely blocking these tools on their systems, to do so could limit innovation, create a culture of distrust toward those in the workforce, or even lead to “Shadow AI”—the unapproved use of third-party AI applications outside of the corporate network. To a certain extent, the horse has already bolted. Data shows that within enterprises, AI assistants are already integrated into day-to-day tasks. Writing assistant Grammarly, the second most popular generative AI app, is currently used by 3.1% of employees, and I’ve noticed around a third of the conference calls I attend now have an AI assistant on the guest list. With the increasing availability of AI assistants like Microsoft Copilot Motion, the researchers at Netskope Threat Labs are clear that they expect AI assistants to grow in popularity in 2024.

Instead of blocking the tools outright, CISOs can deploy continuous protection policies using intelligent Data Loss Prevention (DLP) tools to safely use AI applications. DLP tools can ensure no sensitive information is used within input queries to AI applications, protecting critical data and preventing unauthorised access, leaks, or misuse. 

CISOs should also take an active role in evaluating the applications used by employees, restricting access to those that do not align with business needs or pose an undue risk.

Once a CISO identifies an AI assistant as relevant to their organisation, the next step involves vetting the vendor and assessing its data policies. During this process, CISOs should equip themselves with an extensive list of questions, including: 

  1. Data handling practices: What becomes of the data an employee inputs?

    Understanding how the vendor manages and protects the data is crucial for ensuring data privacy and security. A study by The World Economic Forum found that a staggering 95% of cybersecurity incidents stem from human error–and entrusting sensitive data to a third-party AI assistant can exacerbate this risk. 

    There’s even greater cause for pause; by feeding data into these tools, organisations may be inadvertently contributing to the training of potentially competitive AI models. This can lead to a scenario where proprietary information or insights about the organisation’s operations can be leveraged by competitors, posing significant risks to the organisation’s competitive advantage and market position.
  1. Is the model used for additional services privately or publicly? Is the model developed by the company itself or based upon a third-party solution? 

    Many AI assistant apps used by employees often depend on third-party and fourth-party services. It’s common for employees to use apps without being aware that the backend infrastructure operates on a publicly accessible platform. As CISOs, we are particularly mindful of the significant costs associated with AI technology and so we know that free or inexpensive options make their money in other ways—selling data or the AI intelligence that it has contributed towards. In such cases, a thorough examination of the fine print becomes imperative for CISOs to ensure the protection and privacy of sensitive data. 
  1. What happens to the output? Are these outputs employed to train subsequent models?

    Many AI vendors do not just use the data input to train their models—they also use the data output. This loop creates ever more tangled ways in which the apps could inadvertently expose sensitive company information or lead to copyright infringement—and can be hard to untangle in supply chain data protection planning. 

Looking within

As private enterprises await stronger legislative guidance on AI, it falls on CISOs and DPOs to promote self-regulation and ethical AI practices within their organisations. With the proliferation of AI assistants, it is crucial they act now to evaluate the implications of AI tools in the workplace. Every employee will soon be performing many day-to-day tasks in conjunction with their AI assistants. This should motivate companies to set up internal governance committees not just to evaluate tools and their applications, but to also discuss AI ethics, review processes, and discuss strategy in advance of more widespread adoption and regulation. This is exactly how we are approaching the challenge within the security teams here at Netskope; with an AI governance committee responsible for our AI strategy and who have built the mechanisms to properly inspect emerging vendors and their data processing approaches. 

Employees across all industries and all levels can benefit from an AI assistant, with Bill Gates saying “they will utterly change how we live our lives, online and off.” For CISOs, the key to unlocking their potential starts with responsible governance.

author image
Neil Thacker
Neil Thacker is a veteran information security professional and a data protection and privacy expert well-versed in the European Union General Data Protection Regulation (EU GDPR).

Stay informed!

Subscribe for the latest from the Netskope Blog