Netskope named a Leader in the 2024 Gartner® Magic Quadrant™ for Security Service Edge. Get the report

閉める
閉める
  • Netskopeが選ばれる理由 シェブロン

    ネットワークとセキュリティの連携方法を変える。

  • 導入企業 シェブロン

    Netskope は世界中で 3,000 を超える顧客にサービスを提供しており、その中にはフォーチュン 100 企業の 25 以上が含まれます

  • パートナー シェブロン

    私たちはセキュリティリーダーと提携して、クラウドへの旅を保護します。

Still Highest in Execution.
Still Furthest in Vision.

Learn why 2024 Gartner® Magic Quadrant™ named Netskope a Leader for Security Service Edge the third consecutive year.

レポートを読む
Netskope Named a Leader in the 2024 Gartner® Magic Quadrant™ for Security Service Edge graphic for menu
私たちは、お客様が何にでも備えることができるように支援します

お客様について
窓の外を見て微笑むメガネをかけた女性
Netskopeのパートナー中心の市場開拓戦略により、パートナーは企業のセキュリティを変革しながら、成長と収益性を最大化できます。

Netskope パートナーについて学ぶ
色々な若い専門家が集う笑顔のグループ
明日に向けたネットワーク

サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。

ホワイトペーパーはこちら
明日に向けたネットワーク
Netskope One プラットフォームの紹介

Netskope One は、SASE とゼロトラスト変革を可能にする統合型セキュリティおよびネットワーキング サービスを提供するクラウドネイティブ プラットフォームです。

Netskope One について学ぶ
青い照明の抽象画
セキュアアクセスサービスエッジ(SASE)アーキテクチャの採用

Netskope NewEdgeは、世界最大かつ最高のパフォーマンスのセキュリティプライベートクラウドであり、比類のないサービスカバレッジ、パフォーマンス、および回復力を顧客に提供します。

NewEdgeの詳細
NewEdge
Netskope Cloud Exchange

Netskope Cloud Exchange (CE) は、セキュリティポスチャに対する投資を活用するための強力な統合ツールを提供します。

Cloud Exchangeについて学ぶ
Netskopeの動画
  • セキュリティサービスエッジ製品 シェブロン

    高度なクラウド対応の脅威から保護し、あらゆるベクトルにわたってデータを保護

  • Borderless SD-WAN シェブロン

    すべてのリモートユーザー、デバイス、サイト、クラウドへ安全で高性能なアクセスを提供

  • Secure Access Service Edge シェブロン

    Netskope One SASE は、クラウドネイティブで完全に統合された単一ベンダーの SASE ソリューションを提供します。

未来のプラットフォームはNetskopeです

インテリジェントセキュリティサービスエッジ(SSE)、クラウドアクセスセキュリティブローカー(CASB)、クラウドファイアウォール、セキュアウェブゲートウェイ(SWG)、およびZTNAのプライベートアクセスは、単一のソリューションにネイティブに組み込まれており、セキュアアクセスサービスエッジ(SASE)アーキテクチャへの道のりですべてのビジネスを支援します。

製品概要はこちら
Netskopeの動画
Next Gen SASE Branch はハイブリッドである:接続、保護、自動化

Netskope Next Gen SASE Branchは、コンテキストアウェアSASEファブリック、ゼロトラストハイブリッドセキュリティ、 SkopeAI-Powered Cloud Orchestrator を統合クラウド製品に統合し、ボーダレスエンタープライズ向けに完全に最新化されたブランチエクスペリエンスを実現します。

Next Gen SASE Branchの詳細はこちら
オープンスペースオフィスの様子
SASEアーキテクチャの設計 For Dummies

SASE設計について網羅した電子書籍を無償でダウンロード

電子書籍を入手する
最小の遅延と高い信頼性を備えた、市場をリードするクラウドセキュリティサービスに移行します。

NewEdgeの詳細
山腹のスイッチバックを通るライトアップされた高速道路
アプリケーションのアクセス制御、リアルタイムのユーザーコーチング、クラス最高のデータ保護により、生成型AIアプリケーションを安全に使用できるようにします。

生成AIの使用を保護する方法を学ぶ
ChatGPTと生成AIを安全に有効にする
SSEおよびSASE展開のためのゼロトラストソリューション

ゼロトラストについて学ぶ
大海原を走るボート
NetskopeがFedRAMPの高認証を達成

政府機関の変革を加速するには、Netskope GovCloud を選択してください。

Netskope GovCloud について学ぶ
Netskope GovCloud
  • リソース シェブロン

    クラウドへ安全に移行する上でNetskopeがどのように役立つかについての詳細は、以下をご覧ください。

  • ブログ シェブロン

    Netskope がセキュリティ サービス エッジ (SSE) を通じてセキュリティとネットワークの変革を実現する方法を学びます

  • イベント&ワークショップ シェブロン

    最新のセキュリティトレンドを先取りし、仲間とつながりましょう。

  • 定義されたセキュリティ シェブロン

    サイバーセキュリティ百科事典、知っておくべきすべてのこと

「セキュリティビジョナリー」ポッドキャスト

How to Use a Magic Quadrant and Other Industry Research
このエピソードでは、マックス・ヘイビー、スティーブ・ライリー、モナ・フォークナーが、マジック・クアドラントを作成する複雑なプロセスと、それが単なるチャート以上のものである理由を分析します。

ポッドキャストを再生する
マジック・クアドラントとその他の業界調査の活用方法ポッドキャスト
最新のブログ

Netskope がセキュリティ サービス エッジ (SSE) 機能を通じてゼロ トラストと SASE の導入をどのように実現できるかをご覧ください。

ブログを読む
日の出と曇り空
SASE Week 2023年:SASEの旅が今始まります!

第4回 SASE Weekのリプレイセッション。

セッションの詳細
SASE Week 2023
セキュリティサービスエッジとは

SASEのセキュリティ面、ネットワークとクラウドでの保護の未来を探ります。

セキュリティサービスエッジの詳細
4方向ラウンドアバウト
  • 会社概要 シェブロン

    クラウド、データ、ネットワークセキュリティの課題に対して一歩先を行くサポートを提供

  • リーダーシップ シェブロン

    Netskopeの経営陣はお客様を成功に導くために全力を尽くしています。

  • カスタマーソリューション シェブロン

    お客様の成功のために、Netskopeはあらゆるステップを支援いたします。

  • トレーニングと認定 シェブロン

    Netskopeのトレーニングで、クラウドセキュリティのスキルを学ぶ

データセキュリティによる持続可能性のサポート

Netskope は、持続可能性における民間企業の役割についての認識を高めることを目的としたイニシアチブである「ビジョン2045」に参加できることを誇りに思っています。

詳しくはこちら
データセキュリティによる持続可能性のサポート
思想家、建築家、夢想家、革新者。 一緒に、私たちはお客様がデータと人々を保護するのを助けるために最先端のクラウドセキュリティソリューションを提供します。

当社のチーム紹介
雪山を登るハイカーのグループ
Netskopeの有能で経験豊富なプロフェッショナルサービスチームは、実装を成功させるための規範的なアプローチを提供します。

プロフェッショナルサービスについて学ぶ
Netskopeプロフェッショナルサービス
Netskopeトレーニングで、デジタルトランスフォーメーションの旅を保護し、クラウド、ウェブ、プライベートアプリケーションを最大限に活用してください。

トレーニングと認定資格について学ぶ
働く若い専門家のグループ

Navigating the Complex AI Regulatory Landscape – Transparency, Data, and Ethics

Oct 24 2023

Ahead of the upcoming AI Safety Summit to be held at the UK’s famous Bletchley Park in November, I wanted to outline three areas that I would like to see the summit address, to help simplify the complex AI regulatory landscape. 

When we start any conversation about the risks and potential use cases for an artificial intelligence (AI) or machine learning (ML) technology, we must be able to answer three key questions: 

  • What AI models are being used? 
  • What data is being fed into them? 
  • What outputs do they produce? 

I discussed these questions on the recent episode of Netskope’s Security Visionaries podcast with Yihua Liao, Head of Netskope AI Labs, and Suzanne Oliver, Director of IP Strategy at Scintilla. We had a lively conversation about transparency, data, responsibility and regulation in this complex AI landscape. 

Transparency and models

Before we talk about AI, we first need to be clear about what we’re discussing—starting with the differentiation between technologies, specifically artificial intelligence (AI) and machine learning (ML). As early media coverage fixated on ChatGPT, we have found ourselves in a confusing landscape where many people misconstrue ChatGPT with artificial intelligence or machine learning in much the same way we conflate Google and search engines. 

Understanding the model being used is an essential element because of its potential to take the exact same data set, and draw wildly different conclusions based upon its biases—conscious or unconscious—that are ingrained from the outset. More importantly, without a clear understanding of the model, a business cannot determine if outputs from the platform fit within its own risk and ethics criteria.  

When considering regulations around specific models, there is currently little to influence the process or algorithms themselves, but we should be mindful of regulations around the eventual outputs. For example, an HR tool that uses machine learning to screen job applications could put a company at risk from discrimination legislation without strict efforts to mitigate bias. Similarly, an ML tool that can identify images of passports, drivers licences, and credit cards will be subject to personal data regulations. 

With so much variation in AI and ML models, it raises the question of whether regulators could help standardise the risk parameters for these models to give industry greater reassurance when onboarding a solution. For example, in the automotive industry we have clearly defined levels of autonomy for driverless vehicles, enabling car companies to innovate within a comfortable set of parameters. As AI sits on such a broad spectrum, from ML data processing to generative AI, there is perhaps an interesting opportunity for regulators to bring clarity to what is a complex sector.  

AI data supply chain

Before regulators leap into action on how they could control the development and use of AI, we should first take a look at how existing regulations could be applied to AI. 

AI and machine learning tools are highly reliant on a reliable data supply chain and IT and security leaders are already working to ensure compliance to a raft of data legislation—and swimming in acronyms like HIPAA, GLBA, COPPA, CCPA and GDPR. Ever since the introduction of GDPR in 2018, CISOs and IT leaders have been required to make clear what data they collect, process, and store, and for what purpose, with stipulations over individual users’ rights to control the use of their data. Leaders have rightly been concerned about how deploying AI and ML tools would impact their ability to meet these existing regulatory requirements. 

Businesses are asking both regulators and AI companies for the same thing—clarity. Clarity on how existing regulations will be applied to AI tools, and—if that changes—how it impacts their status as data processors. AI companies should make every effort to be transparent with customers through partnership agreements and terms of service on how their tools comply with existing regulations particularly in relation to the data collected, how it’s stored or processed, and the mechanisms for customers to restrict these actions.  

Responsible development

In lieu of regulators bringing clarity to the AI landscape, it falls on technology leaders to promote self-regulation and ethical AI practices within their organisations to ensure that the outputs of AI technologies are safe and beneficial for society. Many companies have already published their own guiding principles for responsible AI use, and they share many consistent themes of accountability, reliability, fairness, transparency, privacy, and security. 

If they aren’t already, technology leaders should be acting now to evaluate the implications of incorporating AI into their products. Companies should be setting up internal governance committees to discuss AI ethics, to evaluate tools and their applications within their own businesses, review processes, and discuss strategy in advance of more widespread regulation. 

Although it is apparently not a focus for the upcoming AI Safety Summit, the establishment of a regulatory body (similar to the International Atomic Energy Agency (IAEA) or European Medicines Agency (EMA)) would go a long way to setting a global framework for regulating AI. This body could help bring standardisation and set the criteria for continuous assessments of tools to ensure they adhere to these standards as models learn and grow. 

An intelligent future

AI has the potential to transform our lives but it cannot be at the expense of the fundamental principles on data rights and privacy that we have today. Regulators need to find a delicate balance that protects individuals without stifling innovation.  

After government and industry leaders meet at Bletchley Park, the first outcome I would like to see is a greater emphasis placed on bringing transparency to the current AI landscape. Rather than relying on goodwill and voluntary codes of conduct, AI companies should be required to be transparent over the models and technologies behind their tools. This will allow businesses and customers to make more informed decisions in their adoption and give them greater autonomy over their data.

author image
Neil Thacker
Neil Thacker is a veteran information security professional and a data protection and privacy expert well-versed in the European Union General Data Protection Regulation (EU GDPR).

Stay informed!

Subscribe for the latest from the Netskope Blog