Netskope named a Leader in the 2024 Gartner® Magic Quadrant™ for Security Service Edge. Get the report

閉める
閉める
  • Netskopeが選ばれる理由 シェブロン

    ネットワークとセキュリティの連携方法を変える。

  • 導入企業 シェブロン

    Netskope は世界中で 3,000 を超える顧客にサービスを提供しており、その中にはフォーチュン 100 企業の 25 以上が含まれます

  • パートナー シェブロン

    私たちはセキュリティリーダーと提携して、クラウドへの旅を保護します。

Still Highest in Execution.
Still Furthest in Vision.

Learn why 2024 Gartner® Magic Quadrant™ named Netskope a Leader for Security Service Edge the third consecutive year.

レポートを読む
Netskope Named a Leader in the 2024 Gartner® Magic Quadrant™ for Security Service Edge graphic for menu
私たちは、お客様が何にでも備えることができるように支援します

お客様について
窓の外を見て微笑むメガネをかけた女性
Netskopeのパートナー中心の市場開拓戦略により、パートナーは企業のセキュリティを変革しながら、成長と収益性を最大化できます。

Netskope パートナーについて学ぶ
色々な若い専門家が集う笑顔のグループ
明日に向けたネットワーク

サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。

ホワイトペーパーはこちら
明日に向けたネットワーク
Netskope One プラットフォームの紹介

Netskope One は、SASE とゼロトラスト変革を可能にする統合型セキュリティおよびネットワーキング サービスを提供するクラウドネイティブ プラットフォームです。

Netskope One について学ぶ
青い照明の抽象画
セキュアアクセスサービスエッジ(SASE)アーキテクチャの採用

Netskope NewEdgeは、世界最大かつ最高のパフォーマンスのセキュリティプライベートクラウドであり、比類のないサービスカバレッジ、パフォーマンス、および回復力を顧客に提供します。

NewEdgeの詳細
NewEdge
Netskope Cloud Exchange

Netskope Cloud Exchange (CE) は、セキュリティポスチャに対する投資を活用するための強力な統合ツールを提供します。

Cloud Exchangeについて学ぶ
Netskopeの動画
  • セキュリティサービスエッジ製品 シェブロン

    高度なクラウド対応の脅威から保護し、あらゆるベクトルにわたってデータを保護

  • Borderless SD-WAN シェブロン

    すべてのリモートユーザー、デバイス、サイト、クラウドへ安全で高性能なアクセスを提供

  • Secure Access Service Edge シェブロン

    Netskope One SASE は、クラウドネイティブで完全に統合された単一ベンダーの SASE ソリューションを提供します。

未来のプラットフォームはNetskopeです

インテリジェントセキュリティサービスエッジ(SSE)、クラウドアクセスセキュリティブローカー(CASB)、クラウドファイアウォール、セキュアウェブゲートウェイ(SWG)、およびZTNAのプライベートアクセスは、単一のソリューションにネイティブに組み込まれており、セキュアアクセスサービスエッジ(SASE)アーキテクチャへの道のりですべてのビジネスを支援します。

製品概要はこちら
Netskopeの動画
Next Gen SASE Branch はハイブリッドである:接続、保護、自動化

Netskope Next Gen SASE Branchは、コンテキストアウェアSASEファブリック、ゼロトラストハイブリッドセキュリティ、 SkopeAI-Powered Cloud Orchestrator を統合クラウド製品に統合し、ボーダレスエンタープライズ向けに完全に最新化されたブランチエクスペリエンスを実現します。

Next Gen SASE Branchの詳細はこちら
オープンスペースオフィスの様子
SASEアーキテクチャの設計 For Dummies

SASE設計について網羅した電子書籍を無償でダウンロード

電子書籍を入手する
最小の遅延と高い信頼性を備えた、市場をリードするクラウドセキュリティサービスに移行します。

NewEdgeの詳細
山腹のスイッチバックを通るライトアップされた高速道路
アプリケーションのアクセス制御、リアルタイムのユーザーコーチング、クラス最高のデータ保護により、生成型AIアプリケーションを安全に使用できるようにします。

生成AIの使用を保護する方法を学ぶ
ChatGPTと生成AIを安全に有効にする
SSEおよびSASE展開のためのゼロトラストソリューション

ゼロトラストについて学ぶ
大海原を走るボート
NetskopeがFedRAMPの高認証を達成

政府機関の変革を加速するには、Netskope GovCloud を選択してください。

Netskope GovCloud について学ぶ
Netskope GovCloud
  • リソース シェブロン

    クラウドへ安全に移行する上でNetskopeがどのように役立つかについての詳細は、以下をご覧ください。

  • ブログ シェブロン

    Netskope がセキュリティ サービス エッジ (SSE) を通じてセキュリティとネットワークの変革を実現する方法を学びます

  • イベント&ワークショップ シェブロン

    最新のセキュリティトレンドを先取りし、仲間とつながりましょう。

  • 定義されたセキュリティ シェブロン

    サイバーセキュリティ百科事典、知っておくべきすべてのこと

「セキュリティビジョナリー」ポッドキャスト

How to Use a Magic Quadrant and Other Industry Research
このエピソードでは、マックス・ヘイビー、スティーブ・ライリー、モナ・フォークナーが、マジック・クアドラントを作成する複雑なプロセスと、それが単なるチャート以上のものである理由を分析します。

ポッドキャストを再生する
マジック・クアドラントとその他の業界調査の活用方法ポッドキャスト
最新のブログ

Netskope がセキュリティ サービス エッジ (SSE) 機能を通じてゼロ トラストと SASE の導入をどのように実現できるかをご覧ください。

ブログを読む
日の出と曇り空
SASE Week 2023年:SASEの旅が今始まります!

第4回 SASE Weekのリプレイセッション。

セッションの詳細
SASE Week 2023
セキュリティサービスエッジとは

SASEのセキュリティ面、ネットワークとクラウドでの保護の未来を探ります。

セキュリティサービスエッジの詳細
4方向ラウンドアバウト
  • 会社概要 シェブロン

    クラウド、データ、ネットワークセキュリティの課題に対して一歩先を行くサポートを提供

  • リーダーシップ シェブロン

    Netskopeの経営陣はお客様を成功に導くために全力を尽くしています。

  • カスタマーソリューション シェブロン

    お客様の成功のために、Netskopeはあらゆるステップを支援いたします。

  • トレーニングと認定 シェブロン

    Netskopeのトレーニングで、クラウドセキュリティのスキルを学ぶ

データセキュリティによる持続可能性のサポート

Netskope は、持続可能性における民間企業の役割についての認識を高めることを目的としたイニシアチブである「ビジョン2045」に参加できることを誇りに思っています。

詳しくはこちら
データセキュリティによる持続可能性のサポート
思想家、建築家、夢想家、革新者。 一緒に、私たちはお客様がデータと人々を保護するのを助けるために最先端のクラウドセキュリティソリューションを提供します。

当社のチーム紹介
雪山を登るハイカーのグループ
Netskopeの有能で経験豊富なプロフェッショナルサービスチームは、実装を成功させるための規範的なアプローチを提供します。

プロフェッショナルサービスについて学ぶ
Netskopeプロフェッショナルサービス
Netskopeトレーニングで、デジタルトランスフォーメーションの旅を保護し、クラウド、ウェブ、プライベートアプリケーションを最大限に活用してください。

トレーニングと認定資格について学ぶ
働く若い専門家のグループ

Five Principles for the Responsible Use, Adoption and Development of AI

Mar 13 2024

We have been fantasising about artificial intelligence for a long time. This obsession materialises in some cultural masterpieces, with movies or books such as 2001: A Space Odyssey, Metropolis, Blade Runner, The Matrix, I, Robot, Westworld, and more. Most raise deep philosophical questions about human nature, but also explore the potential behaviours and ethics of artificial intelligence, usually through a rather pessimistic lens. Although they are only works of fiction, this goes to show how wary we are about our creations becoming our masters.

The democratisation of AI reached a new step when large language models emerged. But for all the praise they have received, they have rung an equivalent amount of alarm bells. We have quickly witnessed flaws inherent in these new AI models, such as hallucinations, or unethical usage including misinformation and copyright infringements, raising concerns and calls from the brightest minds in the space. Their points were that we shouldn’t enter an AI innovation race  without considering the right security and ethical guardrails to mitigate the threat of AI for malicious purposes, or the creation of defective AI systems that could have strong ramifications on our society. 

Conversations about regulating AI are happening worldwide, which should help foster healthy progress. Members of the EU are leading this effort, and already agreed the AI Act back in December, which is hoped to influence other regulations globally, comparable to what the GDPR did for global privacy. In November, a number of nations also signed an agreement to make security the number one priority in AI design requirements. 

It is reassuring to see proactive governments starting to adopt AI legislation and regulations, but the legislative pace is such that we could still be a couple of years away from them having an actual impact on mitigating the unethical and unsafe use of the technology. In the meantime, organisations need to take the matter into their own hands. More companies than ever will have the opportunity to consume, experiment with, integrate, and develop AI systems in the upcoming months and years, and there are existing principles that should be considered and used as guidelines to do so responsibly. 

  1. Security and privacy covers four pillars: 
  • Using AI securely, for example by ensuring that sensitive data is not exposed to public GenAI tools, and privacy is not jeopardised. It also means considering the ethical aspects. Some jurisdictions have started penalising companies using biased AI, which may become an AI regulation standard in the future.
  • Protecting the organisation against AI attacks. I mentioned that AI is a new ecosystem for threat actors to target, and organisations should keep abreast of this and protect their system and people from the various and emerging threats
  • Building AI securely by adopting privacy by design and security by design processes. This also includes securing the environment and supply chain in which the AI is being developed. 
  • Protecting AI models and their training data in production, especially from threats such as data poisoning, which could make the model defective and/or biased. 
  1. Transparency and explainability are necessary for organisations developing AI. It means that the black box decisions and outputs of the AI system should be easy to explain and demonstrate if necessary. They should also be traceable, and expected. 
  1. Reflections around bias and fairness are also critical. Organisations developing AI models need to ensure they are built without bias and ensure their fairness in the long-term. This can be done by applying: 
  • Pre-processing; mitigation methods applied to the training dataset before a model is trained on it
  • In-processing; mitigation techniques incorporated into the model training process itself. 
  • Post-processing methods work on the predictions of the model to achieve the desirable fairness. 
  1. Inclusive collaboration means ensuring various stakeholders and teams (business, risk, legal and compliance, security, public relations, etc.) are engaged in the AI design and oversight process, and the use of AI is assessed across all areas. Having various stakeholders involved contributes to the prevention of bias, and to the quality of the outcome.
  1. Finally, it is essential to define ownership and accountability for each AI system in use. Whose responsibility is it to ensure that an AI tool continues to operate appropriately and who is accountable when something goes wrong? And what are the potential legal and regulatory implications for the organisation and the accountable individual(s)? 

As we wait for more regulations, there will be further development in AI innovation, and these five principles should spawn a race to the top for responsible AI and AI safety which in itself is a differentiator becoming a competitive advantage.

author image
David Fairman
David Fairman is an experienced CSO/CISO, strategic advisory, investor and coach. He has extensive experience in the global financial services sector. In 2015, David was named as one of the Top 10 CISOs to know, and is seen as a thought leader in the cyber security industry as profiled by K-Logix.

Stay informed!

Subscribe for the latest from the Netskope Blog