ネットスコープは2024年Gartner®社のセキュリティ・サービス・エッジ(SSE)のマジック・クアドラントでリーダーの1社として評価されました。 レポートを読む

閉める
閉める
  • Netskopeが選ばれる理由 シェブロン

    ネットワークとセキュリティの連携方法を変える。

  • 導入企業 シェブロン

    Netskope は世界中で 3,000 を超える顧客にサービスを提供しており、その中にはフォーチュン 100 企業の 25 以上が含まれます

  • パートナー シェブロン

    私たちはセキュリティリーダーと提携して、クラウドへの旅を保護します。

実行能力とビジョンの完全性において
最上位の評価

ネットスコープが2024年Gartner®社のセキュリティ・サービス・エッジ(SSE)のマジック・クアドラントで3年連続リーダーの1社として評価された理由をご覧ください。

レポートを読む
Netskope、2024年ガートナー®マジッククアドラント™セキュリティサービスエッジ部門でリーダーに選出 メニューのグラフィック
私たちは、お客様が何にでも備えることができるように支援します

お客様について
窓の外を見て微笑むメガネをかけた女性
Netskopeのパートナー中心の市場開拓戦略により、パートナーは企業のセキュリティを変革しながら、成長と収益性を最大化できます。

Netskope パートナーについて学ぶ
色々な若い専門家が集う笑顔のグループ
明日に向けたネットワーク

サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。

ホワイトペーパーはこちら
明日に向けたネットワーク
Netskope One プラットフォームの紹介

Netskope One は、SASE とゼロトラスト変革を可能にする統合型セキュリティおよびネットワーキング サービスを提供するクラウドネイティブ プラットフォームです。

Netskope One について学ぶ
青い照明の抽象画
セキュアアクセスサービスエッジ(SASE)アーキテクチャの採用

Netskope NewEdgeは、世界最大かつ最高のパフォーマンスのセキュリティプライベートクラウドであり、比類のないサービスカバレッジ、パフォーマンス、および回復力を顧客に提供します。

NewEdgeの詳細
NewEdge
Netskope Cloud Exchange

Netskope Cloud Exchange (CE) は、セキュリティポスチャに対する投資を活用するための強力な統合ツールを提供します。

Cloud Exchangeについて学ぶ
Netskopeの動画
  • セキュリティサービスエッジ製品 シェブロン

    高度なクラウド対応の脅威から保護し、あらゆるベクトルにわたってデータを保護

  • Borderless SD-WAN シェブロン

    すべてのリモートユーザー、デバイス、サイト、クラウドへ安全で高性能なアクセスを提供

  • Secure Access Service Edge シェブロン

    Netskope One SASE は、クラウドネイティブで完全に統合された単一ベンダーの SASE ソリューションを提供します。

未来のプラットフォームはNetskopeです

インテリジェントセキュリティサービスエッジ(SSE)、クラウドアクセスセキュリティブローカー(CASB)、クラウドファイアウォール、セキュアウェブゲートウェイ(SWG)、およびZTNAのプライベートアクセスは、単一のソリューションにネイティブに組み込まれており、セキュアアクセスサービスエッジ(SASE)アーキテクチャへの道のりですべてのビジネスを支援します。

製品概要はこちら
Netskopeの動画
Next Gen SASE Branch はハイブリッドである:接続、保護、自動化

Netskope Next Gen SASE Branchは、コンテキストアウェアSASEファブリック、ゼロトラストハイブリッドセキュリティ、 SkopeAI-Powered Cloud Orchestrator を統合クラウド製品に統合し、ボーダレスエンタープライズ向けに完全に最新化されたブランチエクスペリエンスを実現します。

Next Gen SASE Branchの詳細はこちら
オープンスペースオフィスの様子
SASEアーキテクチャの設計 For Dummies

SASE設計について網羅した電子書籍を無償でダウンロード

電子書籍を入手する
最小の遅延と高い信頼性を備えた、市場をリードするクラウドセキュリティサービスに移行します。

NewEdgeの詳細
山腹のスイッチバックを通るライトアップされた高速道路
アプリケーションのアクセス制御、リアルタイムのユーザーコーチング、クラス最高のデータ保護により、生成型AIアプリケーションを安全に使用できるようにします。

生成AIの使用を保護する方法を学ぶ
ChatGPTと生成AIを安全に有効にする
SSEおよびSASE展開のためのゼロトラストソリューション

ゼロトラストについて学ぶ
大海原を走るボート
NetskopeがFedRAMPの高認証を達成

政府機関の変革を加速するには、Netskope GovCloud を選択してください。

Netskope GovCloud について学ぶ
Netskope GovCloud
  • リソース シェブロン

    クラウドへ安全に移行する上でNetskopeがどのように役立つかについての詳細は、以下をご覧ください。

  • ブログ シェブロン

    Netskope がセキュリティ サービス エッジ (SSE) を通じてセキュリティとネットワークの変革を実現する方法を学びます

  • イベント&ワークショップ シェブロン

    最新のセキュリティトレンドを先取りし、仲間とつながりましょう。

  • 定義されたセキュリティ シェブロン

    サイバーセキュリティ百科事典、知っておくべきすべてのこと

「セキュリティビジョナリー」ポッドキャスト

ゼロトラストと国家安全保障の交差点
On the latest episode of Security Visionaries, co-hosts Max Havey and Emily Wearmouth sit down for a conversation with guest Chase Cunningham (AKA Dr. Zero Trust) about zero trust and national security.

ポッドキャストを再生する
ゼロトラストと国家安全保障の交差点
最新のブログ

Netskope がセキュリティ サービス エッジ (SSE) 機能を通じてゼロ トラストと SASE の導入をどのように実現できるかをご覧ください。

ブログを読む
日の出と曇り空
SASE Week 2023年:SASEの旅が今始まります!

第4回 SASE Weekのリプレイセッション。

セッションの詳細
SASE Week 2023
SASEとは

クラウド優位の今日のビジネスモデルにおいて、ネットワークとセキュリティツールの今後の融合について学びます。

SASEについて学ぶ
  • 会社概要 シェブロン

    クラウド、データ、ネットワークセキュリティの課題に対して一歩先を行くサポートを提供

  • リーダーシップ シェブロン

    Netskopeの経営陣はお客様を成功に導くために全力を尽くしています。

  • カスタマーソリューション シェブロン

    お客様の成功のために、Netskopeはあらゆるステップを支援いたします。

  • トレーニングと認定 シェブロン

    Netskopeのトレーニングで、クラウドセキュリティのスキルを学ぶ

データセキュリティによる持続可能性のサポート

Netskope は、持続可能性における民間企業の役割についての認識を高めることを目的としたイニシアチブである「ビジョン2045」に参加できることを誇りに思っています。

詳しくはこちら
データセキュリティによる持続可能性のサポート
思想家、建築家、夢想家、革新者。 一緒に、私たちはお客様がデータと人々を保護するのを助けるために最先端のクラウドセキュリティソリューションを提供します。

当社のチーム紹介
雪山を登るハイカーのグループ
Netskopeの有能で経験豊富なプロフェッショナルサービスチームは、実装を成功させるための規範的なアプローチを提供します。

プロフェッショナルサービスについて学ぶ
Netskopeプロフェッショナルサービス
Netskopeトレーニングで、デジタルトランスフォーメーションの旅を保護し、クラウド、ウェブ、プライベートアプリケーションを最大限に活用してください。

トレーニングと認定資格について学ぶ
働く若い専門家のグループ

The EU’s new AI Act—What We Can Learn From the GDPR

Jul 26 2022

Artificial Intelligence (AI) is rapidly becoming ubiquitous in supporting key business decisions, and for many organisations it is critical for their digital transformation and new business models. With organisations quickly driving forward to identify new ways to extract competitive value from their data, the regulators are preparing to step in. Eager to avoid running too far behind the curve, or to allow a “Wild West” to develop, EU lawmakers are already working to regulate and impose guidelines on the use of AI. While the new AI Act is not going to come into force for a few years, staying ahead of incoming legislation will give IT and security teams a huge advantage over the competition, ensuring that active AI programmes are not curtailed or slowed down to implement last minute compliance and ethics requirements.

So, what is the EU AI Act all about?

In essence, regulators have recognised the potential impact AI could have on society—and EU citizens’ rights specifically—and are planning legislation to prevent the misuse of AI and protect individuals. The Act contains powers for oversight bodies to require the withdrawal of an AI system or require an AI model to be retrained if it’s deemed to be a high risk. Think of it as following the exact same pattern the EU took with the GDPR.  Of course, the GDPR focus is on personal data, and its responsible use and handling. This new proposed legislation will add another layer over the GDPR and ensure that AI systems used in the EU market comply with requirements and existing legislation on fundamental rights.

Is it essentially a GDPR upgrade?

This Act and its requirements will sit alongside the GDPR, so organisations will need to comply with both, and can potentially fall foul of non-compliance repercussions of both. The Act is likely to have the same extraterritorial reach.

GDPR can impose fines of up to 4% of company revenue—surely this isn’t going to be as severe?

Current drafts of the AI Act are considering up to 6% of global revenue fines for non-compliance, so if the up to 4% of revenue fines from the GDPR caught your board’s attention you can be sure the AI Act will appear on their radar too!

So what will the Act require?

Currently, it is expected that the new legislation will ensure risk management systems and processes are established, implemented, documented, and maintained. Organisations will need to determine if their AI systems fall into the “high risk” category and potentially will need to undergo a regular assessment. With the GDPR, expectations included identification of known and foreseeable risks, evaluation of risks of reasonably foreseeable misuse, and adoption of suitable controls and countermeasures. The Act is also expected to require organisations to communicate with data subjects to tell them when and how AI was used to make decisions. Details are not yet available on whether this communication will need to happen proactively or only on request.

This legislation naturally sits adjacent to existing GDPR legislation and both could be applied, if for instance, bad data protection hygiene leads to negligence in AI that feeds from the dataset in question.

What does negligence look like in AI?

This is one of the big questions that the EU lawmakers are currently considering. It is likely it could range from bad data protection hygiene to knowingly allowing discriminatory decisions to be made using data sets with known bias.

So if I am good for the GDPR  am I halfway there?

Yes and no.  

Yes: the lessons we all learned from the GDPR—including data hygiene, standards, and processes—will be hugely helpful in complying with the AI Act.  

No: the central premise around the GDPR is that an organisation holds data that needs protecting… but with AI you are regulating the methodology of decision making based on that data and that involves much more than the raw constituent data itself. The decision making algorithms of course, but think about this too…. data exfiltration is no longer the only concern. You may find your AI system is using a data set that nefarious actors may want to infiltrate with “rogue” data. While data integrity compromise may seem an unlikely threat, if those data manipulations guide an AI to make a different decision (increasing the risk score for individuals purchasing life insurance for instance), it could genuinely be a key action-on-objective a threat actor may use to damage the organisation.

OK, so I need to do more than copy/paste my GDPR policies.  What can I do now to start to prepare?

  • Ensure the right people in the organisation have positions of responsibility over AI and future AI legislation compliance. Form an AI ethics board.
  • Ensure you document your AI use and policies, and give due thought within the documentation to issues and how you will handle any issues arising. This documentation is a crucial component in ensuring responsible use of AI, but—perhaps as importantly—it is also critical to an organisation’s defence over claims of gross negligence (just as in the GDPR you are expected to be able to prove that when things go wrong it is despite due diligence and appropriate processes).
  • Start to educate and have conversations about AI with employees across the business so it does not become a behind-the-scenes or last minute activity. Transparency garners trust. It is easy to assume that business leaders, especially those focused on data science and intelligence will feel threatened, but in many situations, a good ethics stance should be supported from top to bottom in the organisation 
  • Negligence is the key determinator so you should be able to demonstrate you understand the use and potential impact of your AI programme and have assessed the ethical considerations.

Although the implementation of a new EU regulation on AI could be a few years away, there is no doubt that it is coming and businesses that take action now will be better prepared and face less disruption when the Act arrives.

author image
Neil Thacker
Neil Thacker is a veteran information security professional and a data protection and privacy expert well-versed in the European Union General Data Protection Regulation (EU GDPR).

Stay informed!

Subscribe for the latest from the Netskope Blog