ゼロトラストの未来とSASEの現在今すぐ登録

閉める
閉める
  • セキュリティサービスエッジ製品 シェブロン

    高度なクラウド対応の脅威から保護し、あらゆるベクトルにわたってデータを保護

  • Borderless SD-WAN シェブロン

    すべてのリモートユーザー、デバイス、サイト、クラウドへ安全で高性能なアクセスを提供

  • Secure Access Service Edge シェブロン

    Netskope SASE は、クラウドネイティブで完全に統合された単一ベンダーの SASE ソリューションを提供します。

未来のプラットフォームはNetskopeです

インテリジェントセキュリティサービスエッジ(SSE)、クラウドアクセスセキュリティブローカー(CASB)、クラウドファイアウォール、セキュアウェブゲートウェイ(SWG)、およびZTNAのプライベートアクセスは、単一のソリューションにネイティブに組み込まれており、セキュアアクセスサービスエッジ(SASE)アーキテクチャへの道のりですべてのビジネスを支援します。

製品概要はこちら
Netskopeの動画
Next Gen SASE Branch はハイブリッドである:接続、保護、自動化

Netskope Next Gen SASE Branchは、コンテキストアウェアSASEファブリック、ゼロトラストハイブリッドセキュリティ、 SkopeAI-Powered Cloud Orchestrator を統合クラウド製品に統合し、ボーダレスエンタープライズ向けに完全に最新化されたブランチエクスペリエンスを実現します。

Next Gen SASE Branchの詳細はこちら
オープンスペースオフィスの様子
SASEアーキテクチャの設計 For Dummies

SASE設計について網羅した電子書籍を無償でダウンロード

電子書籍を入手する
セキュアアクセスサービスエッジ(SASE)アーキテクチャの採用

Netskope NewEdgeは、世界最大かつ最高のパフォーマンスのセキュリティプライベートクラウドであり、比類のないサービスカバレッジ、パフォーマンス、および回復力を顧客に提供します。

NewEdgeの詳細
NewEdge
明日に向けたネットワーク

サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。

ホワイトペーパーはこちら
明日に向けたネットワーク
Netskope Cloud Exchange

Netskope Cloud Exchange (CE) は、セキュリティポスチャに対する投資を活用するための強力な統合ツールを提供します。

Cloud Exchangeについて学ぶ
Netskopeの動画
最小の遅延と高い信頼性を備えた、市場をリードするクラウドセキュリティサービスに移行します。

NewEdgeの詳細
山腹のスイッチバックを通るライトアップされた高速道路
アプリケーションのアクセス制御、リアルタイムのユーザーコーチング、クラス最高のデータ保護により、生成型AIアプリケーションを安全に使用できるようにします。

生成AIの使用を保護する方法を学ぶ
ChatGPTと生成AIを安全に有効にする
SSEおよびSASE展開のためのゼロトラストソリューション

ゼロトラストについて学ぶ
大海原を走るボート
NetskopeがFedRAMPの高認証を達成

政府機関の変革を加速するには、Netskope GovCloud を選択してください。

Netskope GovCloud について学ぶ
Netskope GovCloud
  • リソース シェブロン

    クラウドへ安全に移行する上でNetskopeがどのように役立つかについての詳細は、以下をご覧ください。

  • ブログ シェブロン

    Netskopeがセキュリティサービスエッジ(SSE)を通じてセキュリティとネットワークの変革を可能にする方法を学びましょう。

  • イベント&ワークショップ シェブロン

    最新のセキュリティトレンドを先取りし、仲間とつながりましょう。

  • 定義されたセキュリティ シェブロン

    サイバーセキュリティ百科事典、知っておくべきすべてのこと

「セキュリティビジョナリー」ポッドキャスト

ビスケットではなくクッキー
司会のエミリー・ウェアマスが、専門家のデビッド・フェアマン氏とゾハール・ホッド氏と対談し、インターネットクッキーの過去、現在、未来について語ります。

ポッドキャストを再生する
ポッドキャスト:ビスケットではなくクッキー
最新のブログ

Netskopeがセキュリティサービスエッジ(SSE)機能を通じてゼロトラストとSASEの旅を可能にする方法。

ブログを読む
日の出と曇り空
SASE Week 2023年:SASEの旅が今始まります!

第4回 SASE Weekのリプレイセッション。

セッションの詳細
SASE Week 2023
セキュリティサービスエッジとは

SASEのセキュリティ面、ネットワークとクラウドでの保護の未来を探ります。

セキュリティサービスエッジの詳細
4方向ラウンドアバウト
私たちは、お客様が何にでも備えることができるように支援します

お客様を見る
窓の外を見て微笑むメガネをかけた女性
Netskopeの有能で経験豊富なプロフェッショナルサービスチームは、実装を成功させるための規範的なアプローチを提供します。

プロフェッショナルサービスについて学ぶ
Netskopeプロフェッショナルサービス
Netskopeコミュニティは、あなたとあなたのチームが製品とプラクティスからより多くの価値を引き出すのに役立ちます。

Netskopeコミュニティに移動
Netskope コミュニティ
Netskopeトレーニングで、デジタルトランスフォーメーションの旅を保護し、クラウド、ウェブ、プライベートアプリケーションを最大限に活用してください。

トレーニングと認定資格について学ぶ
働く若い専門家のグループ
  • 会社概要 シェブロン

    クラウド、データ、ネットワークセキュリティの課題に対して一歩先を行くサポートを提供

  • Netskopeが選ばれる理由 シェブロン

    クラウドの変革とどこからでも機能することで、セキュリティの機能方法が変わりました。

  • リーダーシップ シェブロン

    Netskopeの経営陣はお客様を成功に導くために全力を尽くしています。

  • パートナー シェブロン

    私たちはセキュリティリーダーと提携して、クラウドへの旅を保護します。

データセキュリティによる持続可能性のサポート

Netskope は、持続可能性における民間企業の役割についての認識を高めることを目的としたイニシアチブである「ビジョン2045」に参加できることを誇りに思っています。

詳しくはこちら
データセキュリティによる持続可能性のサポート
Highest in Execution. Furthest in Vision.

ネットスコープは2023年Gartner®社のセキュリティ・サービス・エッジ(SSE)のマジック・クアドラント™でリーダーの1社として評価されました。

レポートを読む
ネットスコープは2023年Gartner®社のセキュリティ・サービス・エッジ(SSE)のマジック・クアドラント™でリーダーの1社として評価されました。
思想家、建築家、夢想家、革新者。 一緒に、私たちはお客様がデータと人々を保護するのを助けるために最先端のクラウドセキュリティソリューションを提供します。

当社のチーム紹介
雪山を登るハイカーのグループ
Netskopeのパートナー中心の市場開拓戦略により、パートナーは企業のセキュリティを変革しながら、成長と収益性を最大化できます。

Netskope パートナーについて学ぶ
色々な若い専門家が集う笑顔のグループ

The EU’s new AI Act—What We Can Learn From the GDPR

Jul 26 2022

Artificial Intelligence (AI) is rapidly becoming ubiquitous in supporting key business decisions, and for many organisations it is critical for their digital transformation and new business models. With organisations quickly driving forward to identify new ways to extract competitive value from their data, the regulators are preparing to step in. Eager to avoid running too far behind the curve, or to allow a “Wild West” to develop, EU lawmakers are already working to regulate and impose guidelines on the use of AI. While the new AI Act is not going to come into force for a few years, staying ahead of incoming legislation will give IT and security teams a huge advantage over the competition, ensuring that active AI programmes are not curtailed or slowed down to implement last minute compliance and ethics requirements.

So, what is the EU AI Act all about?

In essence, regulators have recognised the potential impact AI could have on society—and EU citizens’ rights specifically—and are planning legislation to prevent the misuse of AI and protect individuals. The Act contains powers for oversight bodies to require the withdrawal of an AI system or require an AI model to be retrained if it’s deemed to be a high risk. Think of it as following the exact same pattern the EU took with the GDPR.  Of course, the GDPR focus is on personal data, and its responsible use and handling. This new proposed legislation will add another layer over the GDPR and ensure that AI systems used in the EU market comply with requirements and existing legislation on fundamental rights.

Is it essentially a GDPR upgrade?

This Act and its requirements will sit alongside the GDPR, so organisations will need to comply with both, and can potentially fall foul of non-compliance repercussions of both. The Act is likely to have the same extraterritorial reach.

GDPR can impose fines of up to 4% of company revenue—surely this isn’t going to be as severe?

Current drafts of the AI Act are considering up to 6% of global revenue fines for non-compliance, so if the up to 4% of revenue fines from the GDPR caught your board’s attention you can be sure the AI Act will appear on their radar too!

So what will the Act require?

Currently, it is expected that the new legislation will ensure risk management systems and processes are established, implemented, documented, and maintained. Organisations will need to determine if their AI systems fall into the “high risk” category and potentially will need to undergo a regular assessment. With the GDPR, expectations included identification of known and foreseeable risks, evaluation of risks of reasonably foreseeable misuse, and adoption of suitable controls and countermeasures. The Act is also expected to require organisations to communicate with data subjects to tell them when and how AI was used to make decisions. Details are not yet available on whether this communication will need to happen proactively or only on request.

This legislation naturally sits adjacent to existing GDPR legislation and both could be applied, if for instance, bad data protection hygiene leads to negligence in AI that feeds from the dataset in question.

What does negligence look like in AI?

This is one of the big questions that the EU lawmakers are currently considering. It is likely it could range from bad data protection hygiene to knowingly allowing discriminatory decisions to be made using data sets with known bias.

So if I am good for the GDPR  am I halfway there?

Yes and no.  

Yes: the lessons we all learned from the GDPR—including data hygiene, standards, and processes—will be hugely helpful in complying with the AI Act.  

No: the central premise around the GDPR is that an organisation holds data that needs protecting… but with AI you are regulating the methodology of decision making based on that data and that involves much more than the raw constituent data itself. The decision making algorithms of course, but think about this too…. data exfiltration is no longer the only concern. You may find your AI system is using a data set that nefarious actors may want to infiltrate with “rogue” data. While data integrity compromise may seem an unlikely threat, if those data manipulations guide an AI to make a different decision (increasing the risk score for individuals purchasing life insurance for instance), it could genuinely be a key action-on-objective a threat actor may use to damage the organisation.

OK, so I need to do more than copy/paste my GDPR policies.  What can I do now to start to prepare?

  • Ensure the right people in the organisation have positions of responsibility over AI and future AI legislation compliance. Form an AI ethics board.
  • Ensure you document your AI use and policies, and give due thought within the documentation to issues and how you will handle any issues arising. This documentation is a crucial component in ensuring responsible use of AI, but—perhaps as importantly—it is also critical to an organisation’s defence over claims of gross negligence (just as in the GDPR you are expected to be able to prove that when things go wrong it is despite due diligence and appropriate processes).
  • Start to educate and have conversations about AI with employees across the business so it does not become a behind-the-scenes or last minute activity. Transparency garners trust. It is easy to assume that business leaders, especially those focused on data science and intelligence will feel threatened, but in many situations, a good ethics stance should be supported from top to bottom in the organisation 
  • Negligence is the key determinator so you should be able to demonstrate you understand the use and potential impact of your AI programme and have assessed the ethical considerations.

Although the implementation of a new EU regulation on AI could be a few years away, there is no doubt that it is coming and businesses that take action now will be better prepared and face less disruption when the Act arrives.

author image
Neil Thacker
Neil Thacker is a veteran information security professional and a data protection and privacy expert well-versed in the European Union General Data Protection Regulation (EU GDPR).

Stay informed!

Subscribe for the latest from the Netskope Blog