レポートを読む:AI時代にCIOとCEOの連携を実現する方法

閉める
閉める
明日に向けたネットワーク
明日に向けたネットワーク
サポートするアプリケーションとユーザー向けに設計された、より高速で、より安全で、回復力のあるネットワークへの道を計画します。
Netskopeを体験しませんか?
Netskopeプラットフォームを実際に体験する
Netskope Oneのシングルクラウドプラットフォームを直接体験するチャンスです。自分のペースで進められるハンズオンラボにサインアップしたり、毎月のライブ製品デモに参加したり、Netskope Private Accessの無料試乗に参加したり、インストラクター主導のライブワークショップに参加したりできます。
SSEのリーダー。 現在、シングルベンダーSASEのリーダーです。
Netskope は、 SSE プラットフォームと SASE プラットフォームの両方で、ビジョンで最も優れたリーダーとして認められています
2X ガートナーマジック クアドラント SASE プラットフォームのリーダー
旅のために構築された 1 つの統合プラットフォーム
ダミーのためのジェネレーティブAIの保護
ダミーのためのジェネレーティブAIの保護
ジェネレーティブ AI の革新的な可能性と堅牢なデータ セキュリティ プラクティスのバランスを取る方法をご覧ください。
ダミーのための最新のデータ損失防止(DLP)eBook
最新の情報漏えい対策(DLP)for Dummies
クラウド配信型 DLP に移行するためのヒントとコツをご紹介します。
SASEダミーのための最新のSD-WAN ブック
SASEダミーのための最新のSD-WAN
遊ぶのをやめる ネットワークアーキテクチャに追いつく
リスクがどこにあるかを理解する
Advanced Analytics は、セキュリティ運用チームがデータ主導のインサイトを適用してより優れたポリシーを実装する方法を変革します。 Advanced Analyticsを使用すると、傾向を特定し、懸念事項に的を絞って、データを使用してアクションを実行できます。
Netskopeテクニカルサポート
Netskopeテクニカルサポート
クラウドセキュリティ、ネットワーキング、仮想化、コンテンツ配信、ソフトウェア開発など、多様なバックグラウンドを持つ全世界にいる有資格のサポートエンジニアが、タイムリーで質の高い技術支援を行っています。
Netskopeの動画
Netskopeトレーニング
Netskopeのトレーニングは、クラウドセキュリティのエキスパートになるためのステップアップに活用できます。Netskopeは、お客様のデジタルトランスフォーメーションの取り組みにおける安全確保、そしてクラウド、Web、プライベートアプリケーションを最大限に活用するためのお手伝いをいたします。

AIに対する期待の高まりは終わりが見えません。そんな中で、AIについてもっと議論すべきことは何でしょうか?このエピソードでは、ホストのエミリー・ウェアマス (Emily Wearmouth) が、EMEA担当CISOのニール・タッカー (Neil Thacker)、Netskope AI Labsの責任者であるイファ・リャオ (Yihua Liao)、ScintillaのIP戦略ディレクターであるスザンヌ・オリバー (Suzanne Oliver) をゲストに迎え、もっと議論すべきだと考えるAIの領域のトピックについて話し合います。

今、AIとは何か、AIではないもの、そしてMLとは何かについて、もう少し透明性を高めることが確かに求められていると思います。これらはしばしば同じ意味で使用されますが、実際には大きく異なります。 このように話が大きくなっているのは、これらのシステムで何ができるのか、何ができないのかが理解されていないためだと思います。

スザンヌ・オリバー (Suzanne Oliver) 氏 (Scintilla 社 IP 戦略担当ディレクター)
スザンヌ・オリバー

 

タイムスタンプ

*(0:01):イントロダクション*(14:54):セキュリティリードとしてテクニカル AIリーダーにどのような質問をしているのか
*(1:28):AIについて、もっと議論してほしいこと*(20:24):AIに関する透明性と所有権に関してどのように対話を開始するか
*(3:48):定義の所有は誰にあるのか*(27:02):AIの定義と標準は誰が所有すべきか
*(5:35):人々知らないであろうAIの例とは*(29:20):開発者自身がどの程度の責任を負うべきか
*(8:30):すべてのものを ChatGPT として永続的に再ラベル付けすることについてはどう思うか*(30:48):まとめ

 

以下プラットフォームからも聴くことができます:

本エピソードの出演者

ニール・タッカー​
EMEA担当CISO、Netskope

シェブロン

ニール・サッカー

ニール・タッカー (Neil Thacker) は、ベテランの情報セキュリティ専門家であり、欧州連合一般データ保護規則 (EU GDPR) に精通したデータ保護およびプライバシーの専門家です。

リンクトインのロゴ

スザンヌ・オリバー
Scintilla、IP戦略ディレクター

シェブロン

スザンヌ・オリバー

スザンヌ・オリバー (Suzanne Oliver) は英国と欧州の弁理士の二重資格を持ち、最近知財戦略ディレクターとしてScintillaチームに加わりました。知的財産部門に入社する前は、エンジニアリングに長年携わっていました。 テクノロジーとロボット工学の新興企業であるGroundWOWで社内で働き、IP戦略とIPポリシーの開発を主導しました。 それ以前は、完全子会社でその後ARM Ltd.からスピンアウトしたSeeChange Technologiesでオペレーション、法務、IPを担当していました。 SeeChange Technologiesに入社する前は、ARMのグローバルな特許および商標出願チームを管理し、ARMの知的財産戦略、ポリシー、開発案件の多様なポートフォリオをサポートしていました。

印象的な専門的資格に加えて、複数のNEDおよび理事会の役職を歴任しており、最近では英国IP連盟の会長を務めています。 イノベーションと知的財産の分野で英国政府に助言した経験も持ちます。

スザンヌは、キャリアを通じてSTEM、インクルージョン、ダイバーシティの分野で女性を擁護し、2017年にはIAMの「世界をリードするIPストラテジスト」に、2018年と2019年にはマネージングIPの「コーポレートIPスター」に選ばれました。 2018年に企業の多様性と包括性のリーダーシップの仕事で全国賞を受賞しました。

リンクトインのロゴ

イファ・リャオ
NetskopeAI Labs責任者Netskope

シェブロン

Yihua Liao

イファ・リャオ (Yihua Liao) 博士は、Netskope の AI ラボの責任者を務めています。データ損失防止、マルウェアと脅威の保護、ユーザー/エンティティの行動分析など、クラウド セキュリティにおける多くの困難な問題に取り組むための最先端のAI/MLテクノロジーを開発しています。 以前は、UberとFacebookでデータサイエンスチームを率いていました。

リンクトインのロゴ

エミリー・ウェアマス
Netskopeの国際コミュニケーションおよびコンテンツ担当ディレクター

シェブロン

Emily Wearmouth

エミリー・ウェアマス (Emily Wearmouth) は、EMEA、ラテンアメリカ、およびAPACでNetskopeのコミュニケーションを運営しています。 エミリーは、広報活動、ソーシャル メディア、顧客紹介、コンテンツ作成に携わり、顧客や見込み顧客が Netskope に何ができるかを理解できるように、ストーリーを発掘し、それを伝えることに力を注いでいます。

リンクトインのロゴ

ニール・サッカー

ニール・タッカー (Neil Thacker) は、ベテランの情報セキュリティ専門家であり、欧州連合一般データ保護規則 (EU GDPR) に精通したデータ保護およびプライバシーの専門家です。

リンクトインのロゴ

スザンヌ・オリバー

スザンヌ・オリバー (Suzanne Oliver) は英国と欧州の弁理士の二重資格を持ち、最近知財戦略ディレクターとしてScintillaチームに加わりました。知的財産部門に入社する前は、エンジニアリングに長年携わっていました。 テクノロジーとロボット工学の新興企業であるGroundWOWで社内で働き、IP戦略とIPポリシーの開発を主導しました。 それ以前は、完全子会社でその後ARM Ltd.からスピンアウトしたSeeChange Technologiesでオペレーション、法務、IPを担当していました。 SeeChange Technologiesに入社する前は、ARMのグローバルな特許および商標出願チームを管理し、ARMの知的財産戦略、ポリシー、開発案件の多様なポートフォリオをサポートしていました。

印象的な専門的資格に加えて、複数のNEDおよび理事会の役職を歴任しており、最近では英国IP連盟の会長を務めています。 イノベーションと知的財産の分野で英国政府に助言した経験も持ちます。

スザンヌは、キャリアを通じてSTEM、インクルージョン、ダイバーシティの分野で女性を擁護し、2017年にはIAMの「世界をリードするIPストラテジスト」に、2018年と2019年にはマネージングIPの「コーポレートIPスター」に選ばれました。 2018年に企業の多様性と包括性のリーダーシップの仕事で全国賞を受賞しました。

リンクトインのロゴ

Yihua Liao

イファ・リャオ (Yihua Liao) 博士は、Netskope の AI ラボの責任者を務めています。データ損失防止、マルウェアと脅威の保護、ユーザー/エンティティの行動分析など、クラウド セキュリティにおける多くの困難な問題に取り組むための最先端のAI/MLテクノロジーを開発しています。 以前は、UberとFacebookでデータサイエンスチームを率いていました。

リンクトインのロゴ

Emily Wearmouth

エミリー・ウェアマス (Emily Wearmouth) は、EMEA、ラテンアメリカ、およびAPACでNetskopeのコミュニケーションを運営しています。 エミリーは、広報活動、ソーシャル メディア、顧客紹介、コンテンツ作成に携わり、顧客や見込み顧客が Netskope に何ができるかを理解できるように、ストーリーを発掘し、それを伝えることに力を注いでいます。

リンクトインのロゴ

エピソードのトランスクリプト

トランスクリプトをオープン

エミリー・ウェアマウス[00:00:01] こんにちは。サイバーセキュリティとデータ エコシステムに携わる方向けのポッドキャスト「Security Visionaries」へようこそ。司会のエミリー・ウェアマウスです。今週は 3 人の素晴らしいゲストをお迎えし、3 つの異なる視点から AI について議論したいと思います。それではまず、皆さんを紹介させてください。まず、Yihua Liao 氏はデータ サイエンティストで、Facebook、Microsoft、Uber などあらゆる大企業で働いた経験があり、現在はNetskopeのAI Labsの責任者を務めています。 ようこそ、イーファ。

Yihua Liao [00:00:31] ありがとうございます。ここに来られて嬉しいです。

エミリー・ウェアマウス[00:00:32] 次は、最高情報セキュリティ責任者であり、非常に経験豊富なデータ保護責任者であるニール・サッカー氏です。彼はスイス再保険、ドイツ銀行、宝くじ会社キャメロットなどの大手企業と仕事をしてきました。また、彼は ENISA と Cloud Security Alliance の両方で顧問を務めています。ニールさん、ようこそ。

ニール・サッカー[00:00:49] ありがとう、エミリー。ここに来られてとても嬉しいです。

エミリー・ウェアマウス[00:00:51] そして最後に、本日の知的財産の専門家であるスザンヌ・オリバーさんです。スザンヌは、Cintra で IP 戦略家および弁護士として個人開業しています。彼女は ARM で知財部門の運営に携わっており、英国のウェストミンスターでも馴染みがあり、政府レベルで多くの知財団体や AI およびマシンラーニング協会の代表を務めています。 私が初めてスザンヌに会ったのはロンドン テック ウィークのときでした。そこで私たちは、小さな段ボールの弁当箱に丁寧に食べ物を詰めながら、楽しい会話をしました。彼女が今日私たちの仲間になってくれて、第一印象をもう一度確認できるチャンスが得られるのは本当に嬉しいです。ようこそ、スザンヌ。

スザンヌ・オリバー[00:01:23] ありがとうございます。ええ、素晴らしいランチでした。素晴らしい。ありがとうございます。

エミリー・ウェアマウス[00:01:28] AI は非常に注目を集めている話題であり、今年 AI について語っていない人を見つけるのは難しいと思います。それで、この膨大な議論に何を追加できるのかと疑問に思うかもしれません。そして、本当に、それが今日私がやりたかったことだったんです。その質問をパネリストの皆さんにしたいと思います。そこで私は、各人に私からの質問に一つずつ答える準備をしてもらうように頼みました。そして、その 1 つの質問は、AI をめぐるこうしたすべての議論や誇大宣伝の中で、本当にもっと議論してほしいと思うことは何ですか?誰もが少し異なる角度からこの問題に取り組んでいるので、彼らの答えを見てみましょう。そしてニール、私はあなたと一緒に始めるつもりです。 つまり、ちょっとブラインドデートみたいなものですね。最初の質問はニールさんです。

ニール・サッカー[00:02:05] ええ、そうですね、それは素晴らしい質問です。私は思う。たとえば、みんながチャットをやめてほしいと思っています。 GPT、AI、MLは同義語なので、そこから少し離れて、AIが今日どれだけ普及しているかをよりよく理解し、認識を高めるのに役立つと思います。 一般的に、報告が不足していると言われていると思います。これは、過去に誰かが、例えば私たちはクラウドだと言っていたのに、 実際には何千ものクラウドアプリがあり、それぞれが少しずつ異なるタスクを実行している、といった状況に似ています。 そして、AIに関しても同様の課題があると思います。これは、組織、そしてもちろん消費者の間でもすでにかなり普及しています。彼らはこれらのツールとサービスを活用しています。もう一度言いますが、これが一番です。そしてもちろん、それはいくつかの重要な領域において重要です。つまり、1つは、AIの現在の一般的な認識であり、AIが将来の技術ではないことを認識することです。 それは今日起こります。第二に、AI が特定のアプリだけではないことを消費者が認識できるように、人々やビジネスの種類、データについて理解する必要があると思います。つまり、ChatGPT と言っているようなものです。つまり、私が一番嫌なのは、AI について誰かが話しているのを聞いて、それが ChatGPT のような AI だと言うことです。現在、AI タイプの機能を活用しているアプリはほんのわずかしかないというよくある誤解があります。 そのため、今日私たちが使っている多くのアプリにそれが存在します。 それは使われ、浸透しています。 組織と消費者にとって、そのアプリとサービスを通じて、どのような理由で、どのようなデータが処理され、どのような結果が意図されているかを理解することが重要です。 これらは私が見ている重要な側面です。

エミリー・ウェアマウス[00:03:48] 素晴らしいです、ニールありがとう。私はスザンヌの反応を見ながら、実はこれの裏にあなたへの質問があるんです。これらの定義を所有するのは誰だと思いますか?ご存知のように、ニールはこれを単なる ChatGPT として定義することを望んでいません。それとも AI の一般的な定義や標準があるのでしょうか? もしそうなら、誰がそれを所有していないのか、あるいは誰がそれを所有すべきなのか?

スザンヌ・オリバー[00:04:07] また本当に良い質問ですね。現在では誰もそれを所有していません。また、レベルを説明するために使用される他の標準もあります。たとえば、自動運転車や自動運転車両に関する自律性レベルなどです。 そして、今の時代は、何が AI で何が AI でないか、そして何が ML であるかについて、もう少し透明性が求められていると思います。これらはしばしば互換的に使われますが、実際には非常に異なります。 ですから、誇大宣伝がかなりあると思いますが、その誇大宣伝が多いのは、これらのシステムで何ができて何ができないのかが理解されていないからだと思います。しかしその一方で、ニール氏の指摘の 1 つ、つまり私にとって最大の問題点の 1 つである、入力されるデータと出力されるデータの所有者が誰なのかという理解が欠如しています。また、Netskope のレポートの 1 つでは、これらのツールに実際に入力されるソース コードの量が強調されていたと思います。独自のソース コードについては、これらのツールがその秘密を保持すると主張していないこと、またはそれを独自のものとして保持することを許可すると主張していないことを理解していない可能性があります。そして、彼らはあらゆる出力も所有していると主張しています。つまり、誰が何を所有しているかの透明性という領域全体です。それは何と呼ばれ、何をするのでしょうか。そうだと思います。標準化には適していないかもしれませんが、これらの側面を必ずしもすぐに理解できない人々に、より明確に伝えるのに役立つ新しい言語を作成するのには適しているかもしれません。

エミリー・ウェアマウス[00:05:35] ニール、AI はすでに普及していて、未来の技術ではなく今日の技術だと言っていますが、例を挙げて説明できますか。AI が実際に動作しているのを見たことがあるけれど、人々が AI を探す場所を知らないような例はありますか?

ニール・サッカー[00:05:47] そうですね、特に会議やビデオ会議などで、多くの AI アシスタントが導入されるのを目にしてきました。それで、かなりよくあることですが、今、参加すると、AI アシスタントが誰かの代わりになることがあります。これはいつも興味深いことです。 でも、そうですね、それは明らかにすぐに起こります。つまり、私は会議の出席者を確認します。誰もがそうするわけではない。AIアシスタントの存在に誰もが気づいているわけではありません。そして、それは、つまり、おそらく大丈夫だと思います。たとえば、アシスタントがメモを取ったり、会議の議事録を作成したりする場合、ほとんどの人はそれを好まないので、これは素晴らしいことです。それは素晴らしいですね。その機能を自動化しましょう。しかし、もちろん、その AI システムが追加の感情分析を実行している場合、おそらく気分スコアリングを調べているのでしょう。この AI アシスタントが 5 秒ごとに気分スコアリングを行っているのを見たことがあると思いますが、これは少し心配です。つまり、私たちにはこれがあります。 IQスコアリングというサービスもいくつか見たことがあります。つまり、人々がどのように話したり交流したりしているかを聞いて、IQを評価しようとするものです。 もちろん、会議でそのようなことを行う場合は、事前に誰かに伝える必要があります。なぜなら、その人はまず、そのサービスのベンダー、プロバイダー、AI アシスタントのプライバシー ポリシーを確認するかもしれないからです。 それを事前に説明した方がいいかもしれません。ですから、もちろん、あなたが嫌な一日を過ごしているなら、それはおそらく私にはわかりません。つまり、そういったことの 1 つは、ある時点で誰かを捕らえることになるということです。つまり、これは単なる一例であり、おそらく大まかな例ですが、サービスの機能とは何なのかをよりよく理解する必要があると思います。会議の記録や議事録の作成だけではありません。そこにはたくさんの可能性があります。そして、人々にそのことを気づかせているのです。今、一例として、私は実際にプロバイダー、つまりこれらのサービスの 1 つに戻り、プライバシー ポリシーの状態について尋ねました。 彼らの返答は、心配しないでください。完全にカバーされています。いずれにせよ、これが未来なのです。だから、ただ受け入れてください。つまり、すぐに警鐘が鳴り響きます。もちろん、もちろんです。次に、彼らのサービスが何を提供しているのかを正確に知るために、さらに深く調べる必要がありました。改めて考えてみると、人々がこれを理解するのはかなり難しいです。そしてまた、時には手遅れになることもあります。彼らは窮地に立たされる。彼らはこれらのサービスについて迅速な評価と判断を下さなければなりません。そうですね、それは本当にその理解を理解することです。繰り返しになりますが、おそらくこれらのテクノロジーとサービスのプロバイダーからの信頼のレベルです。

エミリー ウェアマウス[00:08:12] 現時点であなたに代わって AI を会議に送り込むというのは、かなり大胆なことだと思います。人々が職を失うことになるという会話は、ある種、自ら進んでその道を歩んでいる、ということではないでしょうか?

ニール・サッカー[00:08:23] そうですね、課題は、私たちが設定したときに、私たち全員が自分の AI アシスタントを会議に送り込むことだと思います。つまり、彼らは何を議論するのでしょうか?壁のハエになりたかったですね。

エミリー・ウェアマス[00:08:30] これで。素晴らしい。宜華。あなたを連れて行きたかったんです。この時点で、あなたは AI システムを構築し、マシンラーニング モデルを作成するという多くの作業を行っています。 あらゆるものを ChatGPT としてしつこく再ラベル付けすることについてどう思いますか? イライラしますか?

廖一華[00:08:49] そうですね、AIウォッシングは間違いなく問題だと感じています。つまり、AI の理解の明確さが損なわれているのです。ですから、セキュリティ企業、そしておそらくテクノロジー企業全般が、AI と ML をどのように構築しているのか、AI モデルへの入力は何なのか、出力は何なのか、出力の信頼性はどの程度なのかといった点について、もっと議論を深めてほしいと思います。右?そして、それらの側面については理解が不足し、透明性が欠如しているように感じます。結果として、いくつか誤解があると思います。私の見方では、たいていの人は「私は何でもできる」と言うかもしれません。ご存知のとおり、それは私たちの仕事を奪い、私たちの行動すべてを支配することになるでしょう。そして、あなたは私のデータを使ってトレーニングしているのに、私のデータを使って向上したり、私の競争相手を助けたりしてほしくないと言う人もいます。 ですから、私が Netskope AI Labs を立ち上げて以来、そしてこの AI ブームが起こる以前から、Netskope では実際に多くの AI 機能を開発してきたと思います。そこで、私の視点と、 Netskopeでの機械学習および AI モデルの構築方法についていくつかお話ししたいと思います。 まず第一に、Netskope ではマルウェア、フィッシング サイト、機密データを識別するモデルなど、多くの AI モデルを構築しています。スザンヌがソース コード分類器について言及したと思いますが、これは実際に私のチームが数年前に構築したものです。次に、データ侵害や内部関係者の脅威などを示す可能性のある異常なユーザーの行動を特定するために、マシンラーニングも行います。 つまり、大まかに言うと、私たちのモデルに組み込まれるのは、パブリック ドメインのデータやサードパーティから取得したデータなど、さまざまなソースから収集したデータです。 したがって、私たちはお客様の許可なしにマシンラーニング モデルを構築するためにお客様のデータを使用することは決してありません。 ご想像のとおり、マシンラーニング モデルの一部、たとえばユーザー行動分析では、各ユーザー個人の通常の行動を調べる必要があります。 しかし、そのようなモデルであっても、まずはお客様から許可をいただいております。第二に、私たちは普段見ていない他の情報も見ています。たとえば、ユーザーがファイルをダウンロードしているとき、その動作が異常かどうかを判断するために必ずしもファイルの内容を見る必要はありません。右。そうですね、基本的にはそれがモデルに組み込まれるものです。今 モデルの出力に関して。 そして、ご存知のとおり、最近ではほとんどすべての企業が AI を活用していると主張しており、AI モデルがいかに正確であるかを主張しています。しかし、もし誰かが自分の AI が 100% 正確だと言ったら、それは嘘をついていると言えるでしょう。結局のところ、AI は、トレーニング データに基づいて何かが起こる可能性を表す確率と考えることができます。つまり、AI モデルの出力を検証するために常に人間が介入するか、製品内に何らかのフィードバック ループを設けて、そのフィードバックを受けてモデルを再トレーニングし、時間をかけてモデルを改善していく必要があります。つまり、AI はまさに革新的なプロセスなのです。これは旅であり、モデルが最初から 100% 正確、あるいは 99% 正確であるとは決して期待できません。常に時間をかけて反復する必要があります。

エミリー・ウェアマウス[00:13:30] スザンヌとニールの両方から多くのうなずきが見られます。追加したい点があれば、遠慮なくおっしゃってください。

スザンヌ・オリバー[00:13:37] そうですね、信頼性の点については私もかなり熱烈に同意していました。特に、AI から ChatGPT に直接移行する際の理解不足が、ニールの一番の嫌悪点であることは承知しています。それ自体が非常に興味深い例であり、 使う ご存知のように、正しいか間違っているか真実かという理解がないため、誤ったデータを正しいものとして提示します。 つまり、それがあなたが探している答えである可能性というだけなのです。それがその仕組みです。そして、これが、先ほど私が指摘した、これらのものがツールであることを理解するための教育とスキルに関する点だと思います。そして人間と同じように、彼らも間違いを犯しますが、間違いの仕方は異なります。右。そして、私たち社会は、そのことをもう少しよく理解する必要があると考えています。しかし、ご存知のとおり、これらをどのように説明するかについて透明性を保つという点については、おそらく、それらをさまざまな機能的な方法で分類し、先ほどの自律性のレベルのようにリスク出力を分類する必要があるでしょうが、ええ、ええ、うなずいて、激しく同意します。

エミリー・ウェアマウス[00:14:54] ニールさん、私はあなたに聞きたかったのですが、あなたには他に何か言いたいことがあるので、どちらも遠慮なく答えてください。しかし、データ保護を仕事とするあなたにとって、Yihua が取り上げたいくつかの点は共感できるものだったでしょうか。これらのシステムが何のために作られているのかを本当に理解するために、他のテクノロジー企業の Yihua のような人にどのような質問をしているのですか?

Neil Thacker [00:15:16] ええ、結局はデータに行き着くんですよね?入力クエリの一部として入力されるデータに何が起こるかに関する質問です。例えば、あなたが genAIの場合、モデルに何が起こるかというと、モデルは プライベートまたはパブリックに追加のサービスを提供するために、また分析によって制御されるために使われます。 そして明らかに、実装されている組織制御の例がここで再度言及されましたが、出力はどうなるのでしょうか。出力に対して何らかの整合性チェックが実行されますか。また、出力はその後、さらにモデルを事前トレーニングするためにも使用できますか。 右。これは、ループに入り、AI サービスを利用した一連のフィードバック ループに基づいて出力クエリをさらに活用して調整できるもう 1 つの側面です。しかし、もう一度、そのデータがどれくらい古いのかを再度理解することが重要です。そのデータは何回反復処理されるのでしょうか?しかし、それはまた、例えば、どの国か、というようなことにも関係してきます。個人を保護するための規制が今後さらに強化される可能性があるため、この点については近い将来間違いなくさらに疑問が投げかけられることになると思います。そして、EU AI 法は EU 市民を保護するために施行される法律となるだろうと私たちは聞いています。しかし、もちろん、それは通常、EU とのビジネスを継続したいと考えている他の国々から、一連の他の規制要件や規制が続々と導入されることを意味します。GDPR がその一例であることが分かりました。これらは注意すべき点です。私が付け加えたいことの 1 つは、おそらくこの電話会議に参加している私たち全員が、そしておそらく他の人たちも、AI が想像力豊かで創造的なコンテンツを時折作成するという幻覚現象を認識していると思うということです。そしてそれは事実や真実に基づいていません。最近これを例として見ました。誰かが再び質問しました。「海峡を徒歩で横断した世界記録は何ですか?」そして、名前、日付、渡河時刻が記されていました。

エミリー・ウェアマウス[00:17:20] それは私の記録でした、ニール。

ニール・サッカー[00:17:21] ええ、14時間51分です。

エミリー・ウェアマス[00:17:24] かなり時間がかかりました。うん、うん。

ニール・サッカー[00:17:26] しかし、一部の人々は、まあ、おそらくそれはまた正しかったのだと考えています。おそらく誰かが実際に海峡を渡ったのでしょう。使う 例えば、英仏海峡トンネルを。 しかし、その後の続報では、プロの水泳選手だけが挑戦すべきだと書かれていました。つまり、ある種の幻覚があると考えることもできるのです。これは単なる一例です。しかし、そうですね、私たちはデータ、その整合性、それがどのように保護されているか、そして今後導入される可能性のあるすべての規制について認識しておく必要があると思います。しかし、私たちは実際に、これらのサービスの利用と実際に処理されているデータの周囲の住民を保護しようとしているのです。

Yihua Liao [00:17:59] そうですね。ニール、それは本当にその通りです。つまり、幻覚は、私のような実践者にとって確かに課題であり、私たちは幻覚の可能性を最小限に抑えるために多くの新しいことを試しています。しかし、先ほどおっしゃった点を強調しておきたいと思います。AIはまさにデータに関するものですよね。AI の良し悪しはトレーニング データ次第です。ご存知のように、信頼できる高品質のデータがない場合、データに偏りがあり、モデルのパフォーマンスが十分に発揮されない場合、一部の顔認識 AI モデルの精度が低下するという話を聞いたことがある方もいると思います。肌の色が濃い人や女性の場合、トレーニング データには性別や年齢の偏りが多少あります。これは、私たちのようなセキュリティ企業にとって問題です。なぜなら、私たちのマシンラーニング モデルのほとんどは、年齢、性別、その他の個人情報(PII)を考慮していないからです。 しかし、AI モデルをトレーニングするために私たちが行うトレーニングが、実際には現実世界で目にするものを反映していない可能性が依然としてあると私は主張します。 ですから、データ サイエンティストや ML サイエンティストとして、私たちは常にトレーニング データの品質を向上させて、現実世界で目にするものをより正確に反映するように努めています。

ニール・サッカー[00:19:44] そうですね、例えば、サプライチェーン全体や AI の経済性についても見ていますよね?このようなトレーニングに使用できるデータを提供する組織があり、そこでもデータの整合性について話し始めています。 そして、そのデータがどこで取得されたかは、マーケティングの議論に少し似ています。その情報はどこから得たのですか?それは同意を得て取得されましたか?そういったものすべて。それで、それはまた議論の対象になりますね?そのデータの出所と、そのデータの処理に許可または承認を与えた人物に関するサプライチェーン全体の経済調査。右。組織が AI と、組織内での AI の活用を検討し始めると、クリアする必要のある要件や課題はたくさんあると思います。

エミリー・ウェアマス[00:20:28] 確かにそうです。そして、これがおそらく、あなたが質問にどのように答えるかということにうまくつながっていると思います。スザンヌ。事前チャットがありましたので、回答をご紹介します。それで、あなたはその質問にどう答えますか?もっと議論してほしいことは何ですか?

スザンヌ・オリバー[00:20:42] はい、すでに触れたと思います。それは間違いなく、何が入ってきて何が出てくるのか、そして誰がそれを所有しているのかという透明性に関するものです。つまり、データ自体は所有することはできませんし、それ自体がまったく別の話題になる可能性が高いので、ここでは取り上げません。しかし、私は、無意識の偏見についての Yihua の指摘に基づいて考えます。ご存知のとおり、人間には少なくとも 35 の認知バイアスがあり、この電話の前に尋ねられていれば、おそらく 3 つを挙げることができたでしょう。そもそも私たちが自分自身を理解していないのに、これらのツールに取り込まれるデータが私たちを代表するものであるとどうして期待できるのでしょうか?これが私の本に書かれた答えの1つの要素だと言えます。もう 1 つは、実際に出力を所有するのは誰かということです。したがって、私の観点からすると、AI は主に著作権と著作権の所有権に関係しています。たとえば、私がこれらのツールの 1 つに写真をアップロードし、そのツールが私の写真の 1 つを取得して修正を加えるような場合、その修正の所有者はおそらくツールになります。たとえば、ここでは OpenAI と ChatGPT が該当しますが、元の写真は私が所有しているので、出力は新しい作品となりますが、侵害を過去を振り返るとイノベーションが前進するため、以前に起こったことを潜在的に侵害している可能性があります。繰り返しになりますが、これらは一般の人にとってもビジネスマンにとっても理解するのが非常に難しい概念です。しかし、私のような IP マニアでない限り、これについて議論されることはほとんどありません。そして確かにその言語は簡単ではありません。著作権は完全に理解するのが簡単な主題ではありません。ですから、テクノロジーリーダーとして、私たちは会話の透明性を高める必要があると思います。これは先ほど私が述べた点に戻りますが、入力されるデータ、出力されるデータ、およびツール自体について話すために定義する一般的な言語を持つことで、何が起こっているかを実際に理解し、監視し、標準化して、何が起こっているかを理解しやすくするということです。

エミリー・ウェアマス[00:23:04] あなたの観点からすると、私たちは馬が逃げ出した後で馬小屋の扉を閉めようとしているのでしょうか? つまり、Facebook が 10 年以上も私の休暇の写真を所有しているというような話です。彼らは幸運だ。しかし、消費者にとっては、これらのシステムに供給するためのデータの所有権という点では、ある程度、馬が逃げ出したように感じられます。これは企業にとってのケースでしょうか、それともまだ扉を閉ざすチャンスがあるのでしょうか?

スザンヌ・オリバー[00:23:26] いつかドアを閉めることになるのかどうかは分かりませんが、そこに座って馬が逃げていくのをただ見ているだけでは意味がないと思います。おそらく、もう少し囲い込みをする必要があると思う。私にとって、それは変化のスピードです。組織の観点から見ると、これは変化のスピードであり、貴重なデータがどこにあるのか、誰がそれを処理し、誰がクラウドにアップロードしているのかが分からない状態です。そして、あなたは私の例外を管理することしかできません。しかし、そのような例外は起こってほしくありません。右。ですから、エンジニアやマーケティング担当者の行動を本当に理解し、彼らと「これらのツールは素晴らしい」という会話をすることが重要だと思います。それらは時間の節約に役立ちます。しかし、バックグランドでこの秘書ツールを実行している場合、そのツールは別の国のサーバー上にあり、その国のサーバーに月例の役員会議事録を保存しておきたくないかもしれません。たとえ、議事録の作成にかかる時間がどれだけ短縮されたとしてもです。 簡単にできることのように思えますが、使うための効率的なツールのように思えますが、実際には欠点もあります。 そして、それは、すべての良い点には必ず落とし穴がある、と判断できるちょっとした脳力を持つことなのです。ここでニール氏が先ほど言及した質問は、「このツールは本当に効率的に思えるが、実際のところなぜ無料なのか?」というものです。なぜ安いのですか?人がそこに座って議事録を書いたり共有したりするよりもコストが安いのはなぜですか?そして、方程式には必ずもう一方の側面も存在しなければなりません。そして、あなた自身にその質問をする必要があると思います。

ニール・サッカー[00:25:15] そうですね、つまり、私が一般的に抱いている懸念の1つは、例えば組織が製品やサービスにおけるAIの使い方をより深く理解するためにアンケートを実施しているのを既に目にしているということです。 常に課題となるのは、アンケートが通常、1 回限りのものであり、新しいツールや AI に関する新しいテクノロジーの導入時や、そのツールの年次レビュー時に実施される可能性があるということです。しかし、スザンヌさんが指摘したように、こうしたサービスの急速な導入と成熟度の急速な成長に基づいて、これをより定期的かつ継続的に行う段階が常に必要だと私は考えています。つまり、今日導入したツールは、新しい機能や性能が追加されるにつれて、1 週間後、2 週間後、あるいは 1 か月後には見た目が大きく変わることになります。したがって、継続的な評価が必要になります。私はアプリやサービスのスコアリングを調べるのが大好きで、それに基づいてポリシーを定義するためにこれを使っています。 また、例えば、侵害されたアプリやサービスに関しても、同様の課題が見られる可能性があります。プロバイダーがサービスを保護するために導入しなかったルールが破られました。人々がハッキングしようとするほとんどのものと同様に、ハッカーもハッキングしようとします。右。そういったことにも注意する必要があります。そして、倫理の観点から一線を越えている可能性のあるツールが導入され、例えば組織の従業員がそれを使用して、おそらく独自の倫理規定を超えている可能性があるという、つまり、いくつかの無理のある使うケースもあります。 したがって、これも評価、つまり信頼スコアの一部にする必要があります。組織の観点から言えば、組織は AI サービスの 使う に関するより優れた監督ガバナンスの提供を検討すべきです。

エミリー・ウェアマウス[00:27:02] スザンヌさん、最初に質問したのですが、定義と基準は誰が決めるべきでしょうか。そして、ある意味では、これはこの種の決定の裁定権を誰が持つべきかという問題の繰り返しです。ニール氏は、EUのAI関連法が近々施行されることを示唆した。そして、世界中の政府が AI 開発において主導的な役割を果たそうとする姿勢を何度も見せてきました。しかし、現実的にそれは規制できるものなのでしょうか、それとも業界から出てくるべきものなのでしょうか?リーダーシップはどこから生まれると思いますか?

スザンヌ・オリバー[00:27:34] 個人的には、業界から来るものは常にうまくいくと思います。しかし、結局のところ、標準化団体は本当に良い仕事をしていると思います。つまり、この 0 から 5 までの 6 つのレベルの自律性は、私が間違っていなければ、自律自動車組織である SEA によって維持されていると思います。インターネットは現在、独立した機関によって規制されています。ですから、ご存知のとおり、私は独立機関に投票します。しかし、業界の観点から言えば、そうでなければ私は留まらないと思います。うーん、確かに、そしてこの電話会議でも言及されましたが、Yihua がグリーンウォッシングという概念について言及したと思います。自己認証であるべきではないと思います。カーボンやカーボンオフセットなど、そういったものが多すぎます。ご存知のとおり、私たちは倫理的に、つまり環境に配慮しているとか、倫理的な技術という意味で、1つのMLアルゴリズムを機械で実行しているスタートアップをあまりにも多く見てきました。そして、彼らのピッチデッキには、私が会社に機械を1つだけ置いている、つまり、既製のコンピュータービジョンアルゴリズムを1つだけ使っていると書いてあります。 。 同様に、それが何であるか、それが何のために存在するか、それがどのような価値をもたらすかを誰にも理解させるのにも役立たないと思います。しかし、この電話でニールとあなたが指摘した点は非常に多岐にわたります。

エミリー・ウェアマウス[00:29:20] イーフアさん、このようなものを開発しているあなた自身についてはどう思いますか。開発者自身がどの程度の責任を負うべきだと思いますか。また、どの程度不公平だと思いますか。そして、ご存知のとおり、皆さんは、より広い社会として私たちが規制するようなものを創造する権利を残されるべきです。

廖一華[00:29:32] 責任ある AI に関しては、私たち AI 実践者も大きな責任を持つべきだと考えています。Netskope には、AI 戦略の策定やレビュー プロセスの設定などを支援する社内 AI ガバナンス委員会があります。そして、新しい取り組みや新しい AI モデルに取り組み始めるたびに、非常に堅牢な社内セキュリティおよびプライバシー レビュー プロセスを必ず実行し、アンケートに回答して、モデルに何が含まれるかを明確にする必要があります。モデルとは何か、モデルはどのように使われるのか、プライバシーに関する懸念はあるかなど。 ですから、政府や業界だけでなく、すべての企業、そしてすべての AI 実践者がこのことを認識し、真剣に受け止めるべきだと私は思います。そして、私たち全員が責任ある方法で AI システムや製品を構築できるようにするためです。

エミリー・ウェアマウス[00:30:48] ありがとうございます。それは私があなたに投げかけた意地悪な質問でした。それで、その問題に取り組んでいただきありがとうございます。私はこの会話を本当に楽しんでいます。そして、もし私たちがイギリスのパブで心地よく過ごしたら、おそらくこの会話はもっと何時間も続くだろうと、私は全く疑いを持っていません。でも今、プロデューサーが私に手を振っているので、それが笛を吹いて試す合図となり、皆さんを締めくくります。 それで、試して要約しますが、間違っていたら遠慮なく中断してください。 あなた方 3 人が私の質問に答えた方法はそれぞれ異なっており、多くの点で絡み合っていると言えると思いますが、多くの点で一致しているようにも感じます。そして、皆さんは、チャットGPT、AI、MLを同義語として使うのをやめてほしいということにほぼ同意していると思います。 ニール、私たちはみんなあなたの願いに賛同し、その実現に向けて努力します。 この議論では私たち自身も罠に陥りました。私が同じ例に言及していたことに皆さんがある程度気づいたかどうかは分かりませんが、私たちはもっと良くしなければなりません。また、私たちは、マスコミの注目や高い評価を狙って、あらゆるものに付けられているこの派手な AI ラベルの背後にある、より明確な内部の詳細をアメリカのリスナーに提供することが有益であるという点でもほぼ同意したと思います。組織やユーザーは、評価の際にどの程度のリスクを適用すべきか、何を信頼してよいのか、何を信頼すべきでないのかをよりよく理解できるようになります。そして、私たちが全体を通して触れ、スザンヌさんの主な回答からも明らかになった最後の点は、AI サプライ チェーン全体におけるデータの所有権について、入ってくるものと出ていくものの両方に関して、より多くの会話をすることで確実に利益を得られるだろうということです。つまり、社会、企業、個人の間で、所有権に関する会話がどのようなものであるかについての理解を深め、人々が十分な情報に基づいて決定を下せるようにするのです。しかし、そのリストについて考えるだけで、私たちは何をすべきか分かりますか?つまり、これは非常に控えめなリストです。

ニール・サッカー[00:32:36] 簡単そうですね。

スザンヌ・オリバー [00:32:37] Yeah, all solved. In one podcast.

エミリー・ウェアマス[00:32:41] もっと頻繁に連絡をくれるといいですね。皆さん、お時間をいただき、また、皆さんそれぞれの視点から、非常に興味深く、部門横断的な会話ができたことに、感謝いたします。リスナーの皆さん、次回の「Security Visionaries」でお会いしましょう。ありがとうございます。

Yihua Liao [00:33:00] ありがとうございます。

ニール・サッカー[00:33:00] 皆さん、ありがとう。

スザンヌ・オリバー[00:33:01] ありがとうございます。

セキュリティトランスフォーメーションの未来を聴く

このフォームを送信することにより、あなたはNetskopeの 利用規約 に同意し、当社の プライバシーに関する声明に同意したことになります。