Evento di Lancio: Smart AI Security. Controllo Totale dei Dati. Prenota il tuo posto

chiudere
chiudere
La tua rete di domani
La tua rete di domani
Pianifica il tuo percorso verso una rete più veloce, sicura e resiliente, progettata per le applicazioni e gli utenti che supporti.
Experience Netskope
Prova direttamente la piattaforma Netskope
Ecco la tua occasione per sperimentare in prima persona la piattaforma single-cloud di Netskope One. Iscriviti a laboratori pratici e a ritmo autonomo, unisciti a noi per dimostrazioni mensili di prodotti dal vivo, fai un test drive gratuito di Netskope Private Access o partecipa a workshop dal vivo guidati da istruttori.
Un leader in SSE. Ora è un leader nel settore SASE a singolo fornitore.
Netskope è riconosciuto come Leader Più Lontano in Visione sia per le piattaforme SSE che SASE
2 volte leader nel Quadrante Magico di Gartner® per piattaforme SASE
Una piattaforma unificata costruita per il tuo percorso
Securing Generative AI for Dummies
Securing Generative AI for Dummies
Scopri come la tua organizzazione può bilanciare il potenziale innovativo dell'AI generativa con pratiche solide di sicurezza dei dati.
eBook sulla Modern Data Loss Prevention (DLP) for Dummies
Modern Data Loss Prevention (DLP) for Dummies
Ricevi consigli e trucchi per passare a un DLP fornito dal cloud.
Modern SD-WAN for SASE Dummies Book
Modern SD-WAN for SASE Dummies
Smettila di inseguire la tua architettura di rete
Comprendere dove risiede il rischio
Advanced Analytics trasforma il modo in cui i team di operazioni di sicurezza applicano insight basati sui dati per implementare policy migliori. Con l'Advanced Analytics, puoi identificare tendenze, concentrarti sulle aree di interesse e utilizzare i dati per agire.
Supporto tecnico Netskope
Supporto tecnico Netskope
I nostri ingegneri di supporto qualificati sono dislocati in tutto il mondo e possiedono competenze diversificate in sicurezza cloud, networking, virtualizzazione, content delivery e sviluppo software, garantendo un'assistenza tecnica tempestiva e di qualità.
Video Netskope
Formazione Netskope
La formazione Netskope ti aiuterà a diventare un esperto di sicurezza cloud. Siamo qui per aiutarti a proteggere il tuo percorso di trasformazione digitale e a sfruttare al meglio le tue applicazioni cloud, web e private.

In mezzo a questo clamore infinito, qual è l'unica cosa dell'IA di cui vorresti parlare di più? In questo episodio, la conduttrice Emily Wearmouth si siede con Neil Thacker, CISO EMEA, Yihua Liao, responsabile di Netskope AI Labs, e Suzanne Oliver, direttrice della strategia IP di Scintilla, per discutere degli argomenti nel campo dell'IA che ognuno di loro vorrebbe discutesse di più.

Penso che quest'epoca stia sicuramente chiedendo un po' più di trasparenza su cosa sia e cosa non sia IA e cosa sia ML. Spesso vengono usati in modo intercambiabile e in realtà sono molto diversi. Penso che ci sia molto clamore perché manca di comprensione di cosa questi sistemi possano e non possano fare.

Suzanne Oliver, Direttore della strategia IP presso Scintilla
Suzanne Oliver

 

Timestamp

*(0:01): Presentazioni*(14:54): Che tipo di domande stai ponendo ai responsabili tecnici dell'IA come responsabile della sicurezza?
*(1:28): Qual è una cosa dell'IA che vorresti davvero vedere discussa di più?*(20:24): Come affronti le conversazioni sulla trasparenza e la proprietà dell'intelligenza artificiale?
*(3:48): Chi dovrebbe possedere queste definizioni?*(27:02): Chi dovrebbe possedere le definizioni e gli standard dell'IA?
*(5:35): Ci sono esempi di IA che forse la gente non saprebbe cercare?*(29:20): Quanta responsabilità pensi che debbano assumersi gli sviluppatori stessi?
*(8:30): Qual è la tua opinione riguardo al tipo di rietichettatura persistente di tutto come ChatGPT?*(30:48): Considerazioni finali

 

Altri modi per ascoltare:

In questo episodio

Neil Thacker
CISO, EMEA presso Netskope

gallone

Neil Thacker

Neil Thacker is a veteran information security professional and a data protection and privacy expert well-versed in the European Union General Data Protection Regulation (EU GDPR).

Logo LinkedIn

Suzanne Oliver
Direttore della Strategia di Proprietà Immobiliare presso Scintilla

gallone

Suzanne Oliver

Suzanne è un'avvocatessa con doppia qualifica in brevetti nel Regno Unito e in Europa e di recente è entrata a far parte del team Scintilla in qualità di Direttrice della strategia IP. Prima di intraprendere la carriera nel settore della proprietà intellettuale, ha trascorso diversi anni nel settore dell'ingegneria. Suzanne ha lavorato internamente presso una start-up di tecnologia e robotica, GroundWOW, occupandosi della strategia di proprietà intellettuale e dello sviluppo delle politiche di proprietà intellettuale. In precedenza, è stata responsabile delle operazioni, degli aspetti legali e della proprietà intellettuale presso SeeChange Technologies, una consociata interamente controllata e successiva scissione di ARM Ltd. Prima di lavorare con SeeChange Technologies, Suzanne ha gestito i team di ARM dedicati alla tutela dei brevetti e dei marchi a livello globale, supportando un portafoglio diversificato di strategie di proprietà intellettuale, politiche e questioni di sviluppo per ARM.

Oltre alle sue impressionanti credenziali professionali, ricopre diverse posizioni NED e nel Consiglio di Ministro, l'ultima delle quali come Presidente della UK IP Federation. Questo la ha portato a consigliare il governo britannico nel campo dell'innovazione e della proprietà intellettuale.

Suzanne ha sostenuto le donne nelle STEM, nell'inclusione e nella diversità durante tutta la sua carriera, venendo nominata 'World Leading IP Strategist' da IAM per il 2017 e come Managing IP 'Corporate IP Star' nel 2018 e 2019. Nel 2018 ha vinto un premio nazionale per il suo lavoro nella leadership nella Diversità e Inclusione Aziendale.

Logo LinkedIn

Yihua Liao
Capo dei Netskope AI Labs presso Netskope

gallone

Yihua Liao

Dr. Yihua Liao is the Head of AI Labs at Netskope. His team Develops cutting-edge AI/ML technology to tackle many challenging problems in cloud security, including data loss prevention, malware and threat protection, and user/entity behavior analytics. Previously, he led data science teams at Uber and Facebook.

Logo LinkedIn

Emily Wearmouth
Direttore delle comunicazioni internazionali e dei contenuti presso Netskope

gallone

Emily Wearmouth

Emily Wearmouth gestisce le comunicazioni di Netskope in EMEA, LATAM e APAC. Lavorando tra pubbliche relazioni, social media, referenze clienti e creazione di contenuti, Emily si occupa di scoprire storie e raccontarle in modo da aiutare clienti e potenziali clienti a capire cosa può fare Netskope per loro.

Logo LinkedIn

Neil Thacker

Neil Thacker is a veteran information security professional and a data protection and privacy expert well-versed in the European Union General Data Protection Regulation (EU GDPR).

Logo LinkedIn

Suzanne Oliver

Suzanne è un'avvocatessa con doppia qualifica in brevetti nel Regno Unito e in Europa e di recente è entrata a far parte del team Scintilla in qualità di Direttrice della strategia IP. Prima di intraprendere la carriera nel settore della proprietà intellettuale, ha trascorso diversi anni nel settore dell'ingegneria. Suzanne ha lavorato internamente presso una start-up di tecnologia e robotica, GroundWOW, occupandosi della strategia di proprietà intellettuale e dello sviluppo delle politiche di proprietà intellettuale. In precedenza, è stata responsabile delle operazioni, degli aspetti legali e della proprietà intellettuale presso SeeChange Technologies, una consociata interamente controllata e successiva scissione di ARM Ltd. Prima di lavorare con SeeChange Technologies, Suzanne ha gestito i team di ARM dedicati alla tutela dei brevetti e dei marchi a livello globale, supportando un portafoglio diversificato di strategie di proprietà intellettuale, politiche e questioni di sviluppo per ARM.

Oltre alle sue impressionanti credenziali professionali, ricopre diverse posizioni NED e nel Consiglio di Ministro, l'ultima delle quali come Presidente della UK IP Federation. Questo la ha portato a consigliare il governo britannico nel campo dell'innovazione e della proprietà intellettuale.

Suzanne ha sostenuto le donne nelle STEM, nell'inclusione e nella diversità durante tutta la sua carriera, venendo nominata 'World Leading IP Strategist' da IAM per il 2017 e come Managing IP 'Corporate IP Star' nel 2018 e 2019. Nel 2018 ha vinto un premio nazionale per il suo lavoro nella leadership nella Diversità e Inclusione Aziendale.

Logo LinkedIn

Yihua Liao

Dr. Yihua Liao is the Head of AI Labs at Netskope. His team Develops cutting-edge AI/ML technology to tackle many challenging problems in cloud security, including data loss prevention, malware and threat protection, and user/entity behavior analytics. Previously, he led data science teams at Uber and Facebook.

Logo LinkedIn

Emily Wearmouth

Emily Wearmouth gestisce le comunicazioni di Netskope in EMEA, LATAM e APAC. Lavorando tra pubbliche relazioni, social media, referenze clienti e creazione di contenuti, Emily si occupa di scoprire storie e raccontarle in modo da aiutare clienti e potenziali clienti a capire cosa può fare Netskope per loro.

Logo LinkedIn

Trascrizione dell'episodio

Aperto per la trascrizione

Emily Wearmouth [00:00:01] Ciao e benvenuti a questa edizione di Security Visionaries, un podcast per chiunque lavori negli ecosistemi della cybersecurity e dei dati. Sono la vostra conduttrice, Emily Wearmouth, e questa settimana ho tre ospiti straordinari che portano tre prospettive diverse a una discussione che volevo avere con loro sull'IA. Quindi, prima di tutto, lasciate che vi presenti tutti. Innanzitutto, abbiamo Yihua Liao, un data scientist che ha lavorato per tutti i grandi nomi, Facebook, Microsoft, Uber, e ora è a capo dei AI Labs di Netskope. Quindi benvenuta, Yihua.

Yihua Liao [00:00:31] Grazie. Felice di essere qui.

Emily Wearmouth [00:00:32] Ora abbiamo Neil Thacker, che è un chief information security officer e un responsabile della protezione dei dati molto esperto. Ha lavorato con nomi importanti come Swiss Re, Deutsche Bank, Camelot, la società della lotteria. Ha inoltre lavorato come consulente sia per ENISA che per la Cloud Security Alliance. Benvenuto Neil.

Neil Thacker [00:00:49] Grazie, Emily. È un grande piacere essere qui.

Emily Wearmouth [00:00:51] E infine, oggi Suzanne Oliver è la nostra esperta di proprietà intellettuale. Suzanne lavora in privato come stratega di proprietà intellettuale e avvocato presso Cintra. Ha gestito il dipartimento di proprietà intellettuale presso ARM ed è anche una nuova a Westminster nel Regno Unito, dove rappresenta numerosi enti di proprietà intellettuale e associazioni di intelligenza intellettuale e di machine learning a livello governativo. Ho incontrato Suzanne per la prima volta alla London Tech Week, dove abbiamo avuto una bella conversazione cercando di mangiare educatamente per delle piccole scatole di cartone. Quindi sono davvero felice che si unisce a noi oggi, così posso avere una seconda possibilità per farmi una prima impressione. Benvenuta, Suzanne.

Suzanne Oliver [00:01:23] Beh, grazie. E sì, è stato un pranzo fantastico. Benissimo. Grazie.

Emily Wearmouth [00:01:28] L'IA è un argomento molto pubblicizzato, e penso che sarebbe difficile trovare qualcuno che non abbia parlato di IA quest'anno. E quindi potreste chiedervi: cosa possiamo aggiungere a questo enorme gruppo di discussioni? Ed è proprio questo che volevo fare oggi. Volevo rivolgere la domanda ai nostri relatori. E così ho chiesto a ciascuno di loro di essere pronta a rispondere a una mia domanda. E la domanda è: in mezzo a tutte queste chiacchiere e al clamore che circonda l'intelligenza artificiale, quale argomento vorresti davvero che venisse discusso di più? Ognuno affronta la questione da un punto di vista leggermente diverso, quindi vediamo quali sono le loro risposte. E Neil, comincerò con te. Quindi è un po' come un appuntamento al buio. Prima domanda per te, per favore Neil.

Neil Thacker [00:02:05] Ehm, sì, è un'ottima domanda. Credo. Voglio dire, ad esempio, mi piacerebbe vedere tutti smettere di usare chatGPT, AI e ML sono sinonimi, quindi penso che aiuti allontanarci da questo per capire meglio e aumentare la consapevolezza di quanto l'IA sia diffusa oggi. Penso che generalmente diciamo che è sotto-dichiarato. Quindi è simile a dire che in passato qualcuno che ha avuto un'organizzazione, per esempio, stiamo usando il cloud, ma in realtà usano migliaia di app cloud e ognuna svolge compiti leggermente diversi. E penso che abbiamo la stessa sfida con l'IA. È già piuttosto diffuso, ancora una volta, nelle organizzazioni e, naturalmente, anche nei consumatori. Stanno utilizzando questi strumenti e servizi. Quindi, ancora una volta, quello sarebbe il numero uno. E naturalmente, intendo dire, è importante per una serie di aspetti chiave. Quindi, una è la consapevolezza generale dell'uso attuale dell'IA e anche la consapevolezza che non è una tecnologia futura. Succede oggi. In secondo luogo, credo che dobbiamo comprendere le persone, il tipo di attività e i dati che i consumatori conoscono e che l'intelligenza artificiale non è solo un'app specifica. Quindi è un po' come dire che è ChatGPT. Voglio dire, il mio odio è quando sento qualcuno parlare di AI e dice che è AI, come ChatGPT, è un malinteso comune che oggi ci siano solo poche app che utilizzano capacità di tipo IA. Quindi vive in molte delle app che usiamo oggi. Viene utilizzato, è pervasivo. È fondamentale che organizzazioni e consumatori comprendano quale motivo, quali dati vengono elaborati, quale risultato si intende attraverso l'uso di quell'app e servizio. Questi sono quindi gli aspetti chiave che vedo.

Emily Wearmouth [00:03:48] Fantastico, grazie Neil. Sto guardando la reazione di Suzanne e ho una domanda per te sul retro di questo. Chi pensi dovrebbe essere il proprietario di queste definizioni? Sai, Neil non vuole che sia definito solo come ChatGPT o esiste una definizione o uno standard comune per l'IA? E se sì, chi non lo fa o chi dovrebbe possederlo?

Suzanne Oliver [00:04:07] Ancora, davvero buona domanda. Oggi nessuno ne possiede più. E ci sono altri standard che vengono usati per descrivere i livelli, ad esempio i livelli di autonomia in termini di auto e veicoli autonomi. E penso che quest'epoca abbia certamente bisogno di un po' più di trasparenza su cosa sia e cosa non sia IA e cosa sia ML. Spesso vengono usati in modo intercambiabile e in realtà sono molto diversi. Quindi penso che ci sia molto clamore, e credo che ci sia molto hype perché manca di comprensione di cosa questi sistemi possano o non possano fare. Ma d'altro canto, c'è una mancanza di comprensione di chi possiede ciò che entra e chi possiede ciò che esce, per riprendere uno dei punti di Neil, che è il mio più grande, e credo che Netskope in uno dei tuoi report abbia evidenziato la quantità di codice sorgente che viene effettivamente immesso in questi strumenti. Il codice sorgente proprietario può essere una mancanza di comprensione che questi strumenti non pretendono di mantenere quel segreto o non dicono di permetterti di tenerlo come tuo. E affermano di possedere anche qualsiasi produzione. Quindi tutta quella questione della trasparenza su chi possiede cosa. Come si chiama e cosa fa, penso di sì. Forse non è giusto per la standardizzazione, ma è giusto per la creazione di un New linguaggio che ci aiuti a comunicare questi aspetti in modo più chiaro alle persone che non li capiscono subito.

Emily Wearmouth [00:05:35] Neil, hai un esempio, parli dell'intelligenza artificiale già pervasiva e che sia una tecnologia di oggi, non del futuro. Hai esempi di IA in azione che forse la gente non saprebbe se la cerca lì?

Neil Thacker [00:05:47] Sì, intendo dire, abbiamo assistito all'introduzione di molti assistenti AI, soprattutto nelle riunioni e nelle videoconferenze, ecc. Quindi ormai è abbastanza comune che, quando mi unisco a una riunione, a volte ci sia un assistente AI che prende il posto di qualcuno, il che è sempre interessante. Ma sì, ovviamente è immediato, voglio dire che controllo i partecipanti alle riunioni. Non tutti lo fanno. Non tutti si rendono conto che esiste un assistente AI. E penso che, intendo dire, forse va bene. Ad esempio, se l'assistente prende appunti e/o magari documenta i verbali della riunione, il che è fantastico perché alla maggior parte delle persone non piace farlo. Quindi è fantastico. Automatizziamo questa capacità. Ma ovviamente, se quel sistema di intelligenza artificiale sta eseguendo un'analisi dei sentimenti aggiuntiva, forse sta esaminando il punteggio dell'umore, forse ho visto questo, ho visto che questo assistente di intelligenza artificiale esegue un punteggio dell'umore ogni 5 secondi, il che mi preoccupa un po'. Voglio dire, anche noi abbiamo questo, ho visto alcuni servizi che utilizzano il punteggio del QI, quindi in un certo senso ascoltiamo come le persone parlano e interagiscono e cerchiamo di valutare il loro QI. Ora, ovviamente, se si intende fare qualcosa del genere durante una riunione, è opportuno avvisare qualcuno in anticipo, perché potrebbe voler controllare prima il fornitore, il provider di quel servizio, l'assistente AI, forse la sua informativa sulla privacy. Forse dovresti spiegarlo subito. Quindi, ovviamente, se stai avendo una brutta giornata, allora forse... Non lo so. Voglio dire, una di queste cose è che prima o poi qualcuno verrà colto in fallo. Quindi, questo è solo un esempio, forse un esempio approssimativo, ma penso che sia lì che dobbiamo capire meglio le capacità del servizio, cioè ciò che è capace. Non si tratta solo di registrare e creare verbali delle riunioni. C'è così tante possibilità lì. E sta semplicemente rendendo le persone consapevoli di questo. Ora, per fare un esempio, sono tornato da un fornitore, uno di questi servizi, e gli ho chiesto: "Ok, qual è lo stato della vostra politica sulla privacy?" E la loro risposta, non preoccupatevi, è completamente coperta. E in ogni caso, questo è il futuro. Quindi accettatelo e basta. Quindi, subito suonano i campanelli d'allarme. Certo che sì, certo. Ho poi dovuto approfondire per scoprire esattamente cosa offrivano il loro servizio. Quindi penso ancora una volta che sia piuttosto difficile per le persone capire questo. E ancora, a volte è troppo tardi. Vengono messi alle strette. Devono fare una valutazione rapida, un giudizio su questi servizi. Quindi sì, si tratta di comprendere davvero questa comprensione. Ancora una volta, un certo livello di fiducia forse da parte del fornitore di queste tecnologie e servizi.

Emily Wearmouth [00:08:12] Direi che è piuttosto audace mandare l'intelligenza artificiale a una riunione al posto tuo. Tutte le conversazioni su persone che stanno per perdere il lavoro e che in qualche modo percorrono volontariamente quella strada, vero?

Neil Thacker [00:08:23] Sì, credo che la sfida sia quando ci organizziamo, inviamo tutti il nostro assistente AI alla riunione. Voglio dire, di cosa discutono? Mi piacerebbe essere una mosca sul muro.

Emily Wearmouth [00:08:30] Con questo. Brillante. Yihua. Volevo coinvolgerti. A questo punto, stai lavorando molto alla creazione di sistemi di intelligenza artificiale e alla scrittura di modelli per modelli di apprendimento automatico. Cosa ne pensi di questa continua rietichettatura di tutto come ChatGPT? Lo trovi frustrante?

Yihua Liao [00:08:49] Lo è, sai, perché ho la sensazione che l'AI-washing sia sicuramente un problema. Sai, sta oscurando la chiarezza nella comprensione dell'IA. Quindi mi piacerebbe sicuramente vedere più discussioni sul modo in cui, sai, le aziende di sicurezza e forse le aziende tecnologiche in generale, sai, come stiamo sviluppando l'intelligenza artificiale e l'apprendimento automatico, sai, qual è l'input per il modello per l'intelligenza artificiale e qual è l'output e quanto è affidabile l'output? A destra? E ho la sensazione che ci sia una mancanza di comprensione e di trasparenza su questi aspetti. Di conseguenza, penso che ci siano alcuni malintesi. Sai, per come la vedo io, di solito alcune persone dicono: "Ehi, posso fare tutto". Sai, ci ruberà il lavoro e controllerà tutto ciò che facciamo. E poi ci sono anche persone che dicono: stai allenando con i miei dati e non voglio che usi i miei dati per migliorare, per aiutare i miei concorrenti. Quindi penso che forse da quando ho lavorato ai Netskope AI Labs e nel corso degli anni abbiamo effettivamente sviluppato molte capacità di intelligenza artificiale a Netskope, anche prima di tutta questa frenesia generale per l'intelligenza artificiale. Forse potrei condividere alcune delle mie prospettive e spiegare come sviluppiamo modelli di apprendimento automatico e intelligenza artificiale presso Netskope. Quindi, prima di tutto, presso Netskope abbiamo effettivamente creato molti modelli di intelligenza artificiale, tra cui modelli per identificare malware, siti web di phishing e dati sensibili. Credo che Suzanne abbia menzionato il classificatore del codice sorgente, un elemento che il mio team ha effettivamente sviluppato un paio di anni fa. Utilizziamo poi l'apprendimento automatico anche per identificare comportamenti anomali degli utenti, che potrebbero indicare una violazione dei dati o una minaccia interna e così via. Quindi, ad alto livello, ciò che entra nei nostri modelli sono i dati che cerchiamo di raccogliere da diverse fonti, compresi i dati di dominio pubblico o i dati che acquisiamo da terze parti. Per questo motivo non utilizzeremmo mai i dati dei nostri clienti per sviluppare modelli di apprendimento automatico senza il loro permesso. Quindi, come puoi immaginare, per alcuni modelli di apprendimento automatico, come ad esempio l'analisi del comportamento dell'utente, dobbiamo analizzare il comportamento normale di ogni singolo utente. Ma anche per questo tipo di modello, prima di tutto, abbiamo il permesso dei nostri clienti. In secondo luogo, stiamo esaminando altre informazioni che non stiamo esaminando, ad esempio, quando l'utente scarica un file, non dobbiamo necessariamente esaminare il contenuto del file per decidere se quel comportamento è anomalo o meno. Giusto. Quindi sì, fondamentalmente questo è ciò che, sai, il modello viene inserito. Ora, in termini di output del modello. E sai, molti di quelli che oggi quasi tutte le aziende affermano di fare IA, di quanto siano accurati i modelli di IA. Ma direi che se qualcuno ti dice che la sua intelligenza artificiale è precisa al 100%, direi che sta mentendo. Sai, alla fine della giornata, l'IA è davvero una cosa che puoi pensare come una probabilità, sai, quanto probabilità che qualcosa accada in base ai dati di addestramento che hanno. Quindi, sai, serve sempre un essere umano nel ciclo per verificare l'output del modello AI o magari una sorta di loop di feedback all'interno del tuo prodotto, così da poter prendere quel feedback e riaddestrare il modello e migliorarlo nel tempo. Quindi l'IA è davvero un processo innovativo. È un viaggio e non puoi mai aspettarti che il modello sia preciso al 100% o addirittura al 99% la prima volta. Devi sempre iterare nel tempo.

Emily Wearmouth [00:13:30] Vedo molti cenni sia da parte di Suzanne che di Neil. Sentiti libero di aggiungere qualcosa che volevi.

Suzanne Oliver [00:13:37] Sì, credo che fossi in un certo senso d'accordo con veemenza sul punto dell'affidabilità e penso che sia la mancanza di comprensione in particolare, sai, so che questo è il cruccio di Neil, quando si passa direttamente dall'IA a ChatGPT. Si tratta di un esempio piuttosto interessante di per sé, che può essere utilizzato perché presenta dati errati come corretti perché non ha alcuna comprensione di ciò che è giusto e sbagliato, ovvero di ciò che è vero. Sai, è solo la probabilità che questa sia la risposta che stai cercando. Ecco come funziona. E credo che sia qui che, sapete, torna il mio punto precedente sull'istruzione e sulle competenze per capire che queste cose sono strumenti. E come gli esseri umani, sono fallibili, ma lo sono in modi diversi. A destra. E penso che si pensi che noi, come società, dobbiamo capire un po' meglio questo. Ma il punto è, sai, avere questa trasparenza su come li descriviamo, forse dobbiamo categorizzarli in diversi modi funzionali e categorizzare il rischio in uscita come i livelli di autonomia di prima, ma sì, in un certo senso sì annuisco, annuisco con veemente accordo.

Emily Wearmouth [00:14:54] E Neil, volevo chiederti e hai qualcos'altro da dire, quindi sentiti libero di rispondere a entrambi. Ma se alcuni dei punti che Yihua stava rilevando ti hanno colto come qualcuno il cui compito è proteggere i dati. Che tipo di domande poni a qualcuno come Yihua in altre aziende tecnologiche per capire davvero a cosa servono questi sistemi?

Neil Thacker [00:15:16] Sì, voglio dire, alla fine si torna sempre ai dati, giusto? Quindi domande su cosa succede ai dati inseriti come parte di una query di input. Ad esempio, se usi GenAI, ciò che succede al modello è che il modello viene utilizzato per, per, per fornire servizi aggiuntivi in modo privato o pubblico e anche ciò che un'analisi controlla. E ovviamente è stato menzionato di nuovo un esempio di controlli organizzativi implementati, ma poi cosa succede all'output e se viene eseguito un qualche tipo di controllo di integrità sull'output e se l'output può essere utilizzato anche per esaminare e pre-addestrare ulteriori modelli? Giusto. Quindi questo è un altro aspetto che, ancora una volta, potresti ovviamente inserire in un ciclo e sfruttare ulteriormente, perfezionare ulteriormente la query di output in base a una serie di cicli di feedback che utilizzano servizi di intelligenza artificiale. Ma, ancora una volta, è importante capire che, ancora una volta, quanto sono vecchi quei dati? Quante iterazioni vengono eseguite per quei dati? Ma poi tutto si riduce a cose come, per esempio, quale Paese? Penso che questo sia un argomento su cui ci porremo sicuramente più domande nel prossimo futuro, quando forse entreranno in vigore più normative per proteggere gli individui. E sentiremo dire che la legge sull'intelligenza artificiale dell'UE entrerà in vigore per proteggere i cittadini dell'UE. Ma, naturalmente, questo di solito significa che ci sarà una serie di altri requisiti e regolamenti normativi che arriveranno da altri paesi che vogliono continuare a fare affari con l'UE, cose di questo tipo. Abbiamo visto che il GDPR è un esempio. Ecco alcune cose di cui essere consapevoli. Un'altra cosa che vorrei aggiungere è che, credo che siamo tutti consapevoli, forse in questa chiamata e forse anche altri sono consapevoli del fenomeno dell'allucinazione, in cui l'intelligenza artificiale può occasionalmente creare contenuti fantasiosi e creativi. E non si basa su fatti o verità. L'ho visto di recente come esempio. Qualcuno chiese di nuovo: "Qual è il record mondiale per l'attraversamento della Manica a piedi?" E ha fornito un nome, una data e un orario di attraversamento.

Emily Wearmouth [00:17:20] Quello era il mio record, Neil.

Neil Thacker [00:17:21] Quindi sì, intendo, 14 ore e 51 minuti.

Emily Wearmouth [00:17:24] Ci ho messo un sacco di tempo. Sì, sì.

Neil Thacker [00:17:26] Ma per alcuni, forse era ancora una volta corretto. Forse qualcuno ha effettivamente attraversato di nuovo la Manica, ad esempio tramite il tunnel della Manica. Ma poi il contenuto successivo diceva che l'attività avrebbe dovuto essere svolta solo da nuotatori professionisti. Quindi si può pensare che si tratti di una sorta di allucinazione. Quindi questo è solo un esempio. Ma sì, penso che dobbiamo essere consapevoli dei dati, della loro integrità, di come vengono protetti e anche di tutte le normative che probabilmente entreranno in vigore. Ma in realtà stiamo cercando di proteggere, ancora una volta, i cittadini riguardo all'uso di questi servizi e ai dati che vengono effettivamente elaborati.

Yihua Liao [00:17:59] Sì. Allora, Neil, è proprio vero. Voglio dire, l'allucinazione è sicuramente una sfida per, sai, i professionisti come me, stiamo provando un sacco di cose New , cercando di ridurre al minimo la probabilità di allucinazioni. Ma vorrei anche sottolineare che, sai, è importante sottolineare il fatto che hai menzionato prima. L'intelligenza artificiale si basa in realtà sui dati, giusto? La tua intelligenza artificiale è valida quanto i tuoi dati di addestramento. Sai, se non hai dati affidabili e di alta qualità, se i tuoi dati sono distorti e il tuo modello non funziona bene, sono sicuro che alcuni di voi avranno sentito la storia che alcuni modelli di AI con riconoscimento facciale sono meno accurati. E quando si tratta di pelle scura o di donne, i dati di allenamento presentano una certa distorsione di genere e di età. Quindi questo è un problema per noi, sai, per aziende di sicurezza come la nostra, perché la maggior parte dei nostri modelli di machine learning non guardiamo a cose come età, genere e altre informazioni PII. Ma sostengo che è comunque possibile che l'addestramento che usiamo per addestrare i nostri modelli di IA non rappresenti effettivamente ciò che vediamo nel mondo reale. Quindi, come data scientist o scienziatore ML, cerchiamo sempre di migliorare la qualità dei nostri dati di addestramento affinché siano più rappresentativi di ciò che vediamo nel mondo reale.

Neil Thacker [00:19:44] Sì, stiamo anche vedendo, per esempio, tutta la catena di approvvigionamento e l'economia dell'IA, giusto? Ci sono organizzazioni che forniscono dati che possono essere usati per addestrare questo tipo di cose, e lì iniziamo a parlare anche di integrità dei dati. E dove siano stati ottenuti quei dati è un po' come la discussione sul marketing. Da dove sono state ottenute queste informazioni? È stato ottenuto con il consenso? Tutte quelle cose. Quindi anche questo porta a una discussione, giusto? L'intera indagine economica sulla catena di approvvigionamento da cui provengono quei dati, chi ha dato il permesso o l'approvazione per elaborarli. A destra. Ci sono molti, credo, requisiti e sfide che le organizzazioni devono affrontare mentre iniziano a guardare all'IA e all'uso dell'IA nella loro organizzazione.

Emily Wearmouth [00:20:28] Assolutamente. E penso che questo possa collegarsi molto bene a come risponderesti alla domanda. Suzanne. Abbiamo fatto una pre-chat, presenti la tua risposta. Quindi, come risponderesti alla domanda? Qual è l'unica cosa di cui vorresti che si discutesse di più?

Suzanne Oliver [00:20:42] Sì, credo di averne già parlato. È sicuramente una questione di trasparenza su ciò che entra, cosa esce e chi ne è il proprietario. Voglio dire, i dati in sé non possono essere posseduti in senso stretto, e probabilmente è un argomento completamente diverso, quindi non entrerò nei dettagli. Ma penso, basandomi sul punto di Yihua sul pregiudizio inconscio. Sai che ci sono almeno 35 bias cognitivi che abbiamo come esseri umani, e probabilmente ne avrei potuti nominare tre se me lo avessi chiesto prima di questa chiamata. Quindi, come possiamo aspettarci che i dati che entrano in questi strumenti siano rappresentativi di noi se non ci capiamo nemmeno fin dall'inizio? Quindi questo è uno, un elemento della mia risposta al libro, dovrei dire. L'altro è davvero chi possiede l'output. Quindi, dal mio punto di vista, l'IA tocca principalmente il copyright e la proprietà del copyright. Ad esempio, se carico alcune foto in uno di questi strumenti e questo crea una sorta di modifica che prende una delle mie foto e ci mette sopra, allora quella modifica è magari di proprietà dello strumento. Ad esempio, qui ci sarebbero OpenAI e ChatGPT, ma possiedo la foto originale, quindi il risultato è un New lavoro, ad esempio, che potrebbe potenzialmente violare qualcosa che è già accaduto in precedenza, perché con la violazione si guarda indietro e l'innovazione va avanti. Quindi, ancora una volta, questi sono concetti molto difficili da comprendere sia per persone semplici che per gli imprenditori. Ma se ne parla molto poco, a meno che non siate un po' dei fanatici della proprietà intellettuale come me. E certamente il linguaggio non è facile. Il copyright non è un argomento facile da comprendere, punto. Quindi penso che, come leader tecnologici, dobbiamo essere noi a rendere la conversazione più trasparente. E questo ci riporta al punto che stavo sollevando prima, ovvero avere un linguaggio comune che definiamo per parlare dei dati in entrata, dei dati in uscita e dello strumento stesso, in modo da poter realmente comprendere, monitorare e standardizzare parte di ciò che accade per rendere più facile la comprensione di ciò che sta accadendo.

Emily Wearmouth [00:23:04] Dal tuo punto di vista, in che misura stiamo cercando di chiudere la stalla dopo che i buoi sono scappati? Voglio dire, parli di cose come il fatto che Facebook possiede le mie foto delle vacanze da oltre un decennio. Fortunati loro. Ma per i consumatori, sembra che in una certa misura quel cavallo abbia smesso di gestire i dati per alimentare questi sistemi. Vale questo per le aziende o c'è ancora la possibilità di chiudere la porta?

Suzanne Oliver [00:23:26] Non sono sicura che chiuderemo mai la porta, ma penso che non abbia senso stare lì seduti a guardare il cavallo che scappa via e la distanza. Penso che forse ci sia un po' di lavoro da fare per radunare gli animali. E per me, è la velocità del cambiamento. È la velocità del cambiamento nelle organizzazioni, non sapere dove siano i loro dati d'oro, chi li gestisce, chi carica nel cloud. E solo tu puoi gestire la mia eccezione. Ma non vuoi che avvengano queste eccezioni. A destra. Quindi penso che si debba davvero comprendere il comportamento dell'ingegnere, quello delle persone di marketing e avere quelle conversazioni con loro su come questi strumenti sono ottimi. Ti aiuteranno a risparmiare tempo. Ma ti rendi conto che quando hai questo strumento di segreteria in esecuzione in background, si trova su un server in un paese in cui forse non vuoi che i verbali delle riunioni mensili del consiglio direttivo vengano archiviati su un server di quel paese, indipendentemente da quanto tempo ti farebbe risparmiare nella stesura di quei verbali? Quindi, anche se sembra una cosa facile da fare e uno strumento efficiente da utilizzare, in realtà presenta anche degli svantaggi. E si tratta solo di avere quel pizzico di cervello per dire: "Ok, sai, ogni cosa positiva deve avere un risvolto". Qui Neil ha accennato prima e si pone queste domande: ok, questo strumento sembra davvero efficiente, ma in realtà perché è gratuito? Perché è economico? Perché costa meno che avere una persona seduta lì, che scrive il verbale o lo condivide? E deve esserci anche l'altro lato dell'equazione. E credo che dovresti porti questa domanda.

Neil Thacker [00:25:15] Sì, credo di intendere, una delle preoccupazioni che ho in generale è che oggi vediamo già organizzazioni, ad esempio, che pubblicano questionari per comprendere meglio l'uso dell'intelligenza artificiale in un prodotto o in un servizio. La sfida che si presenta sempre è che un questionario è solitamente, ancora una volta, una tantum, magari sull'adozione di un New strumento, New tecnologia che potrebbe riguardare l'intelligenza artificiale, oppure potrebbe trattarsi di una revisione annuale di quello strumento. Ma penso che debba sempre essere una fase in cui stiamo quasi facendo questo in modo più regolare, più continuo, basandoci su, Suzanne, come hai sottolineato, questa rapida adozione, questa rapida crescita di maturità in questi servizi. Voglio dire, uno strumento che potresti adottare oggi potrebbe avere un aspetto molto diverso tra una settimana, due settimane o un mese, man mano che vengono aggiunte New funzionalità e capacità. Quindi è quasi necessario che si tratti di una valutazione continua. Sono un grande sostenitore dell'analisi dei punteggi delle app e dei servizi e del loro utilizzo per definire le policy in base a ciò. E ancora, potrebbe essere, per esempio, anche noi stiamo vedendo questa sfida riguardo ad app e servizi compromessi. Le regole che hanno introdotto, che i fornitori non avrebbero messo in atto per proteggere il servizio, sono state violate. Come la maggior parte delle cose che la gente hackera, anche gli hacker lo faranno. A destra. Quindi devi essere consapevole anche di queste cose. E sì, ci sono anche alcuni casi d'uso, intendo alcuni casi d'uso inverosimili in cui entrano in gioco strumenti che forse stanno oltrepassando il limite in termini di etica e che l'organizzazione, ad esempio, i dipendenti dell'organizzazione stanno utilizzando e forse questo potrebbe oltrepassare la loro stessa politica etica. Quindi, ancora una volta, questo deve far parte di quella valutazione, quel punteggio di fiducia. È qui che, da una prospettiva organizzativa, le organizzazioni dovrebbero cercare di fornire una migliore governance di supervisione sull'uso dei servizi di intelligenza artificiale.

Emily Wearmouth [00:27:02] Ti ho chiesto all'inizio, Suzanne, chi dovrebbe essere il proprietario delle definizioni e degli standard. E in un certo senso, questa è una ripetizione della domanda su chi dovrebbe essere il responsabile dell'aggiudicazione di questo tipo di decisioni. Neil ha accennato alle imminenti leggi dell'UE sull'intelligenza artificiale. E abbiamo visto molte pose da parte di governi di tutto il mondo che cercano di farsi vedere come leader nello sviluppo dell'IA. Ma è realisticamente qualcosa che può essere regolamentato o dovrebbe essere l'industria a farlo? Da dove pensi che arriverà la leadership?

Suzanne Oliver [00:27:34] Personalmente, penso che funzioni sempre quando si tratta di industria. Ma alla fine dei conti, penso che gli enti di normazione facciano davvero un buon lavoro. Quindi l'autonomia di questi sei livelli, da 0 a 5, è gestita da SEA, credo, che è un'organizzazione automobilistica autonoma, se non sbaglio. Internet è attualmente regolamentato da enti indipendenti. Quindi, sapete, il mio voto andrebbe a un organismo indipendente. Ma dal punto di vista del settore, altrimenti non credo che continuerò. Eh, ma certamente, e è stato appena menzionato anche in questa chiamata, penso che Yihua abbia menzionato il concetto di greenwashing. Non credo che si debba ricorrere all'autocertificazione. Ce n'è troppo con alcune emissioni di carbonio e compensazioni di carbonio e quel genere di cose che, sai, siamo, sai, penso eticamente, sai, verdi o qualsiasi altra cosa con un po' di etica tecnologica, cioè, ho visto troppe startup che hanno un algoritmo di apprendimento automatico in esecuzione sui loro macchinari e poi hanno dappertutto nei loro pitch deck, sai, dove io, azienda, macchinari, sai, stanno usando un algoritmo di visione artificiale già pronto. Penso che anche questo non aiuti nessuno a capire di cosa si tratta, a cosa serve e quale valore apporta. Ma ci sono molti punti che sia Neil che tu avete sollevato in questa chiamata.

Emily Wearmouth [00:29:20] Yihua, e tu, che ne dici di chi sta sviluppando queste cose, quanto pensi debba essere responsabilità degli stessi sviluppatori e quanto è ingiusto? E sapete, voi ragazzi dovreste essere lasciati liberi di creare cose che, come società più ampia, forse dovremmo regolare.

Yihua Liao [00:29:32] Penso che noi, in quanto professionisti dell'intelligenza artificiale, dovremmo avere anche noi una grande responsabilità quando si tratta di un'intelligenza artificiale responsabile. Qui a Netskope abbiamo un comitato interno di governance dell'IA che ci aiuta a definire la strategia dell'IA, a impostare i processi di revisione e così via. E ogni volta che iniziamo a lavorare su una New iniziativa o New modello di intelligenza artificiale, dobbiamo sempre sottoporci a un processo di revisione interna molto rigoroso della sicurezza e della privacy, e dobbiamo compilare dei questionari e poi chiarire in modo molto chiaro cosa viene inserito nel modello. Qual è il modello, come verrà utilizzato, ci sono preoccupazioni sulla privacy e così via. Quindi alcuni, penso che non solo il governo e l'industria, ma anche ogni azienda e tutti i professionisti dell'IA dovrebbero essere consapevoli di questo e prenderlo sul serio. E per garantire che tutti noi possiamo costruire sistemi o prodotti di intelligenza artificiale in modo responsabile.

Emily Wearmouth [00:30:48] Grazie. È stata una domanda cattiva quella che ti ho fatto. Grazie per aver affrontato questo problema. Quindi mi sto davvero godendo questa conversazione e non ho alcun dubbio che se fossimo comodamente sistemati nel pub britannico probabilmente potrebbe durare ancora molte ore. Ma il nostro produttore mi sta facendo cenno con la mano, e questo è il mio segnale per fischiare e cercare di chiudere voi. Quindi cercherò di riassumere e sentitevi liberi di interrompere se sto sbagliando. Penso sia giusto dire che ci sono molti fili intrecciati tra i diversi modi in cui voi tre avete risposto alla mia domanda, ma sembra anche che ci sia un ampio consenso. E penso che siate tutti in gran parte d'accordo sul fatto che vogliamo che le persone smettano di usare chatGPT, AI e ML come sinonimi. Quindi Neil, tutti noi appoggiamo il tuo desiderio e cercheremo di lavorarci su. Anche noi siamo caduti nella trappola in questa discussione. Non so se hai notato che in qualche modo mi riferivo allo stesso esempio, ma dobbiamo fare di meglio. E credo che siamo anche ampiamente d'accordo sul fatto che sarebbe utile avere informazioni più esplicite, sotto il cofano o sotto il cofano, per l'ascoltatore americano, dietro questa etichettatura scintillante di IA che le persone stanno mettendo su tutto, sia per attirare l'attenzione della stampa che per ottenere valutazioni elevate, in modo che le organizzazioni e gli utenti possano comprendere meglio quanto rischio dovrebbero applicare nelle loro valutazioni e di cosa possono e non possono fidarsi. E poi penso che l'ultimo punto che abbiamo toccato e che è emerso dalla tua risposta principale, Suzanne, è che sicuramente trarremmo beneficio da più conversazioni sulla proprietà dei dati all'interno dell'intera catena di fornitura dell'IA, sia per quanto riguarda ciò che entra che ciò che esce. Quindi costruire una maggiore comprensione all'interno della società, delle imprese, degli individui su come sia la conversazione sulla proprietà, così le persone possono prendere decisioni informate. Ma solo riflettendo su quella lista, sappiamo quanto abbiamo? Voglio dire, è una lista molto modesta.

Neil Thacker [00:32:36] Sembra facile.

Suzanne Oliver [00:32:37] Yeah, all solved. In one podcast.

Emily Wearmouth [00:32:41] Fatto, dovrebbero darci un appuntamento più spesso. Vi ringrazio tutti per il tempo che mi avete dedicato e per questa conversazione così interessante e interfunzionale, suppongo, in cui ognuno di voi ha espresso il proprio punto di vista. E quindi ai nostri ascoltatori voglio solo dire che ci vediamo la prossima volta su Security Visionaries. Grazie.

Yihua Liao [00:33:00] Grazie.

Neil Thacker [00:33:00] Grazie a tutti.

Suzanne Oliver [00:33:01] Grazie.

Abbonati al futuro della trasformazione della sicurezza

Inviando questo modulo, accetti i nostri Termini di Utilizzo e riconosci la nostra Dichiarazione sulla Privacy.