0:00:01.4 Emily Wearmouth: Ciao e benvenuti al podcast Security Visionaries. Oggi sono con me un ospite con cui volevo partecipare da un po', e non solo perché ha un ottimo titolo professionale, ma perché ha un ottimo titolo professionale. Mark Day è un Chief Scientist e lo fa per la società di cybersecurity e networking Netskope. Benvenuto allo show, Mark.
0:00:20.1 Giorno di marca: Grazie, Emily. È bello essere qui.
0:00:22.6 Emily Wearmouth: Ora, prima di entrare nell'argomento su cui ho intenzione di interrogarti oggi, potresti raccontarci un po' di te e del tuo background?
0:00:29.6 Giorno di marcatura: Certo. Come hai detto, sono il Capo Scienziato di Netskope. Ho fatto i miei studi di specializzazione al MIT, dove ho un dottorato. Sono un esperto di sistemi distribuiti e ho lavorato molto su sistemi distribuiti nel corso degli anni in diverse aziende tecnologiche, Netskope è quella attuale.
0:00:52.4 Emily Wearmouth: Quindi aiutami a capire, quando penso alla scienza, il mio cervello va subito alle pipette e alle provette. Ma aiutami a capire qual è il ruolo di chief scientist in un'azienda tecnologica, in particolare come si lavora fianco a fianco di un chief engineer, un chief product officer, un chief technology officer? Dove ti collochi in questo mix?
0:01:09.1 Giorno di marcatura: Beh, il mio ruolo qui è principalmente quello di porre buone domande e poi riconoscere quando ricevo risposte buone, o forse non così buone, e spingere per ottenere risposte migliori quando serve. E quindi un focus particolare per me è stato sull'infrastruttura, l'impianto idraulico, se vogliamo. Quindi so abbastanza per essere pericoloso riguardo a tutti i diversi tipi di tecnologie che entrano nella costruzione della soluzione Netskope. Quindi sono ben posizionato quando le cose vanno male o quando dobbiamo muoverci in una direzione diversa per capire quali sono i problemi e magari trovare le persone che possono realizzarlo meglio all'interno dell'organizzazione. Quindi è in parte una questione di essere un ricevitore di molte cose strane New tecniche che potrebbero emergere e che non sono ancora il portfolio di qualcun altro, e anche di essere pronti ad andare a fare domande senza preoccuparsi troppo se faccio domande stupide. Quindi è qui che il dottorato è utile, che posso dire che se non capisco qualcosa, probabilmente è davvero difficile o davvero New.
0:02:25.1 Emily Wearmouth: È un modo molto chiaro di... Voglio davvero il tuo posto, Mark. Voglio solo metterlo in fretta. Io me ne vado al MIT. Voglio il tuo lavoro.
[risate]
0:02:33.1 Emily Wearmouth: A questo punto lancerò un piccolo avviso di contenuto. Se non l'avete notato nel titolo dello show, questo episodio userà una parolaccia. È un problema lieve, ma se sei protettivo e troppo sensibile con orecchie che potrebbero tenerti intorno ai piedi mentre ascolti e prepari la cena, ecco il tuo avvertimento: useremo per intero la parola spesso abbreviata in BS. E c'è un motivo, te lo prometto. Ma magari far uscire qualcuno dalla cucina. Ok, avvertimento consegnato. Mark, qualche mese fa mi hai detto che i grandi modelli linguistici erano artisti di merda e che, nonostante ciò, credi che possano comunque essere incredibilmente preziosi, il che sembra estremamente contraddittorio. Quindi inizia dicendo: perché credi che gli LLM o i modelli di IA siano dei falsi?
0:03:18.2 Giorno di marcatura: A destra. Beh, questa non è un'intuizione originale. Tutto quello che ho fatto è stato prendere e abbracciare un articolo pubblicato che sottolineava il punto... Il titolo dell'articolo era ChatGPT è una stronzata. E il punto è che esiste una nozione tecnica di stronzata nella filosofia morale, dove viene usata fondamentalmente per descrivere il comportamento con cui dici ciò che è necessario per sostenere la tua tesi, senza considerare se sia vero o meno. E questa è una cosa che possiamo identificare con le persone che stanno facendo. E, sai, a volte va bene e a volte no. Ma è una caratteristica di questi grandi modelli linguistici che stanno ricevendo molta attenzione nel campo dell'IA, perché fondamentalmente il modo in cui funziona un grande modello linguistico è che costruisce cose plausibili e che suonano bene in base a ciò che è stato addestrato, ma non ha alcun concetto di cosa sia vero e cosa no. Quindi, in un senso quasi definitorio, i grandi modelli linguistici sono intrinsecamente falsi. Non sanno fare nulla di diverso da questo.
0:04:33.0 Emily Wearmouth: È per questo che abbiamo problemi come allucinazioni nei sistemi di IA?
0:04:37.8 Giorno di marca: Sì, allucinazione è il modo educato di riferirsi a una stronzata.
[risate]
0:04:42.2 Giorno del segno: E quindi penso che uno dei servizi di quell'articolo fosse sottolineare che quando i ricercatori di IA parlavano del fatto che i loro modelli a volte allucinavano o che c'era un problema di allucinazioni e che era necessario fare ulteriori ricerche, quello che in realtà stavano cercando di aggirare era il fatto che i loro modelli erano dei falsi. E come ho detto, penso che, sebbene ci siano certamente disaccordi su questo all'interno della comunità dell'IA, credo che ci siano buone ragioni per pensare che, dato il modo in cui funzionano i grandi modelli linguistici, cioè che producono statisticamente frasi probabili invece di fare riferimento a un qualche tipo di conoscenza, Penso che siano intrinsecamente dei falsi. E la cosa che colpisce è quante volte riescono a dire qualcosa che si rivela vero, invece del fatto che a volte notiamo che è una sciocchezza.
0:05:41.5 Emily Wearmouth: È affascinante. Quindi, ok, non sono un fan delle falsità, quindi convincimi, come può qualcosa che ignora intrinsecamente i concetti di verità, come può avere valore? Abbiamo bisogno di una fiducia nei sistemi che utilizziamo. Quindi, come possiamo costruire fiducia con questi sistemi che sappiamo ci stanno mentendo?
0:06:00.0 Giorno di marca: Beh, la sfida qui non è necessariamente che cerchino di mentirci o che mentono al 100% delle volte. Penso che un'altra metafora utile che alcune persone usano per l'IA generativa di grandi modelli di linguaggio sia Intern come servizio. E questo cattura l'idea che è molto simile a quando hai appena assunto uno stagista e lui sa molte cose, ma non capisce davvero come funziona la tua organizzazione, cosa conta per te o come si assemblano certi aspetti del mondo. E quindi possono commettere errori molto sciocchi. E penso che ci sia una qualità simile all'IA: puoi farle una certa domanda e ti risponderà subito con una risposta favolosa. E tu dirai, non so come ho fatto a vivere senza questo. E poi puoi farle una domanda simile e ti viene fuori qualcosa che sai essere assolutamente sbagliato. E tu dici, beh, è stato terribile. E a parte sapere di cosa stai parlando, non so se tu abbia un modo per proteggerti da questo.
0:07:11.7 Emily Wearmouth: I nostri ascoltatori tendono a essere leader nei settori della sicurezza, dei dati e della tecnologia. Quale processo di pensiero consiglieresti alle persone di mettere le proprie idee quando pensano ai compiti che darebbero a questo tipo di sistemi?
0:07:24.9 Giorno di marca: Devi comprendere la saggezza convenzionale su un argomento particolare con cui non hai familiarità. È un ottimo compito per un'IA. Se vuoi che riassuma un grande corpus di cose che non hai tempo di leggere e ti va bene che magari ci siano piccoli glitch lungo il percorso, è un altro ottimo compito. Penso che se ti rivolgi a un'IA e dici: dimmi qual è il prodotto leader di mercato tra cinque anni, sarebbe assurdo, giusto? Non otterrai proprio quel tipo di informazioni da tutto questo. E penso che anche facendo domande, sai, recentemente stavo ponendo una domanda tecnica piuttosto specifica. Cercavo scenari adatti a un problema che cercavo di spiegare a un cliente e ho specificato lo scenario con molta cura, ma l'IA continuava a darmi risposte che pensavo di aver escluso. Ed è stato uno di quegli ambiti in cui, se non avessi già saputo molto di quell'ambiente, sarei stato tentato di copiare e incollare quello che c'era scritto, metterlo nelle mie slide e poi presentare spazzatura al cliente.
0:08:40.4 Emily Wearmouth: Quindi c'è molta intelligenza artificiale all'interno dei sistemi di Netskope. Che tipo di cose tu o il team di Netskope state facendo fare all'IA? E perché ti senti a tuo agio con queste cose?
0:08:51.2 Giorno di marca: Ciò che conta qui è distinguere tra diverse varianti o generi di IA. I grandi modelli linguistici, quelli tipo ChatGPT, ricevono tutta l'attenzione perché è molto emozionante interagire con un'entità che sembra umana, farle domande e così via. E quasi nessuna delle IA che aggiungono valore nella piattaforma Netskope è di quel tipo. Ciò che è molto più comune nei modi in cui usiamo l'IA resta ancora i modelli di machine learning. Non sono grandi modelli linguistici e svolgono compiti che, quando li eseguono gli esseri umani, richiedono un certo grado di intelligenza. Quindi, ad esempio, c'è un modello a Netskope che ci permette di identificare cose che molto probabilmente sono passaporti o patenti di guida. E questo è il tipo di cosa che si può ottenere ottenendo un ampio corpus di immagini di passaporti e di patente di guida e insegnando efficacemente alla macchina a riconoscere queste cose. E fa questo compito più o meno quanto una persona. Ma questo non ha nulla a che vedere con tutto questo tipo di, sai, dovrei preoccuparmi della risposta che sto ricevendo da questa IA perché forse mi sta solo scherzando. Quindi questa è una delle ragioni per cui, in generale, abbiamo parecchia IA sulla piattaforma Netskope, ma non sono molto preoccupato per il problema delle stronzate lì.
0:10:31.4 Emily Wearmouth: Quindi Gen AI era forse il favorito l'anno scorso, e quest'anno abbiamo tutti smesso di esserlo. Stiamo tutti andando a vedere una band New in città, Agentic AI. E quindi volevo chiederti, l'ultima volta che ne abbiamo parlato, l'IA agentica non era davvero nel radar. Come potremmo dover considerare il modo in cui usiamo l'IA agentica se siamo d'accordo che anche loro ci stanno prenendo in giro? È diverso o vale la stessa cautela? C'è una grande differenza tra generativo e agentico. Quindi, come si applica questa teoria assurda?
0:11:01.0 Giorno di marcatura: Penso, prima di tutto, che personalmente non sia ancora in discussione se l'agente sia significativamente diverso da Gen AI. Sono più incline alla teoria che dice che Gen AI ci dica qualcosa di interessante sulla natura del linguaggio e del mondo e sul fatto che questi processi relativamente semplici possano fare cose estremamente poco banali. Agentic, per me, sembra mescolare alcune idee di flusso di lavoro e interazione nel mix. Non so se ho la stessa sensazione che sia un mondo New . Suppongo di essere ancora convinto, ma a questo punto penso più, ok, quindi l'IA, dopo un grande momento appariscente, è tornata al solito modo in cui un sacco di persone che girano a dire cose esilaranti ma senza avere molto da mostrare.
0:11:58.5 Emily Wearmouth: Quindi la tua opinione è che è solo un modo New di marketing per far entusiasmare tutti di nuovo per qualcosa New ? [risate]
0:12:04.0 Giorno di marca: Sì, penso che al momento la decisione sia ancora aperta. Sono aperto a farmi convincere, ma non lo sono ancora.
0:12:09.9 Emily Wearmouth: Interessante. Ora, grazie al tuo fantastico titolo di lavoro, permettimi di chiedere, ho una breve esperienza nel mondo della fantascienza. Cosa ti entusiasma di più, idealmente nel campo dell'intelligenza artificiale, ma forse no, che deve ancora venire?
0:12:26.2 Giorno di marca: Penso che la cosa che mi entusiasmerebbe di più, che non ho ancora visto e che penso vedremo prima o poi, anche se forse non nella mia vita, sia una forma di arte New riconoscibilmente radicata nell'IA. E l'analogia che penso farei qui è con il modo in cui funzionavano i film. E i film erano inizialmente una novità e poi la gente li usava per piccoli frammenti di cose. E poi la gente li usava in una sorta di imitazione, dove filmavano opere teatrali o i primi film erano molto influenzati da ciò che accadeva in sala. E poi c'è un punto in cui si sviluppa il loro vocabolario e successivamente ci sono opere cinematografiche che sono riconoscibilmente capolavori in una dimensione o nell'altra. E penso che siamo arrivati a una fase in cui è una novità e la gente lo usa per scherzare. E si potrebbe dire che alcune delle cose che la gente fa con l'arte AI attuale, dove generi un'immagine che ti piace, è molto in modalità imitativa, non siamo ancora in grado di concettualizzare nemmeno quale sarebbe l'equivalente di Citizen Kane. Di certo non siamo ancora arrivati al punto di poter immaginare un'opera come L'Orologio di Christian Marclay. Ma mi sembra che l'interazione tra persone e IA porterà infine a opere d'arte che sono in qualche modo analoghe.
0:14:09.7 Emily Wearmouth: Quando ero all'università, vivevo con una persona che stava studiando storia dell'arte, e ricordo che lei si impegnava a scrivere molti saggi su quale sia il significato dell'arte. E questo oggetto è un'opera d'arte? È un oggetto d'arte? Cos'è l'arte? Cos'è l'artigianato? Aprirai un intero New corso che quella povera ragazza dovrà fare la prossima volta. Non può essere creato da nulla se non un essere umano. [ride]
0:14:29.6 Mark Day: Oh, assolutamente. Assolutamente. Beh, penso che la domanda interessante non sia, sai, se una macchina può creare arte? Ma penso che una combinazione macchina-uomini farà qualcosa di molto interessante.
0:14:42.5 Emily Wearmouth: Beh, so che mio figlio è molto entusiasta dell'IA in futuro, che gli permetterà di essere Harry Potter senza dover fare audizioni o vedere la sua vita rovinata dalla fama. Quindi tutti potevamo aspettarci con ansia. [risate]
0:14:52.7 Giorno di marca: Ecco. Esatto.
0:14:54.9 Emily Wearmouth: Geniale. Beh, c'è qualcos'altro, Mark, che volevi lasciare ai nostri ascoltatori quando penseranno all'IA nei prossimi mesi?
0:15:01.5 Giorno di marcatura: Penso che la singola parola, stronzate, sia probabilmente la cosa più importante da lasciargli.
0:15:06.7 Emily Wearmouth: [risate] Non volevamo arrivare alla fine del podcast e non bestemmiare un'ultima volta. Mille Grazie.
0:15:11.5 Giorno di marca: Ecco.
0:15:12.0 Emily Wearmouth: Beh, grazie in realtà per averlo fatto diventare il nostro episodio più imprecativo di sempre. Penso che l'abbiamo portato avanti con un grande aplomb erudito e molta gravitas. Quindi grazie mille.
0:15:21.2 Giorno di marca: Grazie, Emily.
0:15:22.8 Emily Wearmouth: Hai ascoltato il podcast Security Visionaries e io sono stata la tua conduttrice, Emily Wearmouth. Se ti è piaciuto questo episodio, condividilo, ma assicurati anche di seguirci sulla tua piattaforma di podcast preferita così da non perderti mai un episodio in futuro. Ci vediamo la prossima volta.