0:00:01 Max Havey: Ciao e benvenuti a un'altra edizione di Security Visionaries, un podcast dedicato al mondo dei dati informatici e delle infrastrutture tecnologiche, che riunisce esperti da tutto il mondo e da diversi ambiti. Sono il vostro conduttore, Max Havey, e oggi faremo del nostro meglio per districare l'hype dalla realtà quando si tratta di minacce IA e spionaggio informatico. E con me, abbiamo due ospiti davvero fantastici che hanno entrambi opinioni molto approfondite su questo argomento. Per prima cosa, abbiamo Ray Canzanese, capo di Netskope Threat Labs. Ray, bentornato al programma.
0:00:29 Ray Canzanese: Ehi, grazie per avermi invitato, Max. È passato un po' di tempo.
0:00:32 Max Havey: Sì. Sì. Sono passati forse un paio d'anni, quindi sono felice di averti di nuovo in carica e di essere di nuovo qui, di nuovo di recente, visto nel nostro episodio Hackers che abbiamo Neil Thacker, responsabile globale della privacy e della protezione dei dati qui a Netskope. Bentornato, Neil.
0:00:45 Neil Thacker: Grazie, Max. Grazie per avermi invitata di nuovo l'ultima volta che siamo stati negli anni Novanta. Siamo tornati agli anni 2020.
0:00:51 Max Havey: Ti ho portato al presente. Questa volta però, avremo una conversazione che guarda al futuro. Fantastico. Ci sono state molte conversazioni recenti riguardo alle minacce abilitate dall'IA nel cyberspionaggio. In particolare, un rapporto di Anthropic sulla prima campagna di cyberspionaggio orchestrata dall'IA mai segnalata, che alcuni critici hanno sottolineato manca di prove chiave in termini di supporto. Ma prima di addentrarci in questo, so che sia Ray che Neil hanno espresso alcune riflessioni sulle minacce abilitate dall'IA nel futuro, come il phishing agentico agricolo e le violazioni dei dati, guardando al 2026. Quindi partiamo da qui. Neil, puoi raccontarci la tua recente previsione in cui hai notato che il 2026 sarà probabilmente il primo anno in cui vedremo una violazione di dati guidata da AG tramite IA agente?
0:01:35 Neil Thacker: Sì, certo. Voglio dire, sono un po' infastidito da Anthropic, l'ho evidenziato nel 2025. Ho previsto il 2026. Ma il motivo è che sento che abbiamo raggiunto un punto di svolta in termini di IA all'interno della cybersecurity. Stiamo vedendo molte organizzazioni ovviamente sviluppare, implementare tecnologie di IA, potenziare anche le loro capacità esistenti qui, ma anche usarle per scopi difensivi. Quindi ovviamente no, è stata un'osservazione piuttosto chiara che nel 2026 vedremo un attacco in stile offensivo qui, e non è nulla di New. Abbiamo avuto da molti anni, abbiamo avuto le tecnologie, abbiamo avuto strumenti che gli attaccanti hanno usato per lanciare attacchi e ovviamente in crescita in termini di sofisticazione. Quindi per me è stato guardare il paesaggio verso cui stavamo andando e rendermi conto, beh, questo arriverà presto, e se non sarà nel 2025, sarà nel 2026. Ma stiamo vedendo questo, molte organizzazioni si stanno preparando a questa corsa agli armamenti quando si tratta di IA, difesa, offensiva e praticamente si stanno preparando a questo tipo di risultati.
0:02:40 Max Havey: Certamente. E Ray, so che anche il tuo team ha preparato diverse previsioni su questo. Come reagisci a questo e ci sono previsioni del tuo team che vorresti prendere in considerazione riguardo a questa preoccupazione dell'Agentic per l'età crescente?
0:02:53 Ray Canzanese: Sì, penso che, come Neil, avevamo previsioni da entrambe le parti, giusto? Da un lato, gli attaccanti usano la tecnologia per amplificare gli attacchi o per semplificarli. E i rischi sono che, primo, diventa un po' più veloce e accessibile sviluppare un attacco. E poi il secondo è che è davvero bravo in certe cose. Se volessi fare un video falso di te, Max, che cerca di convincere qualcuno a rivelare la password o qualcos'altro, sarebbe abbastanza facile farlo con la tecnologia di oggi. Quindi prevediamo un aumento dell'ingegneria sociale e del phishing. E dall'altro lato, man mano che le organizzazioni adottano sempre più di queste tecnologie e magari non seguono le migliori pratiche, o magari ci sono rischi emergenti a cui nessuno aveva davvero pensato e che aumentano anche i rischi di violazioni che si verificano lì. Quindi non si tratta solo di sicurezza dell'IA, non si tratta solo di, beh, tienimolo fuori dalle mani degli hacker, ma anche, beh, assicuriamoci che quando lo usiamo, lo facciamo in modo sicuro e responsabile.
0:04:05 Max Havey: È davvero una lama a doppio taglio. È il lato della protezione, ma anche l'uso di questo e il permettere alle persone di usarlo in modo sicuro e senza perdere accidentalmente problemi nel processo. Tenendo tutto questo a mente, tornando al rapporto filantropico, dal vostro punto di vista, perché questo rapporto mancava così tanto dei dati usuali e utili che questi tipi di rapporti includono e che permettono ad altri di imparare da esso quando si tratta di una cosa così grande, il primo evento di spionaggio cibernetico abilitato dall'IA come questo,
0:04:39 Ray Canzanese: Penso che la risposta breve sia che non hai bisogno di più dettagli per il marketing, per il marketing devi parlare di quanto fosse potente il tuo prodotto e di quanto fossi responsabile nell'esercitare quel potere. Quindi ha senso dal punto di vista del marketing. E quindi, se succede qualcosa del genere e stai effettivamente interrompendo un attacco, ha senso. Dovresti spingerlo subito. Farà sentire bene tutti quelli che lavorano per te, e avrai un sacco di persone che fanno podcast che ne parlano, un marketing davvero valido forse anche un po' più cinico. Penso che se sei un primo arrivante in un settore dove hai sviluppato una tecnologia davvero straordinaria e vai in giro dicendo: Ehi, quello che abbiamo costruito qui è davvero pericoloso, quindi non dovresti lasciare che altri costruiscano quello che abbiamo costruito noi perché non ti fideresti di loro, ma puoi fidarti di noi perché vedi che siamo qui a fare la cosa giusta. Quindi è un po' più cinico dire che forse è un po' più del marketing, forse è un po' più intelligente parlare di come forse più aziende dovrebbero poter fare la stessa cosa.
0:05:51 Max Havey: Certamente. Beh, e penso che questa sia la cosa interessante, è che c'è così tanto potenziale in relazione all'IA ed è sempre stata vista come una scatola nera per molte persone, specialmente per chi è un po' più timoroso nel tuffarsi a capofitto in questo modo. Avete un'idea di quanto sia accurata questa affermazione? È utile per il marketing, è utile per mostrare quanto possa essere potente questa tecnologia, ma quanto pensiamo che sia affidabile come attacco vero e proprio o qualcosa del genere?
0:06:25 Neil Thacker: Sì, voglio dire, non era necessariamente unico. Voglio dire, se guardi lo stile dell'attacco che è avvenuto, era lo stesso tipo di schema che molti aggressori seguono da anni. Quindi non è nulla di nuovo. Non è niente di unico. Quindi, ancora una volta, condividendo queste informazioni, ovviamente è successo, ma non c'è nulla di straordinario da imparare da questo tipo di attacco. Penso ancora una volta, la parte emozionante, la parte unica, che è stato completamente orchestrato da un agente IA. Quindi si apprende bene dagli esseri umani in termini di agire secondo questi principi. E se guardi questo, giusto, segue uno schema molto simile. Ha fatto la ricognizione, la mappatura della superficie degli attacchi, ha rilevato vulnerabilità, poi ha effettuato un po' di raccolta delle credenziali e infine ha passato attraverso la fase finale della raccolta dati. Quindi abbiamo seguito lo stesso schema da anni.
0:07:17 Neil Thacker: Cioè, credo che la cosa davvero entusiasmante sia se avesse trovato un modo New per farlo senza passare attraverso così tanti passaggi, ma non siamo ancora arrivati a questo punto in termini di apprendimento. Quindi sì, è più o meno così che la vedo io. Ancora una volta, credo che sia successo. Penso che, di nuovo, per quanto detto Ray, fosse: ci hanno dato informazioni New ? No, è stato di nuovo un ottimo articolo, una grande storia da raccontare, che tra l'altro il racconto è valido. La gente ama le storie e imparare su queste cose attraverso le storie, ma ancora una volta, mancano alcuni dettagli tecnici, anche se penso che arriverà presto. Vedremo più attacchi di questo tipo e più informazioni condivise sul perché questi attacchi siano forse unici e su come stanno imparando. Torno anche al 2016, quando abbiamo visto questo svolgersi a Defcon come parte della cyber grand challenge, dove abbiamo visto macchine completamente autonome combattere contro altre macchine in un gioco di cattura la bandiera. Ed è stato fantastico perché, col tempo in cui hanno trovato vulnerabilità, lanciato exploit, hanno imparato anche. Quindi è qualcosa per cui dobbiamo essere preparati. Tra l'altro, dieci anni fa abbiamo visto che la teoria era possibile. Ora stiamo arrivando all'epoca in cui queste cose accadranno sempre più spesso.
0:08:31 Ray Canzanese: E penso che sia un buon punto, Neil, sul fatto che crediamo fermamente che abbiano rilevato qualcosa, e penso che uno dei motivi sia che molti di noi che lavorano nella cybersecurity hanno usato questi strumenti per fare proprio questo tipo di cose dal punto di vista del red team. Da un po' sapevamo che era possibile. Quindi ovviamente si vedeva sempre più cose accadere, e sembra che in questo caso abbiano trovato qualcuno che lo faceva e credevano di farlo con cattive intenzioni. A destra. Era un gruppo cinese di fisioterapia? Non lo so. A destra. Non ci sono prove presentate, ma è successo davvero? Quasi certamente sì, è successo. A destra. Quindi le domande che riguardano forse i dettagli, non il concetto, e se hanno trovato l'abuso e l'hanno fermato.
0:09:20 Max Havey: Se verranno segnalati attacchi futuri come questo, quali sono alcuni di quei dettagli chiave che vorresti vedere in un rapporto come questo che renderebbe questa cosa migliore e che le persone potrebbero imparare guardando avanti?
0:09:34 Neil Thacker: Sì, penso che vedrei i dettagli più tecnici, i dettagli su come l'attacco è stato riuscito, come è stato successo, qual è stato il bersaglio, qual è stato l'exploit, eccetera. Una cosa che ho amato davvero del rapporto è stato l'uso di termini New , che non so se siano stati usati in passato, ma c'è stata un'attenzione su questo, la velocità di sfruttamento, la mia New frase preferita, il ritmo operativo dell'attacco. Era chiaro che, ancora una volta, dalle ricerche che avevano rilevato, che questo non era possibile per un essere umano, quindi doveva essere un agente IA a farlo. Quindi, di nuovo, velocità, sfruttamento, la possibilità di usare, ancora una volta, tipi aggiuntivi di scansione delle vulnerabilità e tutte queste cose. Quindi è più o meno quello che guarderei. Inoltre, in futuro, credo che stiamo parlando di ciò di cui stiamo parlando qui, forse ci sono dettagli unici che possiamo iniziare a determinare, identificare e mettere qualche forma di attribuzione, cosa che è sempre difficile in termini di attacchi. Ancora una volta, possiamo identificare questo come un attacco guidato da umani o da macchine? È importante? Voglio dire, questa è l'altra domanda che dobbiamo porci ora. Dobbiamo sapere se si tratta di nuovo di macchina o di umanità. Quindi sì, qui dobbiamo iniziare a guardare a questo che credo che ci serve nei rapporti futuri, quei modi per identificare meglio, ancora una volta, New le tattiche, tecniche, eccetera, utilizzate da strumenti autonomi.
0:10:57 Ray Canzanese: Una delle cose che penso che quando scrivi un rapporto del genere e cerchi di aiutare gli altri, è che devi condividere abbastanza dettagli da permettere ad altre persone nella tua stessa situazione di prendere quelle informazioni e fare qualcosa al riguardo. Quindi, in questo caso, se credi che sia stato un gruppo A TP ad attaccare il tuo servizio, non siete gli unici a ospitare LLM e a permettere alle persone di interagire con essi. Quindi c'è un'intera industria là fuori che vorrebbe sapere quali sono questi TTP così da poter iniziare a cercare lo stesso sui loro servizi, bloccando certi comportamenti. È il tipo di cose che penso ci si aspetti di vedere sempre di più in questo tipo di rapporti.
0:11:40 Max Havey: Certamente. E questo solleva anche una domanda, vedendo questo rapporto provenire da un fornitore di IA così grande, e penso che tu abbia forse toccato un po' questo punto, Ray, ma perché sembra che le aziende di IA siano così desiderose di suggerire che l'IA venga usata con così tanto successo per motivi nefasti, per questo tipo di attacchi e cose del genere? Perché è una cosa importante per loro parlarne, soprattutto forse in questo contesto narrativo?
0:12:06 Ray Canzanese: E credo di averlo accennato molto fin dall'inizio, dove racconti una storia, stai davvero esaltando l'IA, questa roba dell'IA è così potente, guarda cosa è stata in grado di fare. È davvero una bella storia da raccontare. E voglio dire, questo è davvero in linea con la filantropia. È davvero nel loro stile parlare dei rischi. Perché poi, se parli dei rischi, puoi anche parlare di come li stai mitigando e costruirti come forse il leader in questo ambito di riflessione sui rischi e sulle mitigazioni, questo aiuta l'azienda, che aiuta il flusso di denaro verso di te.
0:12:48 Neil Thacker: Se pensi a questo come il leone e il leone domr, giusto? È il loro ruolo di leone. Hanno questa capacità enormemente potente, eppure sono pienamente al controllo o hanno la capacità di identificare quando viene usata in un certo modo. Quindi sì, questa è la tipo di analogia a cui mi riferisco con il leone e la capacità di domare leoni.
0:13:07 Max Havey: Trovo interessante anche questo perché ho visto recentemente un dato del MIT che osservava che il 95% delle iniziative di IA aziendale non riescono a generare un valore reale e percepibile. E allora perché gli attori minacciosi dovrebbero portare a risultati così migliori in questo genere di situazioni? Stanno solo giocando di più con la cosa, cercando New modi per romperla? Per alcuni
0:13:26 Ray Canzanese: In generale, è trovare un problema che gli LLM sono bravi a risolvere, e Neil ha già sottolineato che questo era un attacco piuttosto banale in termini di cose già viste più e più volte, giusto? Gli ex studenti sono molto bravi in questo, vero? Completalo automaticamente per me. Vorrei che tu riempissi tutti i dettagli di cosa devo fare in questo attacco. E quindi fa parte del problema. Scegli il problema giusto per lo strumento e quello è il problema giusto con cui abbinare questo strumento. Quindi ha senso che tu ottenga un buon risultato in questo aspetto. Molte organizzazioni stanno ottenendo buoni risultati nell'automatizzare compiti di programmazione, ed è proprio questo il caso.
0:14:07 Neil Thacker: Sta automatizzando quei compiti per velocità. Una cosa che abbiamo visto sicuramente nella cybersecurity, ed è come misuriamo le risposte alle violazioni, come le organizzazioni lo fanno da così tanto tempo, è quanto velocemente si può rispondere a quella violazione per mitigare, per mettere in gioco un certo controllo e garantire che la violazione non abbia successo. Quindi, all'inizio della catena di attacco, è lì che vuoi intervenire. Ora, guardando ancora una volta all'IA, è progettata per funzionare in modo rapido e automatizzato che può scalare allo stesso modo. Quindi questo è quello che, in molti casi, se si guardano i casi d'uso dell'IA, questo è un ottimo caso d'uso. Purtroppo, quindi questo impatta le organizzazioni. Perché, ancora una volta, abbiamo visto lo stesso nei primi giorni degli attacchi DDoS su larga scala, cose del genere. Potresti praticamente automatizzare quegli script, e quelle organizzazioni target lo fanno così. Se ci fossero stati umani a fare questo, sarebbe in gran parte inefficace. Ma ora vediamo questo in modo più avanzato, prendendo di mira le organizzazioni usando tecniche specifiche, puntando all'esfiltrazione dei dati, eccetera. È qui che ci stiamo muovendo: la scalabilità moderna di questo tipo di attacchi.
0:15:20 Ray Canzanese: Mi piace che tu usi le parole come bot e script perché ora li chiamiamo agenti, ma concettualmente è sempre la stessa cosa. E la velocità arrivava con i bot e gli script, ma servivano comunque persone che scrivessero i bot e gli script. E penso che la parte che aiuta qui sia che, ok, ora possiamo scrivere quei bot e scrivere script più velocemente e in modo mirato a organizzazioni specifiche perché è quello che l'LMS ci permette di fare. Quindi è un po' di accessibilità mescolata alla velocità. Ecco qualcuno che forse non aveva le conoscenze per scrivere tutte quelle sceneggiature da solo o non aveva le risorse per mettere insieme un piccolo team per farlo in poco tempo. Ma un gruppo di agenti IA, molto più facile da far svolgere quel compito.
0:16:09 Neil Thacker: E di nuovo, possono iterare velocemente, quindi imparano, ok, questa volta non hanno successo e poi ricominciano un minuto dopo. Mentre, forse anche da un punto di vista umano, ci vogliono forse qualche ora, qualche giorno per capire, ok, perché non sono riuscito a fare con un, di nuovo, questo è stato dimostrato anche 10 anni fa. Questo è ciò che questi sistemi possono iterare molto, molto rapidamente e poi andare avanti. E l'obiettivo, ovviamente, è avere successo nell'attacco. Quindi, se non avrà successo, quel tempo può iterare e andare avanti rapidamente per magari avere più successo la prossima volta.
0:16:43 Max Havey: Beh, è anche interessante sentire che su questo punto di unione a cui voi continuate a tornare è l'idea che nulla di tutto questo sia particolarmente New. Sono tutte cose di cui eravamo più o meno consapevoli da un po' di tempo o tecniche che si sviluppano da un po', e che l'IA le ha semplicemente rese più accessibili. Sta togliendo alcune barriere, per mancanza di un termine migliore, per i cattivi, per i tuoi attori minacciosi e cose del genere. E pensi che, guardando al futuro, sarà sempre più importante poter classificare queste cose tra una minaccia abilitata dall'IA e una minaccia umana? Penso che, come hai sottolineato, Neil, un po' l'argomento uomo o macchina qui, sarà una classificazione importante da tenere a mente per i professionisti della cybersecurity che guardano al futuro in questo modo?
0:17:24 Neil Thacker: Sì, credo di sì. Beh, a causa dei tipi di attacco che potresti vedere, quindi una parte esterna, non credo importi molto, ma quando è all'interno della tua organizzazione e il tuo agente IA, allora devi sicuramente sapere che è stato il tuo agente AI a farlo. Un'altra cosa: abbiamo sempre trattato gli attacchi da una prospettiva esterna o interna. Per me, devi assolutamente sapere quando è all'interno della tua organizzazione. Abbiamo sempre, quando abbiamo indagato su qualcuno, sono in questo settore da 25 anni, quando indaghi in un incidente interno, devi sapere chi era, ovviamente, perché quella persona è all'interno della tua organizzazione, esterna, devi sapere che è stato un attacco e devi sapere come difenderti da questo. Quindi immagino che sia in quel momento che devi conoscere un agente interno all'interno della tua organizzazione. Sì, devi sapere se possiedi quell'agente e rispondere di conseguenza.
0:18:17 Ray Canzanese: E penso che sia una buona risposta perché a un certo livello, non ti interessa, giusto? Se l'insider è un agente o l'insider come persona, sta comunque facendo qualcosa di sbagliato e vogliamo comunque che finisca. Ma penso che la ragione importante per continuare a parlarne, soprattutto ora, sia assicurarci che tutti siamo in quella mentalità che alcuni dei nostri insider non sono necessariamente persone. E quando hai insider non umani, come non umani che fanno cose nella tua organizzazione, spesso la situazione cambia. Quell'attività appare in log e luoghi diversi, e devi assicurarti che la tua strategia includa e copra tutto questo. Non basta dire, beh, certo che mi interessano gli insider. Dobbiamo pensarci, beh, che stile prenderebbero quegli addetti ai lavori? E sto cercando nei posti giusti per individuare quegli insider e cosa potrebbero sbagliare?
0:19:15 Max Havey: Certamente. E penso che, tenendo questo in mente, voglio riportarci alla previsione di Neil con cui abbiamo iniziato qui, quando pensiamo a cosa potrebbe essere un altro grande agente che viola, oltre a ciò che Anthropic ha già riportato qui. Se dovessimo vedere una violazione come quella di cui parla Neil, quali pensate sarebbero i piloti? È un incidente, un attore malintenzionato che usa l'IA dell'agente? Qual è secondo te uno scenario probabile che potremmo potenzialmente vedere?
0:19:43 Neil Thacker: È una buona domanda. Penso che vedremo una miscela. Penso che vedremo che, in molti casi, stiamo già ricevendo questo feedback, cioè, sto avendo discussioni con CISO che dicono, oh, non sapevo che stessimo utilizzando questo servizio. Oh, non sapevo che stessimo usando questo caso d'uso. Non mi ero reso conto che questo servizio consumasse così tanti dati. Quindi penso che abbiamo già ricevuto qualche feedback da parte di organizzazioni che si rendono conto che forse stanno già vedendo questo in termini di un problema accidentale, incidente di sicurezza, se si è trattato di una violazione accidentale dei dati o se i dati sono finiti a terzi sbagliati? Oppure, di nuovo, ci sono troppi agenti interconnessi che hanno perso di vista questi servizi e di come vengono utilizzati? Sento questa domanda, e spesso commento nelle discussioni che ho oggi: chi possiede il mio server MCP?
0:20:33 Neil Thacker: Quindi penso che vedremo sicuramente questo problema verificarsi. Non sarà descritto allo stesso livello di, ancora una volta, degli attori esterni di minaccia, ma penso che vedremo un mix interessante di questi aspetti. Quindi sì, forse, tornando ancora una volta alle discussioni su probabilità e impatto, forse ci sarà una probabilità leggermente maggiore di un problema interno, ma qualcosa che può essere controllato, mentre da un attore di minaccia esterno è comunque probabile, ma l'impatto potrebbe essere enorme perché ora siamo all'interno, con dati che sono stati estratti dall'organizzazione e potenzialmente ora persi, è trapelato, ha ora portato a multe, sanzioni, sanzioni, ecc. all'organizzazione, o ancora, danni generali alla reputazione e questa sfida per le organizzazioni di riprendersi. Quindi sì, penso che ci sarà un mix in futuro. Ma sì, è qualcosa a cui dobbiamo stare attenti. Dobbiamo guardare alle metriche in termini di come vedremo la situazione in futuro. Penso che abbiamo sempre dovuto considerare qualsiasi minaccia con una serie di, ancora una volta, controlli, raccomandazioni, eccetera, che possiamo implementare. E penso che per noi, come per qualsiasi organizzazione oggi, debbano guardare sia alle capacità qui, sia all'interno che all'esterno, all'attore esterno.
0:21:48 Ray Canzanese: Un altro aspetto di cui parlo molto con i team di sicurezza è proprio queste aziende di IA. Queste sono aziende che lavorano semplicemente con enormi quantità di dati. Molte di queste aziende hanno meno di un anno o meno di due anni. Sono aziende molto giovani che si muovono rapidamente in un settore New . E sono nervosi riguardo a quelle aziende e a ciò che stanno facendo per proteggere tutti i dati che possiedono. E quindi sento molte persone chiedersi: beh, come posso permettere alle persone di usare il servizio A, ma solo per questi casi d'uso così ristretti? Oppure posso assicurarmi che nessuno dei nostri segreti commerciali, dati dei clienti o codice sorgente venga inserito in quel servizio? Questa è un'altra preoccupazione. E un'altra cosa da tenere d'occhio è quando ci sarà una violazione di una di queste aziende di IA, come sarà la situazione? Sarà un furto di dati? Sarà avvelenamento da modello? Ci sono molte opportunità per diversi modi di fare del male se stai violando una di queste aziende che i tuoi veri obiettivi stanno usando.
0:23:02 Neil Thacker: E potrebbe essere, cioè, questo potrebbe essere il frutto più facile, giusto? Esatto. A tuo punto, Ray, abbiamo visto questo. Voglio dire, ho esaminato organizzazioni che qualcuno di NECAP voleva usare e abbiamo fatto loro domande e guardano indietro e non stanno guardando la fronte e la cybersecurity. Cos'è? Quindi sì, assolutamente, questa è una potenziale preoccupazione. È qualcosa che ogni organizzazione deve fare. È un ottimo punto. Guardando i tuoi fornitori, osservando i fornitori dei tuoi servizi, come rispondono a questo tipo di attacchi alla loro organizzazione, alla loro infrastruttura, ai loro sistemi e servizi?
0:23:36 Ray Canzanese: E anche se decidi di fidarti di loro e di usarli, cosa stai facendo per monitorare quell'interazione solo per assicurarti di verificare che nulla sia andato storto, che nulla venga usato in quel modo, che sia incoerente con come intendevi che venisse usato.
0:23:53 Max Havey: Tutto questo sembra portare a una conversazione in evoluzione che i team di sicurezza devono avere con la propria organizzazione su questo tipo di IA in generale e soprattutto sull'AI AG, poiché questa diventa una parte più consistente e sostanziale del modo in cui le aziende usano l'IA. E tenendo questo in mente, ne avete parlato molto qui, ma come cambia questo tipo di conversazioni che già si stanno svolgendo riguardo all'IA nella cybersecurity?
0:24:24 Neil Thacker: Sì, assolutamente. Ne stiamo parlando, vero? È stato l'argomento caldo negli ultimi anni, e ora siamo arrivati, come ho detto all'inizio, e a questo punto di svolta, punto di svolta in cui le organizzazioni ora si rendono conto, ancora una volta, che ci sono opinioni contrastanti sulle organizzazioni e non vedendo un valore immenso, ma ogni organizzazione usa qualche forma di IA, anche se è di nuovo, Gen AI capacità e cose del genere. Ma la maggior parte delle organizzazioni investe molto in questi servizi per automatizzare meglio, ancora una volta, molti dei loro flussi di lavoro e alcune delle loro operazioni aziendali. Quindi vediamo che questo è nelle organizzazioni di oggi, e penso che, ancora una volta, sia il modo in cui le organizzazioni stanno rispondendo ora. Abbiamo avuto lo stesso con il cloud. Abbiamo avuto lo stesso con Cloud. Il cloud non si è necessariamente fatto vedere alle organizzazioni, ma la gente ne era consapevole. Ma poi c'è stata questa esplosione. Ora tutti usavano SAS e servizi cloud pubblici.
0:25:16 Neil Thacker: E torno indietro agli anni Novanta, quando avevamo di nuovo internet, la stessa cosa. È arrivato lentamente e all'improvviso tutti utilizzavano servizi su internet. Quindi siamo arrivati a quel momento in cui, ancora una volta, direi che c'è una grande percentuale di persone nelle organizzazioni che usano una forma di IA. Quindi sì, è così che iniziamo a prepararci a questo. Tornando a sollevare il punto, ora le discussioni sono: abbiamo un'applicazione, un inventario AI dei nostri servizi di IA? Come abbiamo valutato questi servizi? Come controlliamo? Ad esempio, abbiamo una soluzione comune in cui abbiamo un inventario di asset AI e lo mappiamo al nostro inventario di asset dati, e capiamo quali dati vanno a quel servizio di IA, e se vediamo un'anomalia dobbiamo intervenire e bloccarla. Quindi è un po' così che vedo questa evoluzione nelle organizzazioni di oggi.
0:26:09 Ray Canzanese: E direi che un buon segno che ho notato di recente è che ovviamente ne parliamo molto da qualche anno, e mi sono arrivate domande dai team di sicurezza, e mi chiedevano tipo: Ehi, come posso mettere in sicurezza le mie implementazioni di IA agentica a Bedrock? E io dico, oh, che bello. Puoi dirmi di più su come lo stai usando? E loro dicevano, beh, non lo stiamo ancora usando. Ci stiamo solo pensando. È ovviamente la direzione in cui stanno andando le cose. Lo stiamo provando e vogliamo pensare alla sicurezza, e sono impressionato. Sono felice. Questo è il modo in cui speravo che andasse: ne abbiamo parlato abbastanza perché le persone ne siano consapevoli, che si pongano queste domande prima di addentrarsi troppo nel processo, così da poter entrare un po' più preparati rispetto a quanto forse abbiano fatto per la mania iniziale dei chatbot AI, dove la gente ha iniziato a usarli da un giorno all'altro e tu stavi giocando con il guadagno fin dall'inizio.
0:27:10 Max Havey: Assolutamente. E arrivando alla fine della nostra conversazione, vorrei sapere da voi cosa possono fare le organizzazioni per iniziare a contenere questi rischi enormi ora e iniziare a parlare di queste conversazioni? Quale consiglio daresti alle organizzazioni che vogliono migliorare questa sicurezza guardando al futuro, poiché continuerà a essere una conversazione e una minaccia con cui dovranno fare i conti?
0:27:34 Neil Thacker: Quindi, penso che tutto inizi dal capire cosa hai. Partiamo sempre da quella cybersecurity, che si tratta di quali servizi di IA hai e anche di come sono collegati. Quindi, ovviamente, con i tipi di attacchi che abbiamo visto, in molti casi può essere la connettività agente a agente a causare questo. Quindi avere una buona comprensione di cosa stai usando, perché lo stai usando, identificare cosa fa il servizio, quindi cosa sembra normale, e poi aggiungere alcuni controlli. Quindi valutare l'isolamento se si vede un'attività insolita, avere la possibilità di assicurarti anche di separare le piattaforme dai servizi in modo che, ancora una volta, se un agente AI ha accesso ad alcuni dei tuoi ambienti non produttivi, come tornare al punto di rilievo per testare per sperimentazioni, non abbia accesso al tuo ambiente di produzione o non possa escalare i suoi privilegi in quell'ambiente di produzione.
0:28:27 Neil Thacker: Quindi stiamo cercando modi di separazione lì. Ma penso che vedremo nel 2026 un enorme aumento dell'uso da parte delle organizzazioni che introducono elementi come gateway AI per identificare meglio l'uso dell'IA nelle loro organizzazioni e come i servizi vengono connessi, e che pongono questi guardrail e applicano i livelli appropriati di controlli tecnici su questo. Questa è la mia previsione: sì, vedremo questa violazione significativa che farà notizia e la risposta sarà che ora abbiamo questa giustificazione per investire e portare queste capacità per difendere meglio la nostra organizzazione da questo. Quindi questo è ciò che mi aspetto di vedere intorno a questi New rischi con cui dobbiamo confrontarci, anche se possono basarsi sulla vecchia forma di rischi e sulla vecchia forma di tattiche e tecniche, dobbiamo rispondere, credo, perché dobbiamo rispondere con la tecnologia per contrastare di nuovo, anche questi diretti autonomi in rapida crescita.
0:29:27 Ray Canzanese: Sì, sono totalmente d'accordo. Tutto inizia dalla visibilità. Quando inizi a cercare di vedere cosa hai visibilità, spesso inizi a scoprire anche dove hai punti ciechi nella tua visibilità, e questo ti dà una buona strategia per dove devi fare di più. E la cosa da tenere a mente quando si analizza un problema è quella pericolosa combinazione di cose che accadono sugli endpoint, cose che accadono nel cloud, identità umane, identità non umane, tutte queste cose che lavorano insieme. Quindi scopri cosa stai usando, inizi a mappare e a cercare dove sono i tuoi punti ciechi, dove puoi trovare gateway MCP, gateway AI, cloud log, qualsiasi cosa ti aiuti a risolvere quei gap di visibilità.
0:30:16 Max Havey: Penso che sia un ottimo posto dove fermarci, ragazzi. E Neil, grazie mille per essere qui con noi. Hai avuto molte prospettive interessanti da offrire, soprattutto perché sei stato uno degli stimolanti di questo episodio, prevedendo la prima violazione dei dati informatici tramite agenti agricoli AI e guidata dall'IA nel 2026. Quindi grazie mille per essere con noi.
0:30:35 Neil Thacker: Sì, certo. Nessun problema. Sì, è stato bello parlare di nuovo con voi, Max e Ray, e sono sicuro che ne parleremo ancora molto nel 2026.
0:30:42 Max Havey: Anche questo è quasi certo. E Ray, grazie mille come sempre per aver partecipato, portando con te la tua grande competenza in materia di minacce. So che hai lavorato a molti report sulle minacce e hai scritto di molte minacce, quindi hai offerto un sacco di ottime prospettive qui, e sono sicuro che avrai altro da dire man mano che le cose si svilupperanno.
0:30:55 Ray Canzanese: Sì, grazie per avermi invitato, Max. Non vedo l'ora di leggere il prossimo.
0:30:58 Max Havey: Assolutamente. E con questo, avete ascoltato il podcast Security Visionaries e io sono stato il vostro ospite, Max. Se questo episodio ti è piaciuto, condividilo con un amico e assicurati di iscriverti a Security Visionaries sulla tua piattaforma podcast preferita, che sia Apple Podcast, Spotify o i nostri fantastici New video su YouTube. Lì puoi dare un'occhiata al nostro catalogo di episodi precedenti e scoprire quelli New che vengono pubblicati ogni due settimane, presentati da me o dalle mie fantastiche co-conduttrici, Emily, wear Mouth e Bailey Pop. E con questo, ci vediamo al prossimo episodio.