0:00:01 Max Havey: Olá e bem-vindos a mais uma edição do Security Visionaries, um podcast sobre o mundo dos dados cibernéticos e da infraestrutura tecnológica, que reúne especialistas de todo o mundo e de diversas áreas. Eu sou o seu apresentador, Max Havey, e hoje vamos fazer o possível para separar o que é hype da realidade quando o assunto são ameaças de IA e espionagem cibernética. E comigo, temos dois convidados excelentes que têm opiniões muito fortes sobre este assunto. Em primeiro lugar, temos Ray Canzanese, chefe do Netskope Threat Labs. Ray, bem-vindo de volta ao programa.
0:00:29 Ray Canzanese: Ei, obrigado por me receber, Max. Já faz um tempo.
0:00:32 Max Havey: Sim, aconteceu. Sim, tem. Já faz uns dois anos, então fico feliz em tê-lo de volta ao podcast. E em segundo lugar, tendo retornado recentemente, como vimos no nosso episódio sobre hackers, temos Neil Thacker, diretor global de privacidade e proteção de dados aqui na Netskope. Bem-vindo de volta, Neil.
0:00:45 Neil Thacker: Obrigado, Max. Obrigado por me convidarem de volta da última vez que estivemos nos anos noventa. Estamos de volta aos anos 2020.
0:00:51 Max Havey: Eu trouxe você para o presente. Desta vez, porém, teremos uma conversa voltada para o futuro. Incrível. Recentemente, têm ocorrido muitas discussões sobre as ameaças facilitadas pela IA na espionagem cibernética. Mais notavelmente, um relatório da Anthropic sobre a primeira campanha de ciberespionagem orquestrada por IA já relatada, que alguns críticos observaram carecer de algumas evidências importantes em termos de suporte. Mas antes de nos aprofundarmos nisso, sei que tanto Ray quanto Neil compartilharam algumas ideias sobre as ameaças facilitadas por IA no futuro do agronegócio, como phishing e violações de dados, olhando para o futuro próximo, em 2026. Então vamos começar por aí. Neil, você poderia nos explicar sua previsão recente de que 2026 provavelmente será o primeiro ano
que veremos uma violação de dados impulsionada
IA agente do AG? 0:01:35 Neil Thacker: Sim, claro. Quer dizer, estou um pouco irritado, Anthropic, por ter destacado isso em 2025. Eu previ 2026. Mas a razão para isso é que sinto que chegamos a um ponto de inflexão em termos de IA na área da cibersegurança. Estamos vendo muitas organizações desenvolvendo e implementando tecnologias de IA, aprimorando suas capacidades existentes e também utilizando-as para fins de defesa. Então, claro que não, foi uma observação bastante clara que em 2026 veremos um estilo de ataque ofensivo aqui, e isso não é nada New. Há muitos anos que temos tecnologias e ferramentas que os atacantes usam para lançar ataques, e é claro que estas têm vindo a tornar-se cada vez mais sofisticadas. Então, para mim, foi olhar para o cenário para onde estávamos caminhando e perceber que isso ia acontecer em breve, e se não fosse em 2025, seria em 2026. Mas estamos vendo isso
muitas organizações estão se preparando para essa corrida armamentista no que diz respeito à IA, defesa e ataque, e basicamente se preparando para esse tipo de resultado. 0:02:40 Max Havey: Certamente. E Ray, eu sei que sua equipe também elaborou uma série de previsões sobre isso. Como você reage a isso e há alguma previsão da sua equipe que você gostaria de mencionar sobre essa crescente preocupação com a geração de agentes?
0:02:53 Ray Canzanese: Sim, acho que, assim como Neil, tínhamos previsões para os dois lados dessa questão, certo? Por um lado, os atacantes estão usando a tecnologia para amplificar ou simplificar os ataques. E os riscos aí são, em primeiro lugar, que fica um pouco mais rápido e acessível desenvolver um ataque. E em segundo lugar, é realmente bom em certas coisas. Se eu quisesse fazer um vídeo falso seu, Max, tentando convencer alguém a revelar sua senha ou algo do tipo, seria bem fácil com a tecnologia atual. Assim, prevemos um aumento nos ataques de engenharia social e phishing. E, por outro lado, à medida que as organizações adotam mais dessas tecnologias e talvez não sigam as melhores práticas, ou talvez surjam riscos emergentes que ninguém realmente considerou, o que aumenta também o risco de violações de segurança. Portanto, quando falamos de segurança da IA, não se trata apenas de mantê-la longe das mãos dos hackers, mas também de garantir
ao usá-la, a utilizemos de forma segura e responsável. 0:04:05 Max Havey: É uma situação de dois gumes, sem dúvida. Trata-se da proteção, mas também de usar isso e permitir que as pessoas o usem de forma segura, sem vazar informações acidentalmente durante o processo. Com tudo isso em mente, voltando ao relatório filantrópico, na sua opinião, por que esse relatório carecia de tantos dados úteis e usuais que esse tipo de relatório costuma incluir e que permitem que outros aprendam com ele, especialmente em relação a um evento tão importante quanto o primeiro caso de espionagem cibernética com inteligência artificial como esse?
0:04:39 Ray Canzanese: Acho que a resposta curta é porque você não precisa de mais detalhes para marketing. Para o marketing, você precisa falar sobre o quão poderoso seu produto era e sobre o quão responsável você estava sendo ao usar esse poder. Portanto, do ponto de vista do marketing, faz sentido. Então, se algo assim acontecer e você estiver interrompendo um ataque, faz sentido. Você ia querer divulgar isso imediatamente. Isso vai fazer com que todos que trabalham para você se sintam bem, e você terá um monte de gente fazendo podcasts falando sobre isso, o que é um marketing realmente bom, talvez até um pouco mais cínico. Acho que se você é pioneiro em uma área onde desenvolveu uma tecnologia incrível e sai por aí dizendo: "Ei, o que construímos aqui é realmente perigoso, então vocês não deveriam deixar outras pessoas construírem o que construímos porque vocês não confiariam nelas, mas podem confiar em nós porque veem que estamos aqui fazendo a coisa certa." Então
isso é um pouco mais cínico
talvez seja um pouco mais do que marketing, talvez seja um pouco de perspicácia empresarial ao falar sobre como talvez mais empresas deveriam ter permissão para fazer o mesmo. 0:05:51 Max Havey: Certamente. Bem, e acho que o interessante é que existe um enorme potencial na área da IA, que sempre foi vista como uma espécie de caixa preta para muita gente, especialmente para aqueles que têm receio de mergulhar de cabeça nisso dessa forma. Vocês têm alguma ideia da veracidade dessa afirmação? É bom para o marketing, é bom para mostrar o quão poderosa essa tecnologia pode ser, mas quão confiável achamos que isso seja como um ataque real ou algo do tipo?
0:06:25 Neil Thacker: Sim, quero dizer, não foi necessariamente algo único. Quer dizer, se você observar o estilo do ataque que ocorreu, verá que se tratava do mesmo padrão que muitos atacantes vêm seguindo há anos. Portanto, não é nada de novo. Não é nada de especial. Então, repito, ao compartilhar essa informação, ficou claro que isso aconteceu, mas não há nada de extraordinário para se aprender com esse tipo de ataque. Penso, mais uma vez, que a parte emocionante e singular é que tudo isso foi orquestrado por um agente de IA. Assim, aprende-se bem com os seres humanos em termos de agir de acordo com esses princípios. E se você observar isso, verá que segue um padrão muito semelhante. Realizou o reconhecimento, o mapeamento da superfície de ataque, analisou e encontrou vulnerabilidades, depois coletou credenciais e, por fim, passou pela etapa final de coleta de dados. Então, temos seguido esse mesmo padrão há anos.
0:07:17 Neil Thacker: Quer dizer, acho que o mais interessante seria se tivéssemos encontrado uma New maneira de fazer isso sem passar por tantas etapas, talvez, mas ainda não chegamos lá em termos de aprendizado com isso. Então, sim, é mais ou menos assim que eu vejo as coisas. Repito, acredito que isso aconteceu. Acho que, voltando ao ponto do Ray, foi... será que eles nos deram alguma informação New ? Não, foi mais uma vez um ótimo texto, uma ótima história para contar, e, aliás, contar histórias é algo bom. As pessoas adoram histórias e aprender sobre essas coisas através delas, mas, novamente, faltam alguns detalhes técnicos, que acredito que serão corrigidos em breve. Veremos mais ataques desse tipo e mais informações sendo compartilhadas sobre, novamente, por que esses ataques são talvez únicos e como eles estão aprendendo. Também me lembro de 2016, quando vimos isso acontecer na Defcon como parte do grande desafio cibernético, onde vimos máquinas totalmente autônomas lutando contra outras máquinas em um jogo de captura de bandeira. E isso foi ótimo porque, ao longo do tempo em que iam descobrindo vulnerabilidades e lançando exploits, eles também aprendiam. Portanto, é algo para o qual precisamos estar preparados. Isso foi há 10 anos, aliás, vimos que a teoria era possível há 10 anos.
entrando na era em que essas coisas vão acontecer cada
mais. 0:08:31 Ray Canzanese: E acho que esse é um bom ponto, Neil, sobre acreditarmos totalmente que eles detectaram algo, e acho que uma das razões é porque muitos de nós que trabalhamos em segurança cibernética temos usado essas ferramentas para fazer exatamente esse tipo de coisa, da perspectiva de uma equipe vermelha. Há algum tempo sabemos que isso é possível. Então, é claro que veríamos isso acontecer com mais frequência, e parece que, neste caso, eles encontraram alguém fazendo isso e acreditaram que essa pessoa estava agindo com más intenções. Certo. Era um grupo chinês de PT? Não sei. Certo. Não foram apresentadas provas disso, mas será que aconteceu? Quase certamente, sim, aconteceu. Certo. Então
as perguntas giram em torno dos detalhes
não do conceito em si, e se eles identificaram e impediram o abuso. 0:09:20 Max Havey: Se houver futuros ataques como este que forem relatados, quais são alguns dos detalhes principais que você gostaria de ver em um relatório como este para que as pessoas pudessem aprender com ele no futuro?
0:09:34 Neil Thacker: Sim, eu acho que gostaria de ver os detalhes mais técnicos, os detalhes sobre como o ataque foi realizado, se foi bem-sucedido, como foi bem-sucedido, qual era o alvo, qual foi a vulnerabilidade explorada, etc. Uma coisa que eu realmente adorei no relatório foi o uso de New termos, que eu não sabia que tinham sido usados no passado, mas houve um foco nisso: a velocidade de exploração, minha New expressão favorita, o ritmo operacional do ataque. Ficou claro, mais uma vez, através da pesquisa que realizaram, que isso não era possível para um ser humano, portanto, deveria ser um agente de IA que estava fazendo isso. Então, mais uma vez, velocidade, rapidez, exploração, a capacidade de usar, novamente, tipos adicionais de varredura de vulnerabilidades e todas essas coisas. Então, é mais ou menos isso que eu estaria analisando. Além disso, no futuro, acredito que seja disso que estamos falando aqui, talvez haja alguns detalhes únicos que possamos começar a determinar, identificar e atribuir de alguma forma, o que é sempre difícil em termos de ataques. Novamente, podemos identificar se este foi um ataque conduzido por humanos ou por máquinas? Isso é importante? Quer dizer, essa é a outra pergunta que precisamos fazer agora. Precisamos saber se, novamente, foi uma máquina ou um ser humano. Então, sim, é por aqui que precisamos começar a analisar, é isso que precisamos, eu acho
em relatórios futuros: maneiras de identificar melhor, novamente, as New táticas, técnicas etc., que estão
usadas por ferramentas autônomas. 0:10:57 Ray Canzanese: Uma das coisas que eu acho importante quando você escreve um relatório como este, tentando ajudar outras pessoas, é compartilhar detalhes suficientes para que outras pessoas na mesma situação que você possam usar essas informações e tomar alguma atitude. Portanto, neste caso, se você acredita que foi um grupo ATP que atacou seu serviço, saiba que vocês não são os únicos que hospedam LLMs e permitem que as pessoas interajam com eles. Existe, portanto, toda uma indústria que adoraria saber quais são essas TTPs (Táticas, Técnicas e Procedimentos) para que possam começar a procurá-las em seus serviços, bloqueando determinados comportamentos. Esse é o tipo de coisa que você provavelmente verá cada
mais nesse
de relatório. 0:11:40 Max Havey: Certamente. E isso também levanta uma questão, vendo este relatório vindo de um fornecedor de IA tão grande, e acho que você talvez tenha tocado um pouco nisso, Ray, mas por que parece que as empresas de IA estão tão interessadas em sugerir que a IA está sendo usada com tanto sucesso para fins nefastos, para esse tipo de ataque e coisas do gênero? Por que isso é um assunto importante para eles discutirem, especialmente nesse contexto de narrativa?
0:12:06 Ray Canzanese: Bem, acho que dei a entender isso bastante no início, quando você está contando uma história, você está realmente enfatizando a IA, essa coisa de IA é tão poderosa, veja o que ela foi capaz de fazer. Essa é uma história muito boa para contar. E quero dizer, isso está totalmente de acordo com a essência da filantropia. É bem típico deles falar sobre os riscos. Porque você também pode, ao falar sobre os riscos, falar sobre como está mitigando-os e se posicionar como um líder nessa área de planejamento de riscos e mitigação, o que ajuda os negócios e atrai mais clientes.
0:12:48 Neil Thacker: Se você pensar nisso como o leão e o galinheiro, certo? É o papel deles como leão. Eles possuem essa capacidade extremamente poderosa e, ainda assim, têm controle total ou a habilidade de identificar quando ela está sendo usada de uma determinada maneira. Sim, esse é o tipo de analogia
eu uso para me referir ao leão e à capacidade do domador
leões. 0:13:07 Max Havey: Eu também acho isso interessante porque vi recentemente um dado do MIT que apontava que 95% das iniciativas de IA empresarial não estão conseguindo gerar nenhum valor real perceptível. Então, por que agentes maliciosos estariam obtendo resultados tão melhores nesse tipo de situação? Será que eles estão apenas brincando mais com isso, encontrando New maneiras de quebrá-lo? Para alguns
0:13:26 Ray Canzanese: Até certo ponto, é encontrar um problema que os LLMs são bons em resolver, e Neil já mencionou que este foi um ataque bastante rotineiro em termos de coisas que já foram vistas antes repetidas vezes, certo? Os ex-alunos são muito bons nisso, não é? Preencha isso automaticamente para mim. Gostaria que você me fornecesse todos os detalhes do que preciso fazer neste ataque. Então, isso faz parte da questão. Escolha o problema certo para a ferramenta e esse será o problema certo para o qual essa ferramenta será adequada. Portanto, faz sentido que você obtenha um bom resultado lá. Muitas organizações estão obtendo bons resultados quando se trata de automatizar tarefas de programação, que é o que isso representa.
0:14:07 Neil Thacker: Trata-se de automatizar essas tarefas para ganhar velocidade. Uma coisa que definitivamente observamos na área de segurança cibernética, e que as organizações vêm fazendo há muito tempo para medir as respostas a violações, é a rapidez com que conseguem responder a essa violação para mitigar os danos e implementar medidas de controle que garantam que a violação não seja bem-sucedida. Portanto, no início da cadeia de ataque, é nesse momento que você deve intervir. Agora, voltando ao assunto da IA, ela é projetada para funcionar de forma rápida e automatizada, além de ser escalável. Então, em muitos casos, se você estiver analisando as aplicações da IA, este é um ótimo exemplo. Infelizmente, isso acaba afetando as organizações por esse motivo. Porque, mais uma vez, vimos o mesmo nos primórdios dos ataques DDoS em larga escala, esse tipo de coisa. Você poderia automatizar praticamente todos esses scripts, muitos deles direcionados a organizações fazem isso dessa maneira. Se fossem humanos fazendo isso, seria em grande parte ineficaz. Mas agora estamos vendo isso de uma forma mais avançada, visando organizações com técnicas específicas, visando a exfiltração de dados, etc. É para isso que estamos caminhando: este é o nível de escalabilidade que esses tipos de ataques atingem hoje em dia.
0:15:20 Ray Canzanese: Eu gosto que você use palavras como bots e scripts porque agora estamos chamando-os de agentes, mas conceitualmente ainda é a mesma coisa. E a velocidade veio com os bots e scripts, mas ainda era preciso ter pessoas para programar os bots e escrever os scripts. E acho que o fator que está ajudando aqui é que, bem, agora podemos escrever esses bots e esses scripts mais rapidamente e de uma forma direcionada a organizações específicas, porque é isso que o LMS nos permite fazer. Então, é um pouco de acessibilidade combinada com velocidade. Eis alguém que talvez não tivesse o conhecimento técnico para escrever todos esses roteiros por conta própria ou não tivesse os recursos necessários para reunir uma pequena equipe para fazer isso em pouco tempo. Mas um grupo de agentes
IA
muito mais fácil de configurar para realizar essa tarefa. 0:16:09 Neil Thacker: E, novamente, eles podem iterar rapidamente, então eles aprendem, ok, não deu certo desta vez, e tentam novamente um minuto depois. Por outro lado, talvez de uma perspectiva humana, leve algumas horas, alguns dias para entender, tipo, por que eu não tive sucesso com aquilo? E isso já foi comprovado há 10 anos. É isso que esses sistemas conseguem iterar muito, muito rapidamente e depois seguir em frente. E o objetivo, claro, é ter sucesso no ataque. Assim, se não for bem-sucedido, esse tempo pode ser usado para iterar e seguir em frente rapidamente, para talvez ter mais sucesso na próxima vez.
0:16:43 Max Havey: Bem, também é interessante ouvir durante a transmissão que vocês continuam repetindo a ideia de que nada disso é particularmente New. São coisas que já conhecíamos há algum tempo, ou técnicas que já vêm sendo utilizadas há algum tempo, e a IA apenas tornou tudo mais acessível. Isso elimina algumas das barreiras, por falta de um termo melhor, para os bandidos, para os agentes de ameaça e coisas do gênero. E você acha que, olhando para o futuro, será cada vez mais importante ser capaz de classificar essas coisas como ameaças habilitadas por IA versus ameaças humanas? Acho que, como você meio que apontou, Neil, o argumento homem versus máquina aqui, será uma classificação importante para os profissionais de segurança cibernética terem em mente ao olhar para o futuro dessa forma?
0:17:24 Neil Thacker: Sim, acho que sim. Bem, devido aos tipos de ataque que você pode encontrar, então, vindo de uma entidade externa, não acho que faça muita diferença, mas quando o ataque ocorre dentro da sua organização e é o seu agente de IA, então definitivamente você precisa saber que foi o seu agente de IA que realizou o ataque. Outro ponto importante é que sempre tratamos os ataques sob a perspectiva de um agente de ameaça externo ou de um agente de ameaça interno. Para mim, é fundamental saber quando isso acontece dentro da sua organização. Sempre que investigamos um incidente interno, e estou neste setor há 25 anos, precisamos saber quem foi o responsável, pois essa pessoa está dentro da nossa organização. Se for um incidente externo, precisamos saber se foi um ataque e como nos defender contra ele. Então, acho que é aí que você precisa conhecer um agente interno dentro da sua organização. Sim, você precisa saber se é o proprietário desse agente e responder de acordo.
0:18:17 Ray Canzanese: E eu acho que essa é uma boa resposta porque, em certo nível, você não se importa, certo? Se o informante for um agente ou uma pessoa com informações privilegiadas, ainda assim está fazendo algo errado e ainda queremos que pare. Mas acho que o motivo importante para continuarmos falando sobre isso, especialmente agora, é garantir que todos tenhamos em mente que alguns dos nossos membros não são necessariamente pessoas. E quando você tem pessoas não humanas dentro da organização, como seres não humanos realizando tarefas, muitas vezes isso se apresenta de forma diferente. Essa atividade aparece em diferentes registros e locais, e você precisa garantir que sua estratégia a inclua e a cubra. Não basta dizer: "Bem, é claro que me importo com os que estão por dentro do assunto". Temos que pensar, bem, qual sabor esses especialistas escolheriam? E estou procurando nos lugares certos para detectar esses informantes e o que eles podem estar fazendo de errado?
0:19:15 Max Havey: Certamente. E acho que, tendo isso em mente, quero retomar a previsão de Neil, com a qual começamos aqui, quando pensamos em outra grande violação de segurança, além do que a Anthropic já relatou. Se víssemos uma violação como a que Neil está mencionando, quais você acha que seriam os fatores que a motivariam? Será um acidente, ou um agente malicioso usando inteligência artificial? Qual você acha que é um cenário provável que poderíamos ver?
0:19:43 Neil Thacker: É uma boa pergunta. Acho que veremos uma mistura. Acho que veremos, em muitos casos, e já estamos vendo, esse feedback. Estou conversando com CISOs que dizem: "Nossa, eu não sabia que estávamos usando esse serviço." Ah, não tinha me dado conta de que estávamos usando esse caso de uso. Eu não tinha ideia de que esse serviço consumia tantos dados. Então, acho que já vimos alguns comentários de organizações que estão percebendo que talvez já estejam vendo isso em termos de um problema acidental, um incidente de segurança, uma violação de dados acidental ou se os dados foram parar nas mãos de terceiros errados? Ou será que agora existem tantos agentes interligados que eles perderam o controle desses serviços e de como eles estão sendo utilizados? Ouço essa pergunta, esse comentário com frequência nas discussões que tenho hoje, é: quem é o dono do meu servidor MCP?
0:20:33 Neil Thacker: E então, acho que definitivamente veremos esse problema ocorrer. Não será tão abordado quanto, por exemplo, agentes de ameaças externas, mas acho que veremos uma mistura interessante desses dois tipos de informação. Então, sim, talvez, voltando às discussões sobre probabilidade e impacto, haja uma probabilidade ligeiramente maior de um problema interno, mas algo que possa ser controlado, enquanto que, vindo de um agente de ameaça externo, ainda é provável, mas o impacto pode ser enorme, porque agora estamos dentro da organização, com dados que foram exfiltrados e que potencialmente foram perdidos, vazados, resultando em multas, penalidades, sanções, etc., para a organização, ou, novamente, danos à reputação em geral e o desafio que as organizações terão que enfrentar para se recuperar. Sim, acho que haverá uma mistura daqui para frente. Mas sim, é algo que temos que ficar atentos. Precisamos analisar as métricas para termos de como isso vai se desenvolver no futuro. Penso que sempre precisamos considerar o combate a qualquer ameaça por meio de uma série de controles, recomendações, etc., que possamos implementar. E eu acho
para nós, assim como para qualquer organização hoje em dia, é preciso analisar ambas as capacidades: a interna e a externa
0:21:48 Ray Canzanese: Outro ponto de vista que eu também discuto bastante com equipes de segurança é o dessas próprias empresas de IA. São empresas que trabalham com quantidades massivas de dados. Muitas dessas empresas têm menos de um ano, menos de dois anos de existência. São empresas muito jovens que estão se expandindo rapidamente para um New setor. E eles estão apreensivos em relação a essas empresas e ao que essas empresas estão fazendo para proteger todos os dados que possuem. Então, ouço muitas pessoas perguntando: "Bem, como posso permitir que as pessoas usem o serviço A, mas apenas para esses casos de uso super específicos?" Ou posso garantir que nenhum de nossos segredos comerciais, dados de clientes ou código-fonte seja incluído nesse serviço? Essa é outra preocupação. Outra coisa a observar é como será o que acontecerá quando houver uma violação de segurança em uma dessas empresas de IA. Será que isso vai resultar em roubo de dados? Será que vai ser envenenamento por modelos? Existem muitas oportunidades para causar danos
diferentes maneiras se você estiver invadindo uma dessas empresas que seus alvos
utilizam. 0:23:02 Neil Thacker: E poderia ser, quer dizer, essa poderia ser a solução mais fácil, certo? Exatamente. Concordo com você, Ray, já vimos isso acontecer. Quer dizer, eu pesquisei organizações que alguém da NECAP queria usar, fizemos perguntas a elas e, depois disso, elas não demonstraram preocupação com a segurança cibernética. O que é isso? Sim, com certeza, essa é uma preocupação em potencial. Isso é algo que toda organização precisa fazer. É uma ótima observação. Analisando seus fornecedores e provedores de serviços, como eles estão respondendo a esse tipo de ataque à
organização, infraestrutura, sistemas e serviços
0:23:36 Ray Canzanese: E mesmo que você decida confiar neles e usá-los, o que você faz para monitorar essa interação e garantir que nada deu errado, que nada está sendo usado de forma inconsistente com a sua intenção?
0:23:53 Max Havey: Tudo isso parece estar caminhando para um tipo de conversa em evolução que as equipes de segurança precisam ter com suas organizações sobre esses tipos de IA em geral e, especialmente, IA agrícola, à medida que ela se torna uma parte maior e mais substancial da maneira como as empresas estão usando a IA. E com isso em mente, vocês já falaram bastante sobre isso aqui, mas como isso altera as conversas que já estão acontecendo em relação à IA na segurança cibernética?
0:24:24 Neil Thacker: Sim, definitivamente. Estamos falando sobre isso, certo? Tem sido um tema muito discutido nos últimos anos e agora estamos neste ponto de virada, neste ponto de inflexão em que as organizações estão percebendo, novamente, que há relatos contraditórios sobre organizações que não enxergam um valor imenso, mas ainda assim todas as organizações estão usando alguma forma de IA, mesmo que sejam recursos Gen AI e coisas do tipo. Mas a maioria das organizações está investindo fortemente nesses serviços para, mais uma vez, automatizar melhor muitos de seus fluxos de trabalho e algumas de suas operações comerciais. Portanto, estamos vendo que isso está presente nas organizações hoje em dia e, acredito, mais uma vez, é assim que as organizações estão respondendo atualmente. Tivemos o mesmo problema com a nuvem. Tivemos a mesma experiência com a nuvem. A computação em nuvem não surgiu de forma gradual nas organizações, mas as pessoas estavam cientes de sua existência. Mas então houve essa explosão. Agora
usavam SAS e serviços
nuvem pública. 0:25:16 Neil Thacker: E eu volto, se posso voltar aos anos noventa, quando tínhamos internet novamente, ao mesmo tipo de coisa. Foi algo que se infiltrou aos poucos e, de repente, todos estavam utilizando serviços na internet. Então, estamos naquele momento em que, novamente, eu diria que há uma alta porcentagem de pessoas nas organizações usando alguma forma de IA. Sim, é assim que começamos a nos preparar para isso. Retomando a questão inicial, a discussão agora gira em torno da seguinte pergunta: temos um aplicativo, um inventário de IA dos nossos serviços de IA? Como avaliamos esses serviços? Como estamos controlando? Por exemplo, temos um caso comum em que possuímos um inventário de ativos de IA e o mapeamos para o nosso inventário de ativos de dados. Assim, entendemos quais dados estão sendo enviados para esse serviço de IA e, se detectarmos alguma anomalia, precisamos intervir e bloqueá-la. É mais ou
assim
tenho visto essa evolução acontecer nas organizações hoje em dia. 0:26:09 Ray Canzanese: E eu diria que um bom sinal que notei recentemente é que, obviamente, temos falado muito sobre isso há alguns anos, e tenho recebido perguntas de equipes de segurança, que me perguntam coisas como: "Ei, como eu protejo minhas implantações de IA agente no Bedrock?" E eu direi: "Ah, legal". Pode me contar mais sobre como você está usando isso? E eles respondem: "Bem, ainda não estamos usando isso." Estamos pensando nisso. É óbvio que é nessa direção que as coisas estão caminhando. Estamos testando e queremos pensar na segurança, e estou impressionado. Estou feliz. Era assim que eu esperava que as coisas acontecessem: que tivéssemos falado o suficiente sobre isso para que as pessoas estivessem cientes e fizessem essas perguntas antes de se aprofundarem demais no processo, de modo que pudessem estar um pouco mais preparadas do que talvez estivessem na época da febre inicial dos chatbots de IA
quando as pessoas
a usá-los da noite para o dia e você tinha que lidar com dinheiro vivo desde o início. 0:27:10 Max Havey: Com certeza. E, para finalizar nossa conversa, gostaria de saber a opinião de vocês sobre o que as organizações podem fazer para começar a conter esses riscos generalizados e iniciar essas conversas agora mesmo? Que conselho você daria às organizações que buscam proteger melhor isso no futuro, já que continuará sendo uma conversa e uma ameaça com a qual elas terão que lidar?
0:27:34 Neil Thacker: Bem, acho que tudo começa com a compreensão do que você tem. Sempre começamos por analisar a cibersegurança, principalmente os serviços de IA disponíveis e como eles estão interligados. Obviamente, com os tipos de ataques que temos visto, em muitos casos, a conectividade entre agentes é a causa disso. Portanto, é importante ter um bom entendimento do que você está usando, por que está usando, identificar o que o serviço está fazendo, o que parece normal, e então adicionar alguns controles. Portanto, ao analisar atividades incomuns, é importante isolar a origem do problema e garantir a separação das plataformas e serviços. Assim, se um agente de IA tiver acesso a ambientes de não produção, como em um ponto de teste ou experimentação, ele não terá acesso ao ambiente
produção
poderá elevar seus privilégios para esse ambiente. 0:28:27 Neil Thacker: Então, estamos analisando formas de separação. Mas acredito que, em 2026, veremos um aumento significativo no uso de ferramentas como gateways de IA por parte das organizações para melhor identificar o uso da IA em suas estruturas, como os serviços estão sendo conectados e para implementar mecanismos de proteção e aplicar os níveis adequados de controle técnico. Parte da minha previsão era essa: sim, veríamos uma violação de segurança significativa que viraria notícia de primeira página, e a resposta seria, neste momento, que tínhamos justificativa para investir e implementar essas capacidades para melhor defender nossa organização contra isso. Então, é isso que eu espero ver em relação a esses New riscos que temos que enfrentar, mesmo que eles possam ser baseados em formas antigas de riscos, táticas e técnicas. Temos que responder, acredito, com tecnologia para combater, mais uma vez, esses sistemas autônomos
crescem rapidamente
0:29:27 Ray Canzanese: Sim, concordo plenamente. Tudo começa com a visibilidade. Ao começar a analisar o que você consegue visualizar, muitas vezes você também descobre onde tem pontos cegos nessa visibilidade, e isso lhe dá uma boa estratégia para saber onde precisa se esforçar mais. E o que você precisa ter em mente ao analisar um problema é essa combinação perigosa de eventos ocorrendo nos dispositivos finais, na nuvem, com identidades humanas e não humanas, tudo isso trabalhando em conjunto. Então, você descobre o que está usando, começa a mapear isso e procura identificar seus pontos cegos, onde pode obter gateways MCP, gateways de IA, logs na nuvem, qualquer coisa que ajude a resolver
lacunas de visibilidade
0:30:16 Max Havey: Acho que esse é um ótimo lugar para pararmos, pessoal. E Neil, muito obrigado por estar aqui conosco. Você contribuiu com muitas perspectivas valiosas, especialmente por ter sido um dos principais responsáveis por este episódio, ao prever a primeira violação de dados cibernéticos impulsionada por IA em 2026. Muito obrigado por se juntarem a nós.
0:30:35 Neil Thacker: Sim, claro. Sem problemas. Sim, foi ótimo falar com vocês novamente, Max e Ray, e tenho certeza
que conversaremos muito mais sobre isso em 2026
0:30:42 Max Havey: Também, quase certamente. E Ray, muito obrigado como sempre por participar e trazer sua valiosa experiência em ameaças. Sei que você já trabalhou em muitos relatórios de ameaças e escreveu sobre muitas ameaças, então você ofereceu uma perspectiva muito valiosa aqui, e tenho certeza
você terá mais a dizer conforme as coisas se desenvolverem. 0:30:55 Ray Canzanese: Sim, obrigado por me receber, Max. Aguardo ansiosamente o próximo.
0:30:58 Max Havey: Com certeza. E com isso, você acabou de ouvir o podcast Security Visionaries e eu fui seu apresentador, Max. Se você gostou deste episódio, compartilhe com um amigo e não se esqueça de se inscrever no Security Visionaries na sua plataforma de podcasts favorita, seja Apple Podcasts, Spotify ou nos nossos New vídeos no YouTube. Lá, você pode conferir nosso catálogo de episódios antigos e ver os New , que são publicados quinzenalmente, apresentados por mim ou pelas minhas maravilhosas co-apresentadoras, Emily, Wear Mouth e Bailey Pop. E com isso, nos vemos no próximo episódio.