0:00:01 Max Havey: Hola y bienvenidos a otra edición de Security Visionaries, un pódcast dedicado al mundo de los datos cibernéticos y la infraestructura tecnológica, que reúne a expertos de todo el mundo y de diferentes ámbitos. Soy vuestro presentador, Max Havey, y hoy vamos a hacer todo lo posible por desenredar el bombo de la realidad cuando se trata de amenazas de IA y ciberespionaje. Y conmigo, tenemos dos invitados realmente estupendos que tienen opiniones muy profundas sobre este tema. Primero, tenemos a Ray Canzanese, jefe de Netskope Threat Labs. Ray, bienvenido de nuevo al programa.
0:00:29 Ray Canzanese: Gracias por invitarme, Max. Ha pasado un tiempo.
0:00:32 Max Havey: Y así es. Y así es. Han pasado quizá un par de años, así que me alegra teneros de vuelta en el podcast y de nuevo, de vuelta aquí, de nuevo recientemente, viendo en nuestro episodio de Hackers que tenemos a Neil Thacker, responsable global de Privacidad y Protección de Datos aquí en Netskope. Bienvenido de nuevo, Neil.
0:00:45 Neil Thacker: Gracias, Max. Gracias por invitarme de nuevo la última vez que estuvimos en los noventa. Estamos de vuelta en los años 2020.
0:00:51 Max Havey: Te he llevado al presente. Esta vez tendremos una conversación que mire al futuro. Genial. Ha habido muchas conversaciones recientes sobre amenazas habilitadas por IA en el ciberespionaje. Destaca especialmente un informe de Anthropic sobre la primera campaña de ciberespionaje orquestada por IA reportada, que algunos críticos han señalado carece de pruebas clave en cuanto a apoyo. Pero antes de profundizar en eso, sé que tanto Ray como Neil han ofrecido algunas reflexiones sobre las amenazas habilitadas por IA en el futuro, como el phishing agente agrícola y las brechas de Datos de cara a 2026. Así que vamos a empezar ahí. Neil, ¿puedes contarnos tu predicción reciente en la que señalas que 2026 probablemente será el primer año en que veamos una brecha de datos impulsada por IA agente AG?
0:01:35 Neil Thacker: Sí, claro. Quiero decir, estoy un poco molesto con Anthropic, lo he destacado en 2025. Predije 2026. Pero la razón es que siento que hemos llegado a un punto de inflexión en cuanto a la IA dentro de la ciberseguridad. Estamos viendo muchísima organización desarrollando, desplegando tecnologías de IA, mejorando sus capacidades existentes aquí, pero también usando Usar IT para capacidades defensivas. Así que, por supuesto, no hay, fue una observación bastante clara de que en 2026 veremos un ataque ofensivo aquí, y no es nada de Nuevo. Llevamos muchos años con tecnologías, con herramientas que los atacantes tienen Usar para lanzar ataques y, por supuesto, hemos ido creciendo en sofisticación. Así que para mí fue mirar el panorama hacia el que íbamos y darme cuenta de que esto va a llegar pronto, y si no va a ser en 2025, será en 2026. Pero estamos viendo esto, muchas organizaciones se están preparando para esta carrera armamentística en cuanto a IA, defensa ofensiva y, básicamente, preparándose para este tipo de resultado.
0:02:40 Max Havey: Por supuesto. Y Ray, sé que tu equipo también hizo varias predicciones sobre esto. ¿Cómo reaccionas a eso y tienes alguna predicción de tu equipo que quieras tomar en cuenta sobre esta preocupación del envejecimiento de los agentes?
0:02:53 Ray Canzanese: Sí, creo que, al igual que Neil, tuvimos predicciones en ambos lados, ¿verdad? Por un lado, los atacantes son Usar, la tecnología para amplificar ataques o para agilizar los ataques. Y los riesgos que hay ahí, primero, es que se vuelve un poco más rápido y accesible desarrollar un ataque. Y luego, el número dos, es que es realmente bueno en ciertas cosas. Si quisiera hacer un vídeo falso de ti, Max, intentando convencer a alguien para que revele su contraseña o algo más, sería bastante fácil hacerlo con la tecnología actual. Por eso prevemos un aumento en la ingeniería social y el phishing. Y por otro lado, a medida que la Organización adopta más de estas tecnologías y quizá no sigue las mejores prácticas, o quizá hay riesgos emergentes que nadie consideró realmente y que aumentan los riesgos de brechas allí también. Así que no es solo cuando hablamos de seguridad en IA, no es solo de, bueno, mantengámosla fuera de las manos de los hackers, sino también, bueno, asegurémonos de que cuando lo usemos, lo usemos de forma segura y responsable.
0:04:05 Max Havey: Es una especie de arma de doble filo ahí. Es la parte de protección, pero también usar esto y permitir que la gente lo use de forma segura y que no se filtre cosas accidentalmente en el proceso. Teniendo todo esto en cuenta, volviendo a la filantrópica Informe, desde vuestra opinión, ¿por qué esta Informe carecía tanto de los datos habituales y útiles que incluyen este tipo de Informe y que permiten a otros aprender de ello cuando se trata de algo tan grande, el primer evento de ciberespionaje habilitado por IA como este,
0:04:39 Ray Canzanese: Creo que la respuesta corta es que, como no necesitas más detalles para el marketing, para el marketing, tienes que hablar de lo poderoso que era tu producto y de lo responsable que fuiste al ejercer ese poder. Así que tiene sentido desde el punto de vista del marketing. Así que si ocurre algo así y realmente interrumpes un ataque, tiene sentido. Querrías sacarlo inmediatamente. Va a hacer que todos los que trabajan para ti se sientan bien, y vas a tener un montón de gente haciendo podcasts hablando de ello, un marketing realmente bueno que quizá sea incluso un poco más cínico. Creo que si eres pionero en un sector donde has desarrollado una tecnología realmente impresionante y vas por ahí diciendo: Oye, lo que hemos construido aquí es realmente peligroso, así que no deberías dejar que otros construyan lo que nosotros hemos construido porque no confiarías en ellos, pero puedes confiar en nosotros porque ves que estamos aquí haciendo lo correcto. Así que eso es un poco más cínico decir que quizá es un poco más que marketing, quizá es un poco inteligente de negocio hablar de que quizá más empresas deberían poder hacer lo mismo.
0:05:51 Max Havey: Por supuesto. Bueno, y creo que eso es lo interesante, que hay tanto potencial en relación con la IA y siempre se ha visto como una caja negra para mucha gente, especialmente para quienes tienen un poco más de miedo a lanzarse de cabeza con esto. ¿Tenéis alguna corazonada sobre lo precisa que es este tipo de afirmación? Es bueno para el marketing, es bueno para mostrar lo poderosa que puede ser esta tecnología, pero ¿qué tan fiable creemos que es esto como ataque real o algo así?
0:06:25 Neil Thacker: Sí, quiero decir, no era necesariamente único. Quiero decir, si miras el estilo del ataque que ocurrió, fue el mismo tipo de patrón que muchos atacantes han estado siguiendo durante años. Así que no es nada nuevo. No es nada único. Así que, de nuevo, al compartir esta información, obviamente esto ocurrió, pero no hay nada sorprendente que aprender del tipo de ataque de todos modos. Creo que, de nuevo, la parte emocionante, la única es que esto fue completamente orquestado por un agente de IA. Así que se aprende bien de los humanos en cuanto a actuar según estos principios. Y si miras esto, ¿verdad?, sigue un patrón muy similar. Hizo el reconocimiento, el mapeo de la superficie de ataque, lo revisó, encontró vulnerabilidades, luego hizo la recolección de Credenciales y después pasó por la fase final de la recopilación de datos. Así que hemos seguido ese mismo patrón durante años.
0:07:17 Neil Thacker: Quiero decir, supongo que lo realmente emocionante es si hubiera encontrado una forma Nuevo de hacer esto sin pasar por tantos pasos, quizás, pero aún no hemos llegado a ese punto en cuanto a aprender de esto. Así que sí, así es como lo veo yo. De nuevo, creo que esto ocurrió. Creo que, de nuevo, en respuesta a Ray, era, ¿fue algo que nos dieron información de Nuevo? No, de nuevo fue un gran resumen, una gran historia que contar, que por cierto, contar una historia es buena. A la gente le encantan las historias y aprender sobre estas cosas a través de relatos, pero de nuevo, carecen de algunos detalles técnicos, aunque creo que eso llegará pronto. Veremos más de este tipo de ataques y más información compartida sobre, de nuevo, por qué estos ataques son quizás únicos y cómo están aprendiendo. También me recuerdo a 2016, cuando vimos esto en Defcon como parte del cyber grand challenge, donde vimos máquinas totalmente autónomas luchando contra otras en un juego de captura la bandera. Y fue genial porque, con el tiempo que iban encontrando vulnerabilidades y lanzando exploits, también aprendían. Así que esto es algo para lo que debemos estar preparados. Eso fue hace 10 años, por cierto, vimos que la teoría era posible hace 10 años. Ahora estamos llegando a la era en la que estas cosas van a ocurrir cada vez más.
0:08:31 Ray Canzanese: Y creo que es un buen punto, Neil, sobre que creemos totalmente que detectaron algo, y creo que una de las razones es que muchos de nosotros que trabajamos en ciberseguridad hemos usado estas herramientas para hacer exactamente ese tipo de cosas desde la perspectiva del equipo rojo. Desde hace tiempo sabemos que esto es posible. Así que, por supuesto, se veía cada vez más de ello, y parece que en este caso encontraron a alguien haciéndolo y creían que lo hacían con malas intenciones. Derecha. ¿Era un grupo de fisioterapia china? No sé. Derecha. No hay pruebas que se presentaran allí, pero ¿ocurrió? Casi con toda seguridad, sí, ocurrió. Derecha. Así que las preguntas que hay sobre ellos, quizá sean los detalles, no el concepto, y si encontraron el abuso y lo detuvieron.
0:09:20 Max Havey: Si se reportan futuros ataques como este, ¿cuáles son algunos de esos detalles clave que querrías ver en un Informe como este para que esto sea algo mejor que la gente pueda aprender de cara al futuro?
0:09:34 Neil Thacker: Sí, creo que vería los detalles más técnicos, los detalles sobre cómo fue el ataque, si fue exitoso, cómo fue exitoso, cuál fue el objetivo, cuál fue el exploit, etcétera. Una cosa que realmente me encantó del Informe fue el usar de los términos Nuevo, que no sé si han sido Usar en el pasado, pero se ha centrado en esto, la velocidad de explotación, mi frase favorita de Nuevo, el ritmo operativo del ataque. Estaba claro que, de nuevo, a través de la investigación que identificaron, que esto no era posible para un humano, por lo tanto, debía ser un agente de IA quien lo haga. Así que, de nuevo, velocidad, explotación, la capacidad de usar Usar, otra vez, tipos adicionales de escaneo de vulnerabilidades y todo eso. Así que eso es más o menos lo que yo buscaría. Además, en el futuro, supongo que de lo que hablamos aquí, quizás hay algunos detalles únicos que podemos identificar y poner alguna forma de atribución, lo cual siempre es difícil en cuanto a ataques. De nuevo, ¿podemos identificar esto como un ataque liderado por humanos o máquinas? ¿Es eso importante? Quiero decir, esa es la otra pregunta que deberíamos hacerle a Ahora. Necesitamos saber si esto es otra vez, máquina o humano. Así que sí, aquí es donde necesitamos empezar a mirar esto es lo que supongo que necesitamos en el futuro Informe, esas formas de identificar mejor, de nuevo, las tácticas, técnicas, etcétera, siendo Usar por, de nuevo, herramientas autónomas.
0:10:57 Ray Canzanese: Una de las cosas que creo que cuando escribes un Informe así y quieres ayudar a los demás es que necesitas compartir suficientes detalles para que otras personas en la misma situación que tú puedan tomar esa información y hacer algo al respecto. Así que en este caso, si crees que fue un grupo A TP atacando tu servicio, no sois los únicos que alojan LLMs y permiten que la gente interactúe con ellos. Así que hay todo un sector ahí fuera que estaría encantado de saber cuáles son esos TTP para poder empezar a buscar lo mismo en sus servicios bloqueando ciertos comportamientos. Ese tipo de cosas creo que esperarás ver cada vez más en este tipo de Informe.
0:11:40 Max Havey: Por supuesto. Y también plantea una pregunta, ver que este Informe viene de un proveedor de IA tan grande, y creo que quizá lo has tocado un poco, Ray, pero ¿por qué parece que las empresas de IA están tan interesadas en sugerir que la IA está siendo tan exitosamente Usar por razones nefastas, para este tipo de ataques y cosas por el estilo? ¿Por qué es tan importante que hablen de eso, especialmente quizá en este tipo de contexto narrativo?
0:12:06 Ray Canzanese: Y creo que lo insinué bastante desde el principio, cuando cuentas una historia, realmente promocionas la IA, esto de la IA es tan potente, mira lo que fue capaz de hacer. Es una historia realmente buena para contar. Y quiero decir, esto va muy en línea con la filantropía. Es muy propio de su marca hablar de los riesgos. Porque también puedes, si hablas de los riesgos, hablar de cómo los estás mitigando y construirte como quizá el líder en este ámbito de pensar en los riesgos y las mitigaciones, eso ayuda al negocio, eso facilita que el dinero fluya hacia ti.
0:12:48 Neil Thacker: Si piensas en esto como el león y el león tamr, ¿verdad? Es su papel como leones. Tienen una capacidad enormemente poderosa, y sin embargo tienen el control total o la capacidad de identificar cuándo quizá está siendo Usar de cierta manera. Así que sí, esa es la analogía a la que me refiero con el león y la capacidad de domar leones.
0:13:07 Max Havey: También me parece interesante porque vi recientemente un punto de Datos del MIT que señalaba que el 95% de las iniciativas de IA empresarial no logran generar ningún valor real discernible. ¿Y por qué los actores de amenaza estarían impulsando resultados tan mejores en ese tipo de cosas? ¿Simplemente están jugando más con ello, buscando formas nuevas de romperlo? Para algunos
0:13:26 Ray Canzanese: En la medida en que es encontrar un problema que los LLM son buenos para resolver, y Neil ya señaló que esto era un ataque bastante rutinario en términos de cosas que se han visto una y otra vez, ¿verdad? Los antiguos alumnos son muy buenos en eso, ¿verdad? Completa esto automáticamente por mí. Me gustaría que completaras todos los detalles de lo que necesito hacer en este ataque. Y eso es parte del asunto. Elige el problema adecuado para la herramienta y ese es el problema adecuado para emparejarla. Así que tiene sentido que ahí se obtenga un buen resultado. Muchas organizaciones están obteniendo buenos resultados en la automatización de tareas de programación, que es lo que está pasando.
0:14:07 Neil Thacker: Es automatizar esas tareas para agilizar. Una cosa que hemos visto claramente en ciberseguridad y cómo medimos las respuestas a las brechas, cómo Organización ha hecho esto durante tanto tiempo, es la rapidez con la que puedes responder a esa brecha para mitigar, para poner cierto control y asegurar que la brecha no tenga éxito. Así que, al principio de la cadena de ataques, al final es cuando quieres intervenir. Ahora, de nuevo mirando la IA, está diseñada para funcionar de forma rápida y automatizada que también puede escalar. Así que esto es lo que en muchos casos, si miras el Usar Caso para IA, este es un gran Usar Caso. Desafortunadamente, por eso afecta a la Organización. Porque, de nuevo, vimos lo mismo en los primeros días de ataques DDoS a gran escala, ese tipo de cosas. Podrías automatizar esos scripts, esos lotes para que Organización se dirijan así. Si los humanos hicieran esto, sería en gran medida ineficaz. Pero ahora vemos esto de una forma más avanzada, dirigiéndose a técnicas específicas de Organización Usar, exfiltración de datos, etcétera. Aquí es hacia donde nos dirigimos: la escalabilidad moderna de este tipo de ataques.
0:15:20 Ray Canzanese: Me gusta que uses las palabras como bots y scripts porque los llamamos agentes Ahora, pero conceptualmente sigue siendo lo mismo. Y la velocidad venía con los bots y scripts, pero aún necesitabas gente para escribir los bots y los scripts. Y creo que lo que ayuda aquí es que, bueno, ahora podemos escribir esos bots y escribir esos scripts más rápido y de una manera dirigida a organizaciones específicas porque eso es lo que el LMS nos permite hacer. Así que es un poco de accesibilidad mezclada con la velocidad. Aquí hay alguien que quizá no tenía los conocimientos para escribir todos esos guiones por sí mismo o no tenía los recursos necesarios para reunir un pequeño equipo para hacerlo en poco tiempo. Pero un montón de agentes de IA, mucho más fácil hacer esa tarea.
0:16:09 Neil Thacker: Y de nuevo, pueden iterar rápido, así que aprenderán, vale, esta vez no tienen éxito y luego vuelven a empezar un minuto después. Mientras que, de nuevo, quizá desde una perspectiva humana, tarda quizá unas horas, unos días en entender, vale, ¿por qué no tuve éxito con una? De nuevo, esto también se demostró hace 10 años. Esto es lo que estos sistemas pueden iterar muy, muy rápido y luego seguir adelante. Y el objetivo, por supuesto, es tener éxito en el ataque. Así que si no tiene éxito, ese tiempo puede iterar y avanzar rápido para quizás tener más éxito la próxima vez.
0:16:43 Max Havey: Bueno, también es interesante escuchar que sobre la unión a la que vosotros volvéis una y otra vez, es la idea de que nada de esto es especialmente Nuevo. Son cosas de las que llevábamos un tiempo siendo conscientes o técnicas que llevaban ocurriendo desde hace tiempo, y la IA simplemente lo ha hecho más accesible. Es eliminar algunas de las barreras, por decirlo de alguna manera, para los malos, para tus actores maliciosos y ese tipo de cosas. ¿Y crees que, de cara al futuro, será cada vez más importante poder clasificar estas cosas entre una amenaza habilitada por IA y una amenaza humana? Creo que, como has señalado, Neil, en el debate entre hombre o máquina, ¿es esa una clasificación importante a tener en cuenta para los profesionales de la ciberseguridad que miran hacia adelante como esto?
0:17:24 Neil Thacker: Sí, creo que sí. Bueno, supongo que por los tipos de ataques que puedes ver, como una parte externa, no creo que importe demasiado, pero cuando está dentro de tu Organización y es tu agente de IA, entonces definitivamente necesitas saber que fue tu agente de IA quien hizo esto. Esa es otra cosa: siempre hemos tratado los ataques desde la perspectiva de un agente externo o interno. Para mí, definitivamente necesitas saber cuándo está dentro de tu organización. Siempre, cuando hemos investigado alguno, llevo 25 años en este sector, cuando investigas un incidente interno, necesitas saber quién fue, claro, porque esa persona está dentro de tu organización, externamente, necesitas saber que fue un ataque y cómo defenderte. Así que supongo que es cuando necesitas conocer a un agente interno dentro de tu Organización. Sí, necesitas saber si eres dueño de ese agente y responder en consecuencia.
0:18:17 Ray Canzanese: Y creo que es una buena respuesta porque, en cierto nivel, no te importa, ¿verdad? Si el insider es un agente o el insider como persona, sigue haciendo algo malo y seguimos queriendo que pare. Pero creo que la razón importante para seguir hablando de ello, especialmente en Ahora mismo, es asegurarnos de que todos estemos en esa mentalidad de que algunos de nuestros internos no son necesariamente personas. Y cuando tienes personas no internas, como no humanos haciendo cosas en tu Organización, a menudo eso es diferente. Esa actividad aparece en diferentes registros y lugares, y debes asegurarte de que tu estrategia la incluya y la cubra. No basta con decir, bueno, claro que me importan los de dentro. Tenemos que pensar, bueno, ¿qué estilo tomarían esos insiders? ¿Y estoy buscando en todos los lugares adecuados para detectar a esos insiders y qué podrían estar haciendo mal?
0:19:15 Max Havey: Por supuesto. Y creo que, teniendo eso en cuenta, quiero volver a la predicción de Neil con la que empezamos cuando pensamos en otra gran brecha de agentes, además de lo que Anthropic ya ha informado aquí. Si viéramos una brecha como la que menciona Neil, ¿cuáles crees que serían los conductores? ¿Es un accidente, un mal actor de Usar agente IA? ¿Cuál crees que es un escenario probable que podríamos ver?
0:19:43 Neil Thacker: Es una buena pregunta. Creo que vamos a ver una mezcla. Creo que vamos a ver, en muchos casos, creo que ya estamos viendo estos Comentarios de, quiero decir, estoy teniendo conversaciones con CISOs que dicen, oh, no sabía que estábamos utilizando este servicio. Oh, no sabía que éramos Usar este Usar Caso. No me había dado cuenta de que este servicio consumía tantos datos. Así que creo que ya hemos visto algunos comentarios de Organización que se están dando cuenta de que quizá ya están viendo esto en términos de un problema accidental, incidente de seguridad, ¿ha sido una brecha accidental de Datos o si Datos ha ido a un tercero equivocado? O de nuevo, ¿hay demasiados agentes interconectados en Ahora que han perdido la pista de estos servicios y de cómo se están utilizando? Escucho esta pregunta, y comento habitual en las discusiones que tengo hoy, ¿quién es el dueño de mi servidor MCP?
0:20:33 Neil Thacker: Así que creo que definitivamente vamos a ver que este problema se presente. No se escribirá al mismo nivel que, de nuevo, los actores externos de amenaza, pero creo que veremos una mezcla interesante de estos. Así que sí, quizás, volviendo a las discusiones de probabilidad e impacto, quizá haya una probabilidad ligeramente mayor de un problema interno, pero algo que pueda controlarse, mientras que de un actor externo sigue siendo probable, pero el impacto podría ser enorme porque ahora estamos dentro, con Datos que ha sido exfiltrado de la Organización y potencialmente está perdido en Ahora, se ha filtrado, si Ahora ha provocado multas, sanciones, Autorizado, etcétera, a la Organización, o de nuevo, daño general a la reputación y este desafío para que la Organización tenga que recuperarse. Así que sí, creo que va a haber una mezcla de cara al futuro. Pero sí, es algo a lo que hay que estar atentos. Tenemos que analizar las métricas en términos de cómo vamos a ver esto en el futuro. Creo que siempre hemos necesitado mirar para contrarrestar cualquier amenaza con una serie de, de nuevo, controles, recomendaciones, etcétera, que podamos implementar. Y creo que para nosotros, como para cualquier organización hoy en día, deben fijarse tanto en las capacidades aquí, el interno como el externo, el actor externo.
0:21:48 Ray Canzanese: Otro enfoque del que hablo con muchos equipos de seguridad también es sobre estas propias empresas de IA. Son empresas que simplemente trabajan con enormes cantidades de datos. Muchas de estas empresas tienen menos de un año y menos de dos años. Son empresas muy jóvenes que avanzan rápidamente en un espacio nuevo. Y están nerviosos por esas empresas y por lo que están haciendo para proteger todos los datos que tienen. Y escucho a mucha gente preguntar, bueno, ¿cómo puedo permitir que la gente use el servicio A con Usar, pero solo para estos Usar Caso tan estrechos? ¿O puedo asegurarme de que ninguno de nuestros secretos comerciales, datos de clientes o código fuente entre en ese servicio? Esa es otra preocupación. Y otra cosa a la que estar atento es cuando haya una brecha de seguridad en alguna de estas empresas de IA, ¿cómo va a ser? ¿Va a ser robo de datos? ¿Va a ser un envenenamiento por modelo? Hay muchas oportunidades para diferentes formas de causar daño si estás infringiendo una de estas empresas y tus objetivos reales son Usar.
0:23:02 Neil Thacker: Y podría ser, quiero decir, esto podría ser el fruto más fácil, ¿no? Exacto. En tu punto, Ray, ya hemos visto esto. Quiero decir, he investigado Organización y alguien en NECAP ha querido usar y le hicimos preguntas y miran atrás y no están frunciendo el ceño ni con ciberseguridad. ¿Qué es eso? Así que sí, absolutamente, esto es una posible preocupación. Esto es algo que toda organización tiene que hacer. Es un gran punto. Mirando a tus proveedores, a los proveedores de tus servicios, ¿cómo están respondiendo a este tipo de ataques contra su organización, su infraestructura, sus sistemas y servicios?
0:23:36 Ray Canzanese: Y luego, aunque decidas que confías en ellos y vas a usarlos, ¿qué haces para monitorizar esa interacción solo para asegurarte de que no ha salido nada mal, que nada está siendo Usar de esa manera, eso es inconsistente con cómo pretendías que fuera Usar?
0:23:53 Max Havey: Todo esto parece conducir a una conversación en evolución que los equipos de seguridad deben tener con su organización sobre este tipo de IA en general y especialmente sobre la IA ag en general, ya que se convierte en una parte más grande y sustancial de la forma en que las empresas son IA Usar. Y teniendo eso en cuenta, habéis hablado bastante de ello aquí, pero ¿cómo cambia esto las conversaciones que ya están ocurriendo en relación con la IA en la ciberseguridad?
0:24:24 Neil Thacker: Sí, definitivamente. Estamos hablando de esto, ¿verdad? Ha sido el tema candente durante los últimos años, y estamos ahora en esto, como dije al principio, y en este punto de inflexión, punto de inflexión donde Organización Ahora se da cuenta, de nuevo, de que hay información mixta sobre Organización y no ve un valor inmenso, pero sin embargo cada organización es usar alguna forma de IA, aunque sea otra vez, Gen AI capacidades y cosas por el estilo. Pero la mayoría de las organizaciones están invirtiendo fuertemente en estos servicios para automatizar mejor, de nuevo, muchos de sus flujos de trabajo y algunas de sus operaciones empresariales. Así que estamos viendo que esto está en Organización hoy en día, y creo que, de nuevo, es como Organización está respondiendo Ahora. Nos pasó lo mismo con la nube. Nos pasó lo mismo con la nube. La nube no necesariamente se acercaba a Organización, pero la gente era consciente de ello. Pero entonces hubo una explosión. Todos eran Ahora Usar SAS y Servicios públicos en la nube.
0:25:16 Neil Thacker: Y vuelvo a, si es que puedo volver a los noventa, cuando volvíamos a tener internet, lo mismo tipo de cosas. Se fue colando poco a poco y de repente todo el mundo empezó a usar servicios en internet. Así que estamos en ese momento de Ahora donde, de nuevo, diría que hay un alto porcentaje de personas en Organización Usar, una forma de IA. Así que sí, es como nos preparamos para eso. Volviendo al tema, las discusiones son: Ahora, ¿tenemos una aplicación, un inventario de IA de nuestros servicios de IA? ¿Cómo hemos evaluado esos servicios? ¿Cómo controlamos? Por ejemplo, tenemos uno común donde tenemos un inventario de activos de IA y lo mapeamos a nuestro inventario de activos de Datos, y entendemos qué va Datos a ese servicio de IA, y si vemos una anomalía ahí, tenemos que intervenir y bloquear esa anomalía. Así es como veo esta evolución en Organización hoy en día.
0:26:09 Ray Canzanese: Y diría que una buena señal que he notado últimamente es que, obviamente, hemos estado hablando mucho de esto durante unos años, y me han llegado preguntas de equipos de seguridad, y me preguntan algo como: Oye, ¿cómo aseguro mis despliegues de IA agente en Bedrock? Y yo diré, oh, genial. ¿Puedes contarme más sobre cómo lo estás usando con Usar? Y ellos decían, bueno, aún no lo hemos hecho Usar. Solo estamos pensando en eso. Obviamente, esa es la dirección que van las cosas. Lo estamos probando y queremos pensar en la seguridad, y me impresiona. Estoy feliz. Así es como esperaba que fuera esto, que hemos hablado lo suficiente para que la gente lo sepa, que se hagan estas preguntas antes de adentrarse demasiado en el proceso para poder ir un poco más preparados que quizá para la fiebre inicial de los chatbots de IA, donde la gente simplemente lo usaba de la noche a la mañana y tú jugabas dinero desde el principio.
0:27:10 Max Havey: Por supuesto. Y llegando al final de nuestra conversación, quiero saber qué puede hacer Organización con Inicio teniendo estos riesgos tan extensos desde Ahora hasta Inicio teniendo estas conversaciones. ¿Cuál consejo le darías a Organización que busca asegurar mejor esto de cara al futuro, ya que seguirá siendo una conversación y una amenaza con la que tendrán que lidiar?
0:27:34 Neil Thacker: Así que creo que es un comienzo con entender lo que tienes. Siempre pensamos que en esa ciberseguridad depende de qué servicios de IA tienes y también de cómo están conectados. Así que, obviamente, con los tipos de ataques que hemos visto, en muchos casos, puede ser la conectividad agente a agente lo que cause esto. Así que tener un buen entendimiento de qué usas Usar, por qué lo haces, identificar qué hace el servicio, qué parece normal, y luego añadir algunos controles ahí. Así que mirar a aislar si ves una actividad inusual, tener la capacidad, por supuesto, también de asegurarte de separar tu Plataforma y tus servicios para que, de nuevo, si un agente de IA tiene acceso a algunos de tus entornos no de producción, como volver a Raise Point para probar para experimentar, tampoco tenga acceso a tu entorno de producción o no pueda escalar sus privilegios a ese entorno de producción.
0:28:27 Neil Thacker: Así que estoy buscando formas de separación ahí. Pero creo que lo que veremos es que en 2026 veremos un gran aumento en el Usar de la Organización incorporando cosas como gateways de IA para identificar mejor el Usar de la IA en su Organización y cómo se conectan los servicios, y poner esos límites y aplicar los niveles adecuados de controles técnicos al respecto. Esto es lo que predí en mi predicción: sí, vamos a ver una brecha significativa que va a ser noticia principal y la respuesta será: ahora es un caso de que tengamos esa justificación para invertir y traer estas capacidades para defender mejor a nuestra organización contra esto. Así que eso es lo que espero ver en torno a estos riesgos de Nuevo que tenemos que afrontar, aunque puedan basarse en la antigua forma de riesgos y en la antigua forma de tácticas y técnicas, tenemos que responder, supongo, porque tenemos que responder con tecnología para contrarrestar de nuevo estos rápidos y rápidos directos autónomos también.
0:29:27 Ray Canzanese: Sí, estoy totalmente de acuerdo. Todo lo relacionado con la visibilidad de Inicio. Cuando inicias para ver en qué tienes visibilidad, a menudo también descubres en qué puntos ciegos tienes tu visibilidad, y eso te da una buena estrategia para dónde necesitas hacer más. Y lo que hay que tener en cuenta al investigar un problema es esa mezcla peligrosa de cosas que ocurren en Endpoint, cosas que ocurren en la nube, identidades humanas, identidades no humanas, todas estas cosas trabajando juntas. Así que descubres qué estás usando Usar, Inicio lo mapea y Inicio busca dónde están tus puntos ciegos, dónde puedes conseguir gateways MCP, gateways de IA, registros en la nube, cualquier cosa que te ayude a resolver esas lagunas de visibilidad.
0:30:16 Max Havey: Creo que es un gran lugar para parar, chicos. Y Neil, muchas gracias por acompañarnos aquí. Tenías muchas perspectivas geniales que ofrecer, especialmente porque fuiste uno de los impulsores de este episodio, prediciendo la primera brecha cibernética de Datos impulsada por IA y agente agrícola en 2026. Así que muchas gracias por acompañarnos.
0:30:35 Neil Thacker: Sí, claro. No Problema. Sí, ha sido genial volver a hablar con vosotros, Max y Ray, y seguro que hablaremos mucho más de esto en 2026.
0:30:42 Max Havey: Además, casi seguro. Y Ray, muchas gracias como siempre por unirte, aportar una gran experiencia en amenazas. Sé que has trabajado en muchos informes de amenazas y has escrito sobre muchas amenazas, así que ofreciste muchísima perspectiva aquí, y estoy seguro de que tendrás más que decir a medida que las cosas se desarrollen.
0:30:55 Ray Canzanese: Sí, gracias por invitarme, Max. Espero con ganas la próxima.
0:30:58 Max Havey: Por supuesto. Y con eso, has estado escuchando el podcast Security Visionaries y yo he sido tu presentador, Max. Si te ha gustado este episodio, compártelo con un amigo y asegúrate de suscribirte a Security Visionaries en tu pódcast favorito Plataforma, ya sea Apple Podcasts, Spotify o nuestros vídeos intensos de Nuevo en YouTube. Allí puedes consultar nuestro catálogo de episodios y ver los de Nuevo que se publican cada dos semanas, presentados por mí o por mis maravillosas coanfitrionas, Emily, Wear Mouth y Bailey Pop. Y con eso, nos vemos en el próximo episodio.