Líder 2 veces en el Cuadrante Mágico de Gartner® para SASE Plataforma. Descargue el informe

cerrar
cerrar
Su red del mañana
Su red del mañana
Planifique su camino hacia una red más rápida, más segura y más resistente diseñada para las aplicaciones y los usuarios a los que da soporte.
Descubra Netskope
Ponte manos a la obra con la plataforma Netskope
Esta es su oportunidad de experimentar de primera mano la Netskope One plataforma de una sola nube. Regístrese para participar en laboratorios prácticos a su propio ritmo, únase a nosotros para una demostración mensual del producto en vivo, realice una prueba de manejo gratuita de Netskope Private Accesso únase a nosotros para talleres en vivo dirigidos por instructores.
Líder en SSE. Ahora es líder en SASE de un solo proveedor.
Netskope ha sido reconocido como Líder con mayor visión tanto en plataformas SSE como SASE
2X líder en el Cuadrante Mágico de Gartner® para SASE Plataforma
Una plataforma unificada creada para tu viaje
Protección de la IA generativa para principiantes
Protección de la IA generativa para principiantes
Descubra cómo su organización puede equilibrar el potencial innovador de la IA generativa con sólidas prácticas de seguridad de Datos.
Prevención de pérdida de datos (DLP) moderna para dummies eBook
Prevención moderna de pérdida de datos (DLP) para Dummies
Obtenga consejos y trucos para la transición a una DLP entregada en la nube.
Libro SD-WAN moderno para principiantes de SASE
SD-WAN moderna para maniquíes SASE
Deje de ponerse al día con su arquitectura de red
Entendiendo dónde está el riesgo
Advanced Analytics transforma la forma en que los equipos de operaciones de seguridad aplican los conocimientos basados en datos para implementar una mejor política. Con Advanced Analytics, puede identificar tendencias, concentrarse en las áreas de preocupación y usar los datos para tomar medidas.
Soporte técnico Netskope
Soporte técnico Netskope
Nuestros ingenieros de soporte cualificados ubicados en todo el mundo y con distintos ámbitos de conocimiento sobre seguridad en la nube, redes, virtualización, entrega de contenidos y desarrollo de software, garantizan una asistencia técnica de calidad en todo momento
Vídeo de Netskope
Netskope Training
La formación de Netskope le ayudará a convertirse en un experto en seguridad en la nube. Estamos aquí para ayudarle a proteger su proceso de transformación digital y aprovechar al máximo sus aplicaciones cloud, web y privadas.

Este Informe analiza las principales tendencias de riesgo de ciberseguridad que afectan a la Organización en todo el mundo. Aborda la creciente adopción de herramientas de IA generativa (genIA) y sus desafíos asociados de seguridad de datos. Además, pone de manifiesto el creciente número de violaciones de Datos Política, donde la información sensible se filtra cada vez más a través de Servicios en la nube no autorizados, aplicaciones personales y genAI Plataforma.

Lea de 23 min

Introducción enlace enlace

La edición 2026 del Netskope Cloud and Threat Informe está diseñada para analizar las tendencias más significativas en ciberseguridad del año anterior, ofreciendo un adelanto crítico de los retos y riesgos que definirán el panorama empresarial en 2026. En 2025, la rápida y a menudo sin regulación de la IA generativa transformó fundamentalmente el panorama de la ciberseguridad. Mientras Organización navegaba por las complejidades de la seguridad de Datos en la nube, campañas persistentes de phishing y malware entregado a través de canales confiables, la introducción del uso generalizado de IA —particularmente la "IA sombra" y la emergente "IA agente"— incorporó los riesgos de exposición a Nuevos y complejos datos en el entorno empresarial moderno. Este Informe ofrece una mirada atrás a las tendencias más significativas de 2025 y sirve como un adelanto crítico del panorama de amenazas en evolución para 2026, destacando la naturaleza aditiva de los riesgos que los equipos de seguridad deben afrontar ahora. No solo los equipos de seguridad siguen teniendo que gestionar los riesgos existentes, sino que también deben gestionar los riesgos generados por la genAI.

El riesgo más inmediato específico de genAI es el considerable aumento de la exposición a Datos, con la tasa de violaciones de Datos Política asociadas al uso de aplicaciones genAI duplicándose el año pasado. Esta adopción acelerada suele estar impulsada por la IA en la sombra—el Usar de empleados de servicios no gestionados y cuentas personales—que resulta en la filtración de material altamente sensible, incluyendo código fuente, datos regulados y propiedad intelectual. Simultáneamente, la introducción operativa de sistemas de IA agente , que ejecutan acciones complejas y autónomas a través de recursos internos y externos, crea una vasta superficie de ataque Nuevo que requiere una reevaluación fundamental de los perímetros de seguridad y los modelos de confianza.

Esta combinación de amenazas novedosas impulsadas por IA y preocupaciones de seguridad heredadas define el panorama de amenazas en evolución para 2026. A medida que el comportamiento de los empleados y las herramientas de IA Nuevo evolucionan más rápido que las salvaguardas tradicionales, es esencial reforzar la supervisión, los controles de prevención de pérdidas de datos (DLP) y la postura general de seguridad.

En este Informe enlace enlace

  • SaaS GenAI Usar está aumentando rápidamente: El número de usuarios SaaS usando aplicaciones de IA genAI como ChatGPT y Gemini se ha triplicado, mientras que el número de prompts que la gente envía a estas apps se ha multiplicado por seis en el último año. La IA en la sombra sigue siendo un desafío importante, ya que el 47% de los usuarios de GenAI utiliza aplicaciones personales de IA Usar.
  • Los incidentes de violación de GenAI Datos Política están aumentando rápidamente: Con el aumento de popularidad de las aplicaciones de GenAI, el número de incidentes de usuarios que envían datos sensibles a aplicaciones de IA se ha duplicado en el último año, con una media de la Organización registrando 223 incidentes al mes.
  • Las aplicaciones personales representan un riesgo significativo de amenaza interna: el 60% de los incidentes de amenazas internas involucran instancias de aplicaciones personales en la nube, con datos regulados, propiedad intelectual, código fuente y credenciales enviados frecuentemente a instancias de aplicaciones personales en violación de la Organización Política.
  • El phishing sigue siendo un desafío persistente: A pesar de la disminución interanual en el número de personas que hacen clic en enlaces de phishing, el phishing sigue siendo un problema persistente, con 87 de cada 10.000 usuarios haciendo clic en un enlace cada mes, y Microsoft siendo la marca más imitada.
  • Malware continúa infiltrándose en la Organización a través de canales confiables: Los atacantes siguen teniendo éxito distribuyendo malware a sus víctimas a través de canales confiables, incluyendo registros de software como npm y aplicaciones populares en la nube como GitHub, OneDrive y Google Drive.

 

SaaS Usar de GenAI está aumentando rápidamente enlace enlace

Durante el último año, las empresas han seguido teniendo dificultades con la forma en que los empleados utilizan herramientas de IA generativa. Al igual que en los primeros días de SaaS y la plataforma en la nube, muchos trabajadores empezaron a experimentar con aplicaciones de IA por su cuenta, normalmente iniciando sesión con cuentas personales mucho antes de que los equipos de TI o seguridad desplegaran herramientas de GenAI aprobadas por la empresa entre su plantilla. Este patrón ha dado lugar a lo que ahora comúnmente llama IA sombra, el uso de IA que ocurre fuera de la visibilidad organizacional, Política y control.

Incluso con el rápido impulso hacia los marcos de licencias y gobernanza empresariales, el acceso no regulado sigue siendo generalizado. La monitorización interna en toda la Organización muestra que una parte considerable de los empleados confía en herramientas como ChatGPT, Google Gemini y Copilot Usar Credenciales que no están asociadas a su organización. La buena noticia es que este comportamiento está cambiando en la dirección correcta. El uso de cuentas personales ha disminuido significativamente en el último año, ya que el porcentaje de usuarios de IA que usan aplicaciones personales de IA bajó del 78% al 47%. Paralelamente, el porcentaje de personas gestionadas por Usar Organización ha subido del 25% al 62%, lo que indica que más empresas están estandarizando el acceso a la IA y madurando su supervisión. Sin embargo, hay una creciente superposición aquí de personas que van y vienen entre cuentas personales y empresariales, pasando del 4% al 9% de los usuarios. Esta superposición indica que las empresas aún tienen trabajo por hacer para ofrecer los niveles de comodidad o características que los usuarios desean. El cambio hacia cuentas gestionadas es alentador, pero también pone de manifiesto lo rápido que el comportamiento de los empleados puede superar la gobernanza. Las organizaciones que quieran reducir la exposición necesitarán una Política más clara, una mejor provisión y una visibilidad continua sobre cómo las herramientas de IA están siendo realmente Usar en toda la fuerza laboral.

Gráfico que muestra el uso de GenAI para el desglose de cuentas personales vs Organización

Aunque el cambio de cuentas personales a cuentas de IA gestionadas por Organización es alentador, Organización también se enfrenta a un reto diferente: el número total de personas que utilizan cualquier aplicación de IA SaaS genAI está creciendo exponencialmente, triplicándose en el último año en la media de la Organización. Lo que hace que esta tendencia sea especialmente notable es que está ocurriendo a pesar del aumento de los controles y la gobernanza en torno a las aplicaciones de genAI gestionadas. Esto sugiere que la demanda de los empleados y la dependencia de las capacidades de GenAI siguen acelerándose más rápido de lo que se pueden implementar las barreras de seguridad organizativas.

Gráfico que muestra el porcentaje mediano de usuarios de GenAI por mes, con el área sombreada que muestra los cuarteles 1er y 3

Aunque el número de usuarios se triplicó de media, la cantidad de datos enviados a SaaS aplicaciones genAI se multiplicó por seis, pasando de 3.000 a 18.000 prompts al mes. Mientras tanto, el 25% superior de Organización envía más de 70.000 prompts al mes, y el 1% superior (no en la foto) envía más de 1,4 millones de prompts al mes. En la siguiente sección, exploramos los riesgos que acompañan a este creciente flujo de datos hacia SaaS aplicaciones de genAI.

Prompts de GenAI por mediana de la Organización con el área sombreada que muestra los cuartiles, primero y tercer

Durante el último año, varias aplicaciones de GenAI han surgido como pilares en distintas regiones y sectores. ChatGPT registró una adopción del 77%, seguida por Google Gemini con un 69%. Microsoft 365 Copilot alcanzó un 52% de adopción, mostrando un gran interés en las funciones de IA integradas en entornos laborales cotidianos. Más allá de estas herramientas líderes, Organización también desarrolló un extenso Usar de diversas aplicaciones especializadas y integradas de IA adaptadas a necesidades operativas, analíticas y orientadas a flujos de trabajo.

gráfico que muestra las aplicaciones de GenAI más populares según el porcentaje de Organización Usar de esas aplicaciones

El gráfico siguiente muestra cómo ha cambiado la adopción de las aplicaciones de IA de primera generación en el último año entre regiones y sectores. ChatGPT mantuvo un uso consistentemente alto, con un promedio del 77% durante todo el año. Google Gemini mostró un fuerte impulso ascendente, pasando del 46% al 69%, indicando una tendencia creciente de Organización Usar a múltiples servicios SaaS genAI con funcionalidades superpuestas. Microsoft 365 Copilot alcanzó un 52% de adopción, respaldado por su integración en el ecosistema de productos Microsoft 365. Perplexity también experimentó un crecimiento constante, aumentando del 23% al 35%, probablemente impulsado por la creciente popularidad del navegador Comet y su flujo de trabajo simplificado enfocado en la búsqueda de IA. Cabe destacar que Grok, anteriormente una de las aplicaciones de generación AI más bloqueadas, comenzó a ganar tracción en abril, con un aumento de uso del 28% a medida que más Organización experimentaba con sus capacidades a pesar de las restricciones anteriores.

gráfico mostrando las aplicaciones más populares por porcentaje de Organización

La rápida y descentralizada adopción de herramientas de IA SaaS generativa transformará fundamentalmente el panorama de la seguridad en la nube en 2026. Esperamos ver dos cambios importantes: el crecimiento exponencial continuo del Usar de genAI en las funciones empresariales y el destronar de ChatGPT por el ecosistema Gemini como la plataforma SaaS genAI más popular. Al ritmo actual, Gemini está a punto de superar a ChatGPT en la primera mitad de 2026, reflejando la intensa competencia y la rápida innovación en este sector. La organización tendrá dificultades para mantener la gobernanza de los datos, ya que la información sensible fluye libremente hacia ecosistemas de IA no aprobados, lo que provoca un aumento en la exposición accidental de los datos y en los riesgos de cumplimiento. Los atacantes, por el contrario, explotarán este entorno fragmentado, aprovechando la IA para realizar reconocimientos hipereficientes y crear ataques altamente personalizados dirigidos a modelos propietarios y entrenar a Datos. La necesidad de equilibrar la innovación impulsada por IA con la seguridad hará necesaria una transición hacia la protección de datos política consciente de la IA y una capa centralizada de visibilidad que pueda monitorizar y controlar el Usar de la generación artificial en todas SaaS aplicaciones, haciendo que la aplicación de controles de acceso detallados y conscientes del contexto y de salvaguardas éticos sea una prioridad crítica de seguridad para el próximo año.

 

Los incidentes de violaciones de GenAI Datos Política están aumentando rápidamente enlace enlace

En la sección anterior, destacamos un triplicado aumento en el número de usuarios de genAI y un aumento de seis veces en el número de prompts enviados a las aplicaciones SaaS genAI. La razón principal por la que esta tendencia debería preocupar a los profesionales de la ciberseguridad es que, con el aumento de Usar, se incrementa la exposición no deseada a datos a terceros. Este riesgo tiene su raíz en las formas cotidianas en que estas herramientas se usan con Usar. Ya sea que un usuario pida a un sistema de IA que resuma documentos, conjuntos de datos o código, o se apoya en él para generar texto, medios o fragmentos de software, el flujo de trabajo casi siempre requiere subir datos internos a un servicio externo o, de otro modo, conectar tus almacenes internos de datos a una aplicación de IA externa. Ese requisito por sí solo crea un riesgo considerable de exposición. En esta sección, examinamos los riesgos sensibles de exposición a Datos que acompañan a un aumento tan dramático de GenAI Usar, destacando un doble incremento en las violaciones de Datos Política en el mismo periodo.

En la organización media, tanto el número de usuarios que cometen violaciones de Datos Política como el número de incidentes de Datos Política se han duplicado en el último año, con un promedio del 3% de los usuarios de genAI cometiendo una media de 223 infracciones de Datos Política de GenAI al mes. Mientras tanto, el 25% superior de la organización está registrando una media de 2.100 incidentes al mes en el 13% de su base de usuarios de GenAI, lo que ilustra que la gravedad del problema varía significativamente entre distintas organizaciones.

Esta discrepancia, un doble aumento en las violaciones de Datos Política en contraste con un triplicado aumento en usuarios de genAI y seis veces más en prompts, revela una brecha crítica en la postura de seguridad organizacional. El doble aumento de infracciones representa únicamente los incidentes detectados. El menor aumento de infracciones en relación con el uso pone de manifiesto que muchas Organizaciones aún no han alcanzado la madurez en la gestión de esta actividad; un total de un 50% de la organización carece de protección de datos aplicable Política para aplicaciones de genIA. En estos entornos, los empleados pueden enviar datos sensibles a modelos de IA sin ser detectados, ocultando la verdadera extensión de la fuga de datos. Por lo tanto, el aumento observado por el doble probablemente sea una subestimación del riesgo real de exposición a los datos, lo que sugiere que el problema es peor en la mayoría de las Organizaciones que aún dependen de la confianza del usuario en lugar de la aplicación técnica. Dicha organización debería considerar seriamente fortalecer su gobernanza de Datos e implementar controles aplicables y conscientes del contenido.

gráfico que muestra el porcentaje medio de subidas de aplicaciones sensibles de Datos a aplicaciones genAi, con el área sombreada mostrando los cuartiles, 1º y 3º

Los riesgos de exposición a Datos asociados con la genAI se amplifican por la gran cantidad de herramientas de IA disponibles y la presencia continua de herramientas de IA en la sombra Usar sin aprobación ni supervisión. Como resultado, Organización se encuentra regularmente con varias categorías de datos sensibles transferidos a GenAI Plataforma en violación de la política interna. Los tipos más comunes de datos implicados incluyen:

  • Código fuente, que los usuarios suelen enviar cuando buscan ayuda para depurar, sugerencias de refactorización o generación de código.
  • Datos regulados, como datos personales, financieros o de salud.
  • Propiedad intelectual, incluyendo contratos, documentos internos e investigaciones propietarias que los empleados suben para su análisis o resumen.
  • Contraseñas y claves, que con frecuencia aparecen dentro de ejemplos de código o archivos de configuración.

Las tres categorías de Datos más implicadas en las violaciones de GenAI Datos Política durante el último año fueron código fuente (42%), Datos regulados (32%) y propiedad intelectual (16%). El aumento de la frecuencia de estos incidentes se debe a diversos factores, desde la rápida adopción de herramientas de GenAI y su integración más profunda en el flujo de trabajo diario hasta la falta de conocimiento de la seguridad de datos por parte de los empleados al utilizar herramientas de IA, algo que a menudo hacen sin aprobación o supervisión de TI/seguridad.

La combinación del aumento de violaciones de Datos Política y la alta sensibilidad de los Datos que se veen regularmente comprometidos debería ser una preocupación principal para la organización, que no ha tomado iniciativas para controlar el riesgo de la IA. Sin controles más estrictos, la probabilidad de fugas accidentales, fallos en el cumplimiento y compromisos aguas abajo sigue aumentando mes tras mes.

Gráfico que muestra el tipo de violaciones de Datos Política para aplicaciones genAI

Más allá de las aplicaciones tradicionales de IA, tecnologías emergentes como los navegadores impulsados por IA y las aplicaciones que aprovechan el Protocolo de Contexto de Modelo (MCP)—que rápidamente se convierten en el método preferido para conectar agentes de IA con recursos empresariales—presentan riesgos potenciales adicionales. Estas herramientas pueden ejecutar tareas, acceder a recursos locales o en la nube e interactuar con otro software en nombre del usuario, ampliando efectivamente la superficie de ataque de la Organización. Debido a que los agentes habilitados para MCP pueden conectarse a servicios o herramientas externas, la información sensible podría exponerse inadvertidamente y actores maliciosos podrían explotar estas capacidades para comprometer sistemas o flujos de trabajo. Incluso sin una adopción generalizada, la Organización debería tratar los navegadores de IA y los sistemas integrados en MCP como áreas emergentes de preocupación e implementar la gobernanza, el seguimiento y el uso de Política en consecuencia.

El auge de los navegadores de IA y los servidores MCP en 2026 va a amplificar el ya creciente problema de las filtraciones de datos de GenAI, obligando a más organizaciones a obtener mejor visibilidad y control sobre su Usar de tecnologías de IA. La cuestión central para los líderes de seguridad seguirá siendo cómo proteger el material sensible mientras se permite que la plantilla se beneficie de la generación de IA. Fortalecer la cobertura de los DLP, mejorar la concienciación de los empleados y hacer cumplir una Política clara en la gestión de datos serán áreas de enfoque principales para muchas Organizaciones.

Bloquear aplicaciones de GenAI no deseadas reduce el riesgo de exposición a Datos

La sección anterior se centró en cómo la protección de Datos consciente del contenido de Política puede controlar el flujo de datos sensibles en las aplicaciones de genAI. La suposición subyacente era que esas aplicaciones debían ser seguras para usar en contextos específicos y cumplir algún propósito empresarial legítimo. Cuando una app no es segura para usar en ningún contexto o no cumple ningún propósito empresarial legítimo, la reducción de riesgos se vuelve mucho más sencilla: simplemente bloquea la app por completo. El 90% de la Organización Usar utiliza esta estrategia básica pero efectiva, con la media bloqueando activamente 10 aplicaciones. Aquí, un "bloqueo activo" significa no solo que una Organización tiene una Política para bloquear la app para todos sus usuarios, sino que la Política está impidiendo activamente que los usuarios intenten usar la app (a diferencia de una Política que bloquea algo que nadie intenta usar de todos modos). Aunque la Política de cada Organización difiere, algunas herramientas están restringidas mucho más a menudo que otras, lo que revela dónde los equipos de seguridad ven el mayor potencial de daño. Para muchos entornos, bloquear categorías enteras de servicios de GenAI de alto riesgo puede ofrecer una protección más manejable que evaluar herramientas una por una.

Actualmente, ZeroGPT es la aplicación relacionada con la genAI más bloqueada, con un 45% de la Organización restringiendo el acceso. Muchos equipos de seguridad consideran el servicio de alto riesgo porque las herramientas de detección de IA a menudo requieren que los usuarios envíen texto completo, código fuente u otro material sensible para su análisis.

DeepSeek sigue con un 43% de la Organización bloqueándolo, impulsado por preocupaciones sobre la transparencia limitada, la rápida evolución del comportamiento de las plataformas, la soberanía de los Datos y las incertidumbres asociadas con los ecosistemas emergentes de IA.

Estas tendencias de bloqueo sugieren que la organización no solo está reaccionando a los riesgos que plantean las herramientas individuales, sino que también está madurando sus estrategias de gobernanza. El énfasis se está desplazando hacia evitar que datos sensibles abandonen la Organización en primer lugar, especialmente hacia servicios con garantías de seguridad poco claras o poca divulgación sobre cómo se procesa y almacena el contenido de los usuarios.

""

Block Política para aplicaciones de IA no deseadas ha sido generalmente muy eficaz. Aunque el número de aplicaciones de GenAI Netskope Threat Labs está rastreando se ha multiplicado por cinco, pasando de 317 a más de 1.600 en el último año, el número medio de aplicaciones de IA Usar en una Organización solo aumentó un 33%, pasando de 6 a 8. Solo en el 1% superior de Organización (no en la foto), donde los controles son más laxos, vimos aumentos significativos, de 47 a 89 apps. Estas excepciones de la organización deberían servir de recordatorio para que toda organización haga un inventario de cuántas aplicaciones de generIA son Usar y si todas cumplen un propósito empresarial legítimo. Organizaciones fuera de contexto pueden reducir significativamente sus riesgos simplemente restringiendo el acceso a aplicaciones que no son críticas para el negocio y aplicando protección y coaching de Datos a aplicaciones que sí lo son.

""

En 2026, esperamos que el número de organizaciones excepcionales que permitan usar el Usar de decenas de aplicaciones de genAI disminuya a medida que más organizaciones empiecen a ejercer control sobre sus ecosistemas de genIA, impulsadas por la continua introducción de aplicaciones de Nuevo GenAI y las formas de interactuar con ellas de Nuevo Software, como los navegadores de IA. Tras obtener mejor visibilidad de su Usar genAI, más organizaciones adoptarán un enfoque más proactivo bloqueando todas las aplicaciones de IA excepto aquellas que estén en una lista aprobada.

La adopción de IA agente amplifica la exposición a Datos y el riesgo interno

Junto con los navegadores de IA y los servidores MCP, otra tendencia emergente en el ámbito de la genAI que está impulsando a Organización a evolucionar su postura de seguridad es la IA agente. Los sistemas de IA agente son aquellos que ejecutan acciones complejas y autónomas a través de recursos internos y externos. Ya se está viendo una rápida adopción de IA agente, tanto servicios de Usar SaaS como de Plataforma de IA como Azure OpenAI. Aunque la adopción temprana favoreció SaaS aplicaciones para su comodidad, las soluciones basadas en Plataforma Ahora permiten a las empresas alojar modelos internamente, integrarlos con la infraestructura existente y crear aplicaciones personalizadas o agentes autónomos adaptados a un flujo de trabajo específico.

Actualmente, el 33% de los servicios de Organización Usar OpenAI a través de Azure, el 27% Usar Amazon Bedrock y el 10% aprovechan Google Vertex AI. El cambio hacia estas plataformas de nivel empresarial está impulsado por la creciente disponibilidad de servicios de IA genAI seguros basados en la nube que ofrecen controles de privacidad más sólidos y opciones de integración más profundas. El crecimiento interanual subraya aún más este impulso: tanto el número de usuarios de Bedrock como la cantidad de tráfico de Bedrock se han triplicado, mientras que el número de usuarios de Vertex AI se ha multiplicado por seis con un incremento diez veces mayor en el tráfico. Estas tendencias ponen de manifiesto lo rápido que Organización está escalando su infraestructura de genAI a medida que explora marcos de despliegue más privados, flexibles y conformes.

Aunque Datos fluye cada vez más a través de marcos gestionados, ya sea mediante modelos alojados o agentes de IA autónomos, los riesgos de seguridad siguen siendo altos. El rápido auge de los sistemas agentes introduce vectores de ataque Nuevo, incluyendo el mal uso de herramientas, acciones autónomas inseguras y vías ampliadas para la exfiltración de Datos. Los modelos gestionados reducen algunos riesgos pero no pueden eliminar la exposición por inyección inmediata, acceso excesivo a herramientas con permisos, integraciones inseguras de API o filtraciones de datos no intencionadas entre contextos. A medida que los agentes de IA adquieren la capacidad de ejecutar tareas e interactuar con servicios internos y externos, el impacto potencial de configuraciones erróneas o de flujos de trabajo comprometidos crece significativamente. Las organizaciones que adopten estas plataformas deben combinar la modernización con rigurosos controles de seguridad, monitorización continua y un diseño de privilegios mínimos para garantizar que la escalabilidad no conjuegue a la seguridad.

""

Incluso cuando los agentes y aplicaciones de IA se ejecutan en las instalaciones o en entornos empresariales gestionados, los modelos subyacentes siguen siendo frecuentemente accedidos a través de APIs alojadas en la nube en lugar de a través de interfaces tradicionales de navegador. Mientras que las interacciones basadas en navegador pasan por dominios como chatgpt.com, el flujo de trabajo automatizado, las herramientas internas y los agentes de IA dependen en cambio de Endpoints como api.openai.com para el acceso programático.

Este cambio se está acelerando rápidamente. Hoy en día, el 70% de la Organización se conecta con api.openai.com, reflejando el papel dominante de OpenAI en el uso de generación de IA no basada en navegadores en herramientas internas y sistemas agentes. AssemblyAI le sigue con un 54%, impulsado por sus sólidas capacidades de reconocimiento de voz y inteligencia auditiva. Las APIs de Anthropic son Usar por el 30% de Organización, una tendencia impulsada por la creciente adopción por parte de desarrolladores de modelos Claude para tareas con mucho razonamiento, análisis estructurado y desarrollo de aplicaciones.

A medida que la IA continúa avanzando en la infraestructura operativa, el uso de genAI basado en API probablemente se acelerará, convirtiéndose en uno de los principales canales a través de los cuales la automatización empresarial y los agentes de IA interactúan con grandes modelos de lenguaje.

""

La creciente adopción de IA agente está amplificando no solo los riesgos de exposición a Datos destacados anteriormente en este Informe (porque los agentes pueden enviar Datos a aplicaciones de GenAI a un ritmo mucho más rápido), sino también amplificando los riesgos internos, ya que un agente con acceso a Datos o sistemas sensibles puede causar daños a un ritmo mucho mayor. No solo un insider malicioso podría usar a un agente para causar daño a su Organización, sino que un insider negligente podría configurar mal o provocar de manera imprecisa a un agente. El no determinismo de los sistemas agentes basados en LLMs amplificaba aún más estos riesgos: las alucinaciones en el camino podrían acumularse y causar exposiciones a Datos u otros daños organizativos.

La rápida proliferación de la IA agente, junto con su transición hacia un flujo de trabajo basado en Plataforma y basado en API, establece un mandato de seguridad desafiante para 2026. La organización debe reconocer que, aunque estos sistemas autónomos permiten niveles de eficiencia de Nuevo, también amplían drásticamente la superficie de ataque y aceleran el potencial de exposición de Datos impulsados por insiders. A medida que los agentes ganen mayor acceso y autonomía, el éxito en 2026 dependerá de combinar esta innovación con una rigurosa modernización de la seguridad—concretamente, implementar monitorización continua, principios de privilegio mínimo y controles robustos y conscientes del agente para contener los riesgos amplificados de uso indebido de herramientas y exfiltración no intencionada de datos.

 

El uso de aplicaciones personales en la nube supone un riesgo significativo de amenaza interna enlace enlace

Hasta ahora, este Informe se ha centrado en los riesgos aditivos de ciberseguridad generados por la rápida adopción de la GenAI. Durante el resto de este Informe, vamos a centrar nuestro enfoque en los riesgos heredados relacionados, a los que se han añadido estos riesgos de Nuevo. En esta sección, nos centramos en el Usar de las aplicaciones personales en la nube, que sigue siendo un factor clave del riesgo de exposición de datos internos. Los empleados dependen frecuentemente de cuentas personales para su comodidad, colaboración o acceso a herramientas de IA, y este comportamiento plantea desafíos significativos para la organización que intenta proteger información sensible.

El 60% de los incidentes de amenazas internas involucran instancias de aplicaciones personales en la nube, con Datos regulados, propiedad intelectual, código fuente y Credenciales enviados frecuentemente a aplicaciones personales en violación de la Organización Política. Aunque el tráfico hacia aplicaciones en la nube a través de cuentas personales se ha mantenido prácticamente sin cambios durante el último año, Organización ha mejorado su postura defensiva. El número de Organizaciones que colocan controles en tiempo real sobre los datos enviados a aplicaciones personales aumentó del 70% al 77%, reflejando un enfoque creciente en evitar que datos sensibles se filtren en entornos no gestionados. DLP es una de las herramientas más populares para reducir los riesgos que rodean a la aplicación personal Usar, Usar por el 63% de la organización. Esto contrasta con la genIA, donde solo el 50% de las organizaciones son DLP de Usar para mitigar el riesgo de exposición no deseada a datos.

La organización continúa implementando una serie de medidas para reducir el riesgo de exposición a los datos mediante aplicaciones personales en la nube y genAI. Estas estrategias incluyen bloquear subidas a aplicaciones personales, proporcionar orientación en tiempo real para ayudar a los empleados a gestionar información sensible de forma segura y aprovechar soluciones DLP para prevenir transferencias no autorizadas de datos a servicios no gestionados.

Google Drive es la aplicación más controlada, con un 43% de la organización implementando protecciones en tiempo real, seguida por Gmail con un 31% y OneDrive con un 28%. Curiosamente, el ChatGPT personal ocupa el cuarto lugar con un 28%, a pesar de su adopción generalizada, lo que sugiere que Organización sigue poniéndose al día en la gobernanza de las herramientas de genAI en comparación con la plataforma tradicional en la nube. Estas cifras subrayan los esfuerzos continuos para limitar el movimiento no autorizado de datos y mitigar los riesgos asociados con el Usar de cuentas personales en servicios no gestionados.

""

 

Violaciones de Datos Política en aplicaciones personales

En el último año, el porcentaje de usuarios que suben Datos a aplicaciones personales en la nube ha aumentado un 21%. Hoy en día, el 31% de los usuarios en la organización media suben datos a aplicaciones personales en la nube cada mes. Eso es más del doble del número de usuarios que interactúan con aplicaciones de IA cada mes (15%). Aunque no crece al mismo ritmo que la adopción de la IA, el creciente número de personas que envían Datos a aplicaciones personales en la nube supone un riesgo creciente de seguridad para Datos.

El 63% de Organización Usar DLP para monitorizar y gestionar el movimiento de datos sensibles hacia aplicaciones personales nos ofrece una instantánea de los tipos de datos que los usuarios suben en violación de la Organización Política. Los datos regulados, incluyendo información personal, financiera y sanitaria, representan el 54% de las violaciones de Datos Política vinculadas a aplicaciones personales en la nube. En comparación, la propiedad intelectual representa el 22%, reflejando el riesgo continuo de que la información propietaria abandone los entornos aprobados. El código fuente representa el 15% de las violaciones, y las contraseñas y claves API representan el 8%.

De cara a 2026, los crecientes riesgos derivados del uso de aplicaciones personales en la nube exigen un enfoque estratégico. A medida que el número de personas que envían Datos a aplicaciones personales sigue aumentando, Organización debería asegurarse de no desviar la atención de los riesgos de las aplicaciones personales al tratar con riesgos emergentes de IA. Reforzar la cobertura de DLP, mejorar la educación de los empleados y aplicar rigurosamente una Política clara de gestión de datos para contener la creciente amenaza de exposición tanto accidental como maliciosa a Datos puede ser una estrategia eficaz para reducir el riesgo en ambas áreas.

""

 

El phishing sigue siendo un desafío persistente enlace enlace

Las secciones anteriores se centraron principalmente en los riesgos internos que rodean la adopción de IA y la aplicación personal en la nube Usar en la empresa. En esta sección, centramos nuestro enfoque en adversarios externos y en los riesgos continuos que siguen representando para la Organización en todo el mundo. Además, exploraremos las tendencias de phishing durante el último año. Las campañas de phishing dirigidas a entornos en la nube siguen creciendo en sofisticación. Los atacantes dependen cada vez más de páginas de inicio de sesión falsas, aplicaciones OAuth maliciosas y kits de phishing basados en proxy inverso que roban Credenciales y cookies de sesión en tiempo real. A medida que Organización traslada un flujo de trabajo más crítico a aplicaciones en la nube, la identidad se ha convertido efectivamente en el perímetro de Nuevo, haciendo del robo de Credenciales de aplicaciones en la nube una de las vías más eficientes para el compromiso.

De forma alentadora, la susceptibilidad de los usuarios disminuyó ligeramente en el último año: los clics en enlaces de phishing pasaron de 119 por cada 10.000 usuarios el año pasado a 87 por cada 10.000 usuarios este año, una caída del 27%. Sin embargo, el phishing sigue representando una parte significativa de los intentos iniciales de acceso y sigue siendo difícil de mitigar completamente, como demuestra el considerable número de personas que siguen haciendo clic en enlaces de phishing.

La suplantación de marca sigue siendo también una táctica central. Microsoft es ahora la marca más suplantada, con un 52% de clics en campañas de phishing en la nube, seguida por Hotmail (11%) y DocuSign (10%). Estos señuelos a menudo imitan flujos de autenticación o indicaciones de firma de documentos para obtener Credenciales u obtener permisos sensibles de aplicaciones.

""

Una tendencia creciente es el abuso del phishing por consentimiento OAuth, donde los atacantes engañan a los usuarios para que concedan acceso a aplicaciones maliciosas en la nube, eludiendo por completo las contraseñas y la autenticación multifactor (MFA). Combinado con el auge de los kits de secuestro de sesiones, el phishing está pasando de un simple engaño de Correo electrónico a ataques altamente técnicos de capa de identidad que explotan cómo las aplicaciones modernas en la nube se autentican y mantienen a los usuarios conectados. La organización debe reforzar la monitorización continua de las sesiones, la protección de tokens y la detección de accesos anormales en lugar de depender únicamente de la formación del usuario o filtros de Correo electrónico.

Los objetivos de phishing han cambiado notablemente a medida que los atacantes siguen donde viven los Credenciales de mayor valor. Aunque las aplicaciones en la nube y SaaS siguen siendo objetivos frecuentes, los portales bancarios Ahora representan el 23% de los señuelos de phishing observados, reflejando el enfoque de los atacantes en el fraude financiero y la toma de control de cuentas. Los servicios gubernamentales también han subido drásticamente hasta el 21%, impulsados por atacantes que explotan portales de identificación digital y de servicios ciudadanos para el robo de identidad y el fraude fiscal. Las suites de productividad en la nube, la plataforma de comercio electrónico y las redes sociales siguen completando los principales objetivos, pero los sistemas financieros y gubernamentales son ahora el centro de los esfuerzos de los atacantes.

""

A pesar del reciente descenso en la susceptibilidad de los usuarios, el riesgo subyacente de phishing sigue siendo críticamente alto, como demuestra el volumen continuo de clics. En 2026, esta amenaza se acelerará a medida que los atacantes aprovechen la IA para crear cebos y ataques de capa de identidad más sofisticados e hipereficientes, y el descenso habrá sido efímero. El éxito dependerá de que Organización trate la identidad como el perímetro de Nuevo, continuando asegurando que las estrategias robustas de MFA sean Usar En todas partes, pero también incorporando monitorización continua de sesiones, protección de tokens y detección robusta de accesos anormales.

 

Malware continúa infiltrándose en la Organización a través de canales de confianza enlace enlace

La capa final de nuestro modelo de amenazas acumuladas al entrar en 2026 es la persistencia de adversarios externos en abusar de canales de confianza y explotar flujos de trabajo familiares para engañar a las víctimas y que instalen malware. Los adversarios abusan cada vez más de los confiables Servicios en la nube para distribuir malware, sabiendo que los usuarios se sienten cómodos interactuando con Plataforma familiar. GitHub sigue siendo el servicio más abusado, con un 12% de la Organización detectando la exposición de empleados a malware a través de la aplicación cada mes, seguido de Microsoft OneDrive (10%) y Google Drive (5,8%). Su ubicuidad en la colaboración y el desarrollo de software los convierte en canales ideales para difundir archivos infectados antes de que los proveedores puedan eliminarlos.

Más allá de las amenazas basadas en archivos, el malware entregado por la web sigue creciendo en volumen y sofisticación. Las campañas modernas dependen cada vez más de componentes web dinámicos y engañosos en lugar de descargas tradicionales. Técnicas como las inyecciones basadas en iframes incrustan tramas ocultas que cargan JavaScript malicioso de forma silenciosa, habilitando redirecciones automáticas, ejecución no autorizada de scripts o descargas desde el vehículo. Los atacantes también despliegan uploaders falsos, que imitan el flujo de trabajo legítimo de descarga de archivos para capturar Credenciales o entregar payloads, y páginas CAPTCHA falsas , que utilizan elementos interactivos para convencer a los usuarios de habilitar scripts o saltarse las protecciones del navegador.

Una preocupación creciente es la aparición de malware asistido por LLM, donde los atacantes utilizan grandes modelos de lenguaje para generar código malicioso adaptable o automatizar la ofuscación. Este cambio permite ciclos de desarrollo más rápidos y cargas útiles más personalizables, que son cada vez más difíciles de detectar y bloquear a gran escala.

""

Los ataques a la cadena de suministro de software siguen aumentando a medida que los adversarios se dirigen cada vez más a las relaciones de confianza entre servicios interconectados, SaaS Plataforma y ecosistemas de paquetes. Un ejemplo reciente es una oleada de actividad Shai-Hulud en Nuevo dirigida a la cadena de suministro de npm, donde paquetes maliciosos intentan distribuir código dañino a través del flujo de trabajo de desarrolladores.

Más allá de los ecosistemas de paquetes, las integraciones SaaS a SaaS han surgido como un punto débil crítico, con atacantes que explotan las cadenas de confianza de la API para moverse lateralmente entre aplicaciones en la nube. En un caso de alto perfil, Salesforce detectó llamadas sospechosas a la API originadas desde direcciones IP no autorizadas mediante integraciones con Gainsight, lo que llevó a Salesforce a revocar los tokens de acceso asociados, restringir funcionalidades e iniciar una investigación completa.

Otro incidente notable fue la brecha de Salesloft registrada como UNC6395, un ataque en la cadena de suministro en varias etapas identificado por Mandiant/Google. Los atacantes abusaron de integraciones interapps no supervisadas, específicamente de Salesloft Drift, lo que ilustra cómo los conectores de SaaS comprometidos pueden convertirse en un conducto invisible para el robo de datos.

En conjunto, estos incidentes ponen de relieve una tendencia que está a punto de continuar en 2026: los ataques a la cadena de suministro han pasado de las actualizaciones tradicionales de software a la pila moderna en la nube, dirigiéndose a registros de paquetes, pipelines de automatización y ecosistemas SaaS interconectados donde los controles de seguridad suelen estar fragmentados o ciegos. Para contrarrestar esta tendencia, Organización debe priorizar obtener una visibilidad profunda de estas relaciones de confianza y asegurar que su pila de seguridad pueda defenderse contra la amplia gama de tácticas que los adversarios utilizan para evadir los controles de seguridad y engañar a sus víctimas.

Recomendaciones enlace enlace

El panorama de la ciberseguridad para 2026 está fundamentalmente definido por las capas acumuladas de complejidad impulsadas por la rápida y a menudo sin control de la IA generativa. Esta evolución no ha sustituido amenazas existentes, sino que ha añadido riesgos complejos y complejos a Nuevo sobre ellas. El desafío más inmediato es el considerable aumento de la exposición no deseada a Datos. Simultáneamente, la aparición de sistemas de IA agente, que ejecutan acciones complejas y autónomas sobre recursos internos, crea una vasta superficie de ataque Nuevo que amplifica el riesgo interno y exige una reevaluación de los perímetros de seguridad. Esta combinación de amenazas novedosas impulsadas por IA y preocupaciones heredadas como el phishing persistente y el malware transmitido a través de canales en la nube de confianza significa que los equipos de seguridad deben gestionar ahora un modelo de amenazas aditivas, haciendo que el fortalecimiento de la supervisión, los controles DLP y una postura de seguridad consciente de la IA sea esencial para el próximo año.

Basándonos en las tendencias descubiertas en este Informe, Netskope Threat Labs anima encarecidamente a la organización a revisar su postura general de seguridad:

  • Inspeccione todas las descargas HTTP y HTTPS, incluido todo el tráfico web y en la nube, para evitar que el malware se infiltre en su red. Netskope los clientes pueden configurar sus Netskope One Next Gen Secure Web Gateway con una directiva de protección contra amenazas que se aplica a las descargas de todas las categorías y se aplica a todos los tipos de archivos.
  • Bloquear el acceso a aplicaciones que no sirvan a ningún propósito comercial legítimo o que representen un riesgo desproporcionado para la Organización. Un buen punto de partida es una Política para permitir aplicaciones de buena reputación que actualmente están en Usar mientras se bloquean todas las demás.
  • Usar DLP Política para detectar información potencialmente confidencial, incluido el código fuente, datos regulados, contraseñas y claves, propiedad intelectual y Cifrar Datos, que se envía a instancias personales de aplicaciones, aplicaciones genAI u otras ubicaciones no autorizadas.
  • Usar Remote Browser Isolation (RBI) para brindar protección adicional cuando es necesario visitar sitios web que se encuentran en categorías que pueden presentar un mayor riesgo, como dominios recién observados y recién registrados.

 

Netskope Threat Labs enlace enlace

Con el personal de los principales investigadores de amenazas en la nube y malware del sector, Netskope Threat Labs descubre, analiza y diseña defensas contra las últimas amenazas en la nube que afectan a las empresas. Nuestros investigadores son presentadores y voluntarios habituales en las principales conferencias de seguridad, como DefCon, BlackHat y RSA.

 

Acerca de este Informe enlace enlace

Netskope ofrece protección contra amenazas a millones de usuarios en todo el mundo. La información presentada en este Informe se basa en datos de uso anonimizados recopilados por laNetskope One Plataforma.

Las estadísticas de este Informe se basan en el periodo comprendido entre el 1 de octubre de 2024 y el 31 de octubre de 2025. Las estadísticas reflejan tácticas de atacantes, comportamiento de los usuarios y la Organización Política.

Juega a AI CyberSprint - El juego de carreras online definitivo