Evento de Lançamento: Segurança Inteligente com IA. Controle Total de Dados Inscreva-se

fechar
fechar
Sua Rede do Amanhã
Sua Rede do Amanhã
Planeje seu caminho rumo a uma rede mais rápida, segura e resiliente projetada para os aplicativos e usuários aos quais você oferece suporte.
Experimente a Netskope
Coloque a mão na massa com a plataforma Netskope
Esta é a sua chance de experimentar a plataforma de nuvem única do Netskope One em primeira mão. Inscreva-se em laboratórios práticos e individualizados, junte-se a nós para demonstrações mensais de produtos ao vivo, faça um test drive gratuito do Netskope Private Access ou participe de workshops ao vivo conduzidos por instrutores.
Líder em SSE. Agora é líder em SASE de fornecedor único.
A Netskope é reconhecida como a líder mais avançada em visão para as plataformas SSE e SASE
2X é líder no Quadrante Mágico do Gartner® para plataformas SASE
Uma plataforma unificada criada para sua jornada
Protegendo a IA generativa para leigos
Protegendo a IA generativa para leigos
Saiba como sua organização pode equilibrar o potencial inovador da IA generativa com práticas robustas de segurança de dados.
E-book moderno sobre prevenção de perda de dados (DLP) para leigos
Prevenção Contra Perda de Dados (DLP) Moderna para Leigos
Obtenha dicas e truques para fazer a transição para um DLP fornecido na nuvem.
Livro SD-WAN moderno para SASE Dummies
SD-WAN moderno para leigos em SASE
Pare de brincar com sua arquitetura de rede
Compreendendo onde estão os riscos
O Advanced Analytics transforma a maneira como as equipes de operações de segurança aplicam insights orientados por dados para implementar políticas melhores. Com o Advanced Analytics, o senhor pode identificar tendências, concentrar-se em áreas de preocupação e usar os dados para tomar medidas.
Suporte Técnico Netskope
Suporte Técnico Netskope
Nossos engenheiros de suporte qualificados estão localizados em todo o mundo e têm diversas experiências em segurança de nuvem, rede, virtualização, fornecimento de conteúdo e desenvolvimento de software, garantindo assistência técnica de qualidade e em tempo hábil.
Vídeo da Netskope
Treinamento Netskope
Os treinamentos da Netskope vão ajudar você a ser um especialista em segurança na nuvem. Conte conosco para ajudá-lo a proteger a sua jornada de transformação digital e aproveitar ao máximo as suas aplicações na nuvem, na web e privadas.

Este relatório analisa as principais tendências de risco de cibersegurança que afetam organizações em todo o mundo. Aborda a crescente adoção de ferramentas de IA generativa (genAI) e os desafios de segurança de dados associados a elas. Além disso, destaca o número crescente de violações das políticas de dados, em que informações sensíveis estão sendo cada vez mais vazadas por meio de serviços de nuvem não autorizados, aplicativos pessoais e plataformas de IA genAI.

23 minutos de leitura

Introdução link link

A edição de 2026 do Relatório de Nuvem e Ameaças da Netskope foi elaborada para analisar as tendências mais significativas de cibersegurança do ano anterior, oferecendo uma prévia crítica dos desafios e riscos que definirão o cenário empresarial em 2026. Em 2025, a adoção rápida e frequentemente descontrolada da IA generativa remodelou fundamentalmente o cenário da segurança cibernética. À medida que as organizações lidavam com as complexidades da segurança de dados na nuvem, campanhas persistentes de phishing e malware distribuído por meio de canais confiáveis, a introdução do uso generalizado de IA — particularmente a "IA paralela" e a emergente "IA agente" — adicionou New e complexos riscos de exposição de dados ao ambiente empresarial moderno. Este relatório analisa as tendências mais significativas de 2025 e serve como uma prévia crítica do cenário de ameaças em evolução para 2026, destacando a natureza cumulativa dos riscos que as equipes de segurança agora precisam enfrentar. As equipes de segurança não só precisam continuar gerenciando os riscos existentes, como agora também precisam gerenciar os riscos criados pela IA de geração de inteligência artificial (genAI).

O risco mais imediato específico da IA de geração de dados é o aumento substancial na exposição de dados, com a taxa de violações das políticas de dados associadas ao uso de aplicativos de IA de geração de dados dobrando no ano passado. Essa adoção acelerada é frequentemente impulsionada pela IA paralela— o uso, por parte dos funcionários, de serviços não gerenciados e contas pessoais — resultando no vazamento de material altamente sensível, incluindo código-fonte, dados regulamentados e propriedade intelectual. Simultaneamente, a introdução operacional de sistemas de IA com agentes , que executam ações complexas e autônomas em recursos internos e externos, cria uma vasta e New superfície de ataque que exige uma reavaliação fundamental dos perímetros de segurança e dos modelos de confiança.

Essa combinação de novas ameaças impulsionadas por IA e preocupações de segurança legadas define o cenário de ameaças em evolução para 2026. À medida que o comportamento dos funcionários e New ferramentas de IA evoluem mais rapidamente do que as medidas de segurança tradicionais, o reforço da supervisão, dos controles de prevenção de perda de dados (DLP) e da postura geral de segurança torna-se essencial.

Neste relatório link link

  • O uso de SaaS com IA integrada está aumentando rapidamente: o número de pessoas que usam aplicativos de SaaS com IA integrada, como ChatGPT e Gemini, triplicou, enquanto o número de solicitações enviadas aos aplicativos aumentou seis vezes no último ano. A IA paralela continua sendo um desafio significativo, com 47% dos usuários do genAI utilizando aplicativos de IA pessoais.
  • Os incidentes de violação da política de dados da GenAI estão aumentando rapidamente: com o aumento da popularidade dos aplicativos GenAI, o número de incidentes de usuários enviando dados confidenciais para aplicativos de IA dobrou no último ano, com uma média de 223 incidentes por mês por organização.
  • Aplicativos pessoais representam um risco significativo de ameaças internas: 60% dos incidentes de ameaças internas envolvem instâncias de aplicativos pessoais na nuvem, com dados regulamentados, propriedade intelectual, código-fonte e credenciais sendo frequentemente enviados para instâncias de aplicativos pessoais em violação das políticas da organização.
  • O phishing continua sendo um desafio persistente: apesar da queda anual no número de pessoas que clicam em links de phishing, o problema persiste, com 87 em cada 10.000 usuários clicando em um link de phishing por mês, sendo a Microsoft a marca mais imitada.
  • O malware continua a infiltrar-se nas organizações através de canais considerados confiáveis: Os atacantes continuam a ter sucesso na distribuição de malware às suas vítimas através de canais confiáveis, incluindo registos de software como o npm e aplicações populares na nuvem como o GitHub, o OneDrive e o Google Drive.

 

O uso de genAI em SaaS está aumentando rapidamente. link link

Ao longo do último ano, as empresas continuaram a ter dificuldades em relação à forma como os funcionários utilizam as ferramentas de IA generativa. Assim como nos primórdios do SaaS e das plataformas em nuvem, muitos trabalhadores começaram a experimentar aplicativos de IA por conta própria, geralmente fazendo login com contas pessoais, muito antes de as equipes de TI ou segurança implantarem ferramentas de IA aprovadas pela empresa entre seus funcionários. Esse padrão deu origem ao que hoje é comumente chamado de IA paralela, o uso de IA que ocorre fora da visibilidade, das políticas e do controle organizacional.

Mesmo com o rápido avanço em direção a licenças empresariais e estruturas de governança, o acesso não regulamentado ainda é generalizado. O monitoramento interno em diversas organizações mostra que uma parcela substancial de funcionários está utilizando ferramentas como ChatGPT, Google Gemini e Copilot com credenciais não associadas à sua organização. A boa notícia é que esse comportamento está mudando na direção certa. O uso de contas pessoais caiu significativamente no último ano, com a porcentagem de usuários de IA que utilizam aplicativos pessoais de IA diminuindo de 78% para 47%. Em paralelo, a porcentagem de pessoas que usam contas gerenciadas pela organização subiu de 25% para 62%, sinalizando que mais empresas estão padronizando o acesso à IA e aprimorando sua supervisão. No entanto, há uma sobreposição crescente de pessoas que alternam entre contas pessoais e empresariais, passando de 4% para 9% dos usuários. Essa sobreposição indica que as empresas ainda têm trabalho a fazer para fornecer os níveis de conveniência ou recursos que os usuários desejam. A mudança para contas gerenciadas é encorajadora, mas também destaca a rapidez com que o comportamento dos funcionários pode superar a governança. Organizações que desejam reduzir a exposição precisarão de políticas mais claras, melhor provisionamento e visibilidade contínua de como as ferramentas de IA estão sendo realmente usadas em toda a força de trabalho.

Gráfico mostrando a utilização do genAI por conta pessoal versus conta organizacional.

Embora a transição de contas pessoais para contas de IA gerenciadas pela organização seja encorajadora, as organizações também enfrentam um desafio diferente: o número total de pessoas que usam aplicativos de IA de software como serviço (SaaS) está crescendo exponencialmente, triplicando no último ano na organização média. O que torna essa tendência particularmente notável é o fato de estar ocorrendo apesar do aumento dos controles e da governança em torno dos aplicativos de IA gerenciada. Isso sugere que a demanda dos funcionários e a dependência das capacidades da IA de geração de recursos continuam a crescer mais rapidamente do que as medidas de proteção organizacionais podem ser implementadas.

Gráfico mostrando a porcentagem mediana de usuários do genAI por mês, com a área sombreada indicando o 1º e o 3º quartis.

Embora o número de usuários tenha triplicado em média, a quantidade de dados enviados para os aplicativos SaaS da genAI cresceu seis vezes, de 3.000 para 18.000 solicitações por mês. Enquanto isso, os 25% melhores das organizações enviam mais de 70.000 lembretes por mês, e o 1% melhor (não mostrado na imagem) envia mais de 1,4 milhão de lembretes por mês. Na próxima seção, exploraremos os riscos que acompanham esse fluxo crescente de dados para aplicativos SaaS de IA de geração de dados.

O GenAI apresenta a mediana por organização, com a área sombreada mostrando o 1º e o 3º quartis.

Ao longo do último ano, diversas aplicações de IA de geração de leads emergiram como pilares em várias regiões e setores. O ChatGPT registrou uma taxa de adoção de 77%, seguido pelo Google Gemini com 69%. O Microsoft 365 Copilot alcançou uma taxa de adoção de 52%, demonstrando um forte interesse em recursos de IA integrados aos ambientes de trabalho do dia a dia. Além dessas ferramentas de ponta, as organizações também fizeram uso extensivo de vários aplicativos de IA especializados e integrados, adaptados às necessidades operacionais, analíticas e de fluxo de trabalho.

Gráfico mostrando os aplicativos genAI mais populares com base na porcentagem de organizações que utilizam esses aplicativos.

O gráfico abaixo mostra como a adoção das principais aplicações de IA de última geração mudou ao longo do último ano em diferentes regiões e setores. O ChatGPT manteve uma taxa de utilização consistentemente alta, com uma média de 77% ao longo do ano. O Google Gemini demonstrou um forte impulso ascendente, subindo de 46% para 69%, indicando uma tendência crescente de organizações que utilizam múltiplos serviços de IA genéricos (genAI) em SaaS com funcionalidades sobrepostas. O Microsoft 365 Copilot alcançou uma taxa de adoção de 52%, impulsionada pela sua integração ao ecossistema de produtos do Microsoft 365. A Perplexity também apresentou um crescimento constante, aumentando de 23% para 35%, provavelmente impulsionada pela crescente popularidade do navegador Comet e seu fluxo de trabalho de IA otimizado e focado em buscas. Notavelmente, o Grok, anteriormente um dos aplicativos de IA geral mais frequentemente bloqueados, começou a ganhar força em abril, com o uso subindo para 28% à medida que mais organizações experimentavam suas funcionalidades, apesar das restrições anteriores.

Gráfico mostrando os aplicativos mais populares por porcentagem de organizações

A adoção rápida e descentralizada de ferramentas generativas de IA em SaaS irá remodelar fundamentalmente o cenário da segurança na nuvem em 2026. Esperamos presenciar duas grandes mudanças: o crescimento exponencial contínuo do uso de IA de geração de leads em todas as funções de negócios e a destituição do ChatGPT pelo ecossistema Gemini como a plataforma SaaS de IA de geração de leads mais popular. No ritmo atual, a Gemini está prestes a ultrapassar a ChatGPT no primeiro semestre de 2026, refletindo a intensa competição e a rápida inovação nesse setor. As organizações terão dificuldades em manter a governança de dados à medida que informações sensíveis fluem livremente para ecossistemas de IA não aprovados, levando a um aumento na exposição acidental de dados e nos riscos de conformidade. Os atacantes, por outro lado, explorarão esse ambiente fragmentado, utilizando IA para realizar reconhecimento hiper-eficiente e criar ataques altamente personalizados direcionados a modelos proprietários e dados de treinamento. A necessidade de equilibrar a inovação impulsionada por IA com a segurança exigirá uma mudança para políticas de proteção de dados que levem em consideração a IA e uma camada de visibilidade centralizada que possa monitorar e controlar o uso de IA de última geração em todos os aplicativos SaaS, tornando a aplicação de controles de acesso refinados e sensíveis ao contexto, bem como diretrizes éticas, uma prioridade crítica de segurança para o próximo ano.

 

Os incidentes de violação da política de dados da GenAI estão aumentando rapidamente. link link

Na seção anterior, destacamos um aumento de três vezes no número de usuários do genAI e um aumento de seis vezes no número de solicitações enviadas para aplicativos SaaS do genAI. A principal razão pela qual essa tendência deve preocupar os profissionais de segurança cibernética é que, com o aumento do uso, aumenta também a exposição indesejada de dados a terceiros. Esse risco está enraizado na forma como essas ferramentas são usadas no dia a dia. Quer o usuário solicite a um sistema de IA que resuma documentos, conjuntos de dados ou código, quer dependa dele para gerar texto, mídia ou trechos de software, o fluxo de trabalho quase sempre exige o carregamento de dados internos para um serviço externo ou a conexão de seus armazenamentos de dados internos a um aplicativo de IA externo. Só esse requisito já cria um risco de exposição substancial. Nesta seção, examinamos os riscos de exposição de dados sensíveis que acompanham um aumento tão drástico no uso de IA genIA, destacando uma duplicação nas violações de políticas de dados durante o mesmo período.

Em média, nas organizações, tanto o número de usuários que cometem violações das políticas de dados quanto o número de incidentes relacionados a essas políticas dobraram no último ano, com uma média de 3% dos usuários do genAI cometendo uma média de 223 violações das políticas de dados do genAI por mês. Entretanto, as 25% principais organizações registram uma média de 2.100 incidentes por mês em 13% de sua base de usuários do genAI, o que demonstra que a gravidade do problema varia significativamente entre as diferentes organizações.

Essa discrepância, um aumento de duas vezes nas violações da política de dados em contraste com um aumento de três vezes no número de usuários de IA genAI e um aumento de seis vezes nos avisos, revela uma lacuna crítica na postura de segurança organizacional. O aumento de duas vezes no número de violações representa apenas os incidentes detectados. O menor aumento nas violações em relação ao uso evidencia que muitas organizações ainda não atingiram a maturidade necessária para governar essa atividade; 50% das organizações não possuem políticas de proteção de dados aplicáveis para aplicativos de IA geral. Nesses ambientes, os funcionários podem estar enviando dados confidenciais para modelos de IA sem serem detectados, mascarando a verdadeira extensão do vazamento de dados. Portanto, o aumento de duas vezes observado provavelmente subestima o risco real de exposição de dados, sugerindo que o problema é pior na maioria das organizações que ainda dependem da confiança do usuário em vez da aplicação de medidas técnicas. Essas organizações devem considerar seriamente o fortalecimento de sua governança de dados e a implementação de controles aplicáveis e sensíveis ao conteúdo.

Gráfico mostrando a porcentagem mediana da média de uploads de dados sensíveis para os aplicativos genAi, com a área sombreada indicando o 1º e o 3º quartis.

Os riscos de exposição de dados associados à IA de geração de dados são amplificados pelo grande número de ferramentas de IA disponíveis e pela presença contínua de ferramentas de IA paralelas, utilizadas sem aprovação ou supervisão. Como resultado, as organizações frequentemente se deparam com diversas categorias de dados sensíveis sendo transferidas para plataformas da genAI em violação às políticas internas. Os tipos de dados mais comuns envolvidos incluem:

  • Código-fonte, que os usuários costumam enviar quando buscam ajuda para depuração, sugestões de refatoração ou geração de código.
  • Dados regulamentados, como dados pessoais, financeiros ou de saúde.
  • Propriedade intelectual, incluindo contratos, documentos internos e pesquisas proprietárias que os funcionários carregam para análise ou resumo.
  • Senhas e chaves, que aparecem frequentemente em exemplos de código ou arquivos de configuração.

As três categorias de dados mais envolvidas em violações da política de dados da genAI no último ano foram código-fonte (42%), dados regulamentados (32%) e propriedade intelectual (16%). O aumento na frequência desses incidentes é impulsionado por uma variedade de fatores, desde a rápida adoção de ferramentas de IA de última geração e sua integração mais profunda nos fluxos de trabalho diários até a falta de conscientização dos funcionários sobre segurança de dados ao usar ferramentas de IA, o que muitas vezes fazem sem a aprovação ou supervisão de TI/segurança.

A combinação do aumento nas violações das políticas de dados e a alta sensibilidade dos dados que são regularmente comprometidos deve ser uma preocupação primordial para as organizações que não tomaram iniciativas para controlar os riscos da IA. Sem controles mais rigorosos, a probabilidade de vazamentos acidentais, falhas de conformidade e comprometimento da cadeia de suprimentos continua a aumentar mês após mês.

Gráfico mostrando o tipo de violações da política de dados para aplicativos genAI

Além das aplicações tradicionais de IA de geração de dados, tecnologias emergentes como navegadores com inteligência artificial e aplicativos que utilizam o Protocolo de Contexto de Modelo (MCP) — que está se tornando rapidamente o método preferido para conectar agentes de IA a recursos corporativos — apresentam riscos potenciais adicionais. Essas ferramentas podem executar tarefas, acessar recursos locais ou na nuvem e interagir com outros softwares em nome do usuário, expandindo efetivamente a superfície de ataque da organização. Como os agentes habilitados para MCP podem se conectar a serviços ou ferramentas externas, informações confidenciais podem ser expostas inadvertidamente, e agentes maliciosos podem explorar essas capacidades para comprometer sistemas ou fluxos de trabalho. Mesmo sem uma adoção generalizada, as organizações devem tratar os navegadores de IA e os sistemas integrados ao MCP como áreas emergentes de preocupação e implementar políticas de governança, monitoramento e uso de acordo.

O surgimento de navegadores de IA e servidores MCP em 2026 irá amplificar o problema já crescente de vazamentos de dados de IA de nova geração, obrigando mais organizações a obterem maior visibilidade e controle sobre o uso de tecnologias de IA. A questão central para os líderes de segurança continuará sendo como proteger informações sensíveis, permitindo que a força de trabalho se beneficie da IA de geração de recursos. O fortalecimento da cobertura de DLP (Prevenção contra Perda de Dados), o aumento da conscientização dos funcionários e a aplicação de políticas claras de tratamento de dados serão as principais áreas de foco para muitas organizações.

Bloquear aplicativos genAI indesejados reduz o risco de exposição de dados.

A seção anterior focou em como as políticas de proteção de dados sensíveis ao conteúdo podem controlar o fluxo de dados confidenciais em aplicativos de IA genAI. A premissa subjacente era que esses aplicativos deveriam ser seguros para uso em contextos específicos e servir a algum propósito comercial legítimo. Quando um aplicativo não é seguro para uso em nenhum contexto ou não serve a nenhum propósito comercial legítimo, a redução de riscos torna-se muito mais fácil: basta bloquear o aplicativo completamente. 90% das organizações utilizam essa estratégia básica, porém eficaz, sendo que a média de aplicativos bloqueados por organização é de 10. Aqui, um "bloqueio ativo" significa não apenas que uma organização tem uma política para bloquear o aplicativo para todos os seus usuários, mas que essa política está ativamente impedindo os usuários de tentar usar o aplicativo (em oposição a uma política que bloqueia algo que ninguém está tentando usar). Embora as políticas de cada organização sejam diferentes, algumas ferramentas são restringidas com muito mais frequência do que outras, revelando onde as equipes de segurança veem o maior potencial de dano. Em muitos ambientes, bloquear categorias inteiras de serviços de IA de alto risco pode oferecer uma proteção mais gerenciável do que avaliar as ferramentas uma a uma.

Atualmente, o ZeroGPT é o aplicativo relacionado à inteligência artificial geral (genAI) mais frequentemente bloqueado, com 45% das organizações restringindo o acesso. Muitas equipes de segurança consideram o serviço de alto risco porque as ferramentas de detecção por IA geralmente exigem que os usuários enviem o texto completo, o código-fonte ou outros materiais confidenciais para análise.

O DeepSeek vem a seguir, com 43% das organizações bloqueando-o, devido a preocupações com a transparência limitada, o comportamento da plataforma em rápida evolução, a soberania dos dados e as incertezas associadas aos ecossistemas de IA emergentes.

Essas tendências de bloqueio sugerem que as organizações não estão apenas reagindo aos riscos representados por ferramentas individuais, mas também aprimorando suas estratégias de governança. A ênfase está mudando para a prevenção da saída de dados sensíveis da organização, especialmente para serviços com garantias de segurança pouco claras ou divulgação insuficiente sobre como o conteúdo do usuário é processado e armazenado.

""

As políticas de bloqueio para aplicativos de IA indesejados têm sido, em geral, muito eficazes. Embora o número de aplicativos de IA de última geração (genAI) que o Netskope Threat Labs está monitorando tenha quintuplicado, passando de 317 para mais de 1.600 no último ano, o número médio de aplicativos de IA usados em uma organização aumentou apenas 33%, de 6 para 8. Somente no 1% das organizações de maior porte (não mostradas na imagem), onde os controles são mais frouxos, observamos aumentos significativos, de 47 para 89 aplicativos. Essas organizações atípicas devem servir como um lembrete para que todas as organizações façam um levantamento de quantos aplicativos de IA de geração de dados estão utilizando e se todos eles atendem a um propósito comercial legítimo. Organizações atípicas podem reduzir significativamente seus riscos simplesmente restringindo o acesso a aplicativos que não são essenciais para os negócios e aplicando políticas de proteção de dados e treinamento aos aplicativos que são.

""

Em 2026, esperamos que o número de organizações atípicas que permitem o uso de dezenas de aplicativos de IA de última geração diminua, à medida que mais organizações comecem a exercer controle sobre seus ecossistemas de IA de última geração, impulsionadas pela contínua introdução de New aplicativos de IA de última geração e New maneiras de interagir com esses aplicativos, como navegadores de IA. Após obterem maior visibilidade sobre o uso de IA de geração de dados, mais organizações adotarão uma abordagem mais proativa, bloqueando todos os aplicativos de IA, exceto aqueles que constam em uma lista aprovada.

A adoção de IA ativa amplifica a exposição de dados e o risco interno.

Juntamente com navegadores de IA e servidores MCP, outra tendência emergente no espaço da IA de geração que está compelindo as organizações a evoluir sua postura de segurança é a IA agente. Sistemas de IA agéticos são aqueles que executam ações complexas e autônomas utilizando recursos internos e externos. Organizações já estão testemunhando uma rápida adoção de IA agente, tanto por meio de serviços SaaS quanto de plataformas de IA como o Azure OpenAI. Embora a adoção inicial tenha favorecido os aplicativos SaaS devido à sua conveniência, as soluções baseadas em plataforma agora permitem que as empresas hospedem modelos internamente, os integrem à infraestrutura existente e criem aplicativos personalizados ou agentes autônomos adaptados a fluxos de trabalho específicos.

Atualmente, 33% das organizações usam os serviços da OpenAI via Azure, 27% usam o Amazon Bedrock e 10% utilizam o Google Vertex AI. A transição para essas plataformas de nível empresarial é impulsionada pela crescente disponibilidade de serviços de IA de geração própria (genAI) seguros e baseados em nuvem, que oferecem controles de privacidade mais robustos e opções de integração mais profundas. O crescimento ano após ano reforça ainda mais esse impulso: o número de usuários do Bedrock e o volume de tráfego do Bedrock triplicaram, enquanto o número de usuários do Vertex AI aumentou seis vezes, com um aumento de dez vezes no tráfego. Essas tendências destacam a rapidez com que as organizações estão expandindo sua infraestrutura de IA de geração de dados, à medida que exploram estruturas de implantação mais privadas, flexíveis e em conformidade com as regulamentações.

Mesmo com o fluxo crescente de dados por meio de estruturas gerenciadas, seja através de modelos hospedados ou agentes de IA autônomos, os riscos de segurança permanecem elevados. A ascensão meteórica dos sistemas autônomos introduz New vetores de ataque, incluindo o uso indevido de ferramentas, ações autônomas inseguras e vias expandidas para a exfiltração de dados. Os modelos gerenciados reduzem alguns riscos, mas não eliminam a exposição a injeções imediatas, acesso a ferramentas com permissões excessivas, integrações de API inseguras ou vazamento acidental de dados entre contextos. À medida que os agentes de IA adquirem a capacidade de executar tarefas e interagir com serviços internos e externos, o impacto potencial de configurações incorretas ou fluxos de trabalho comprometidos aumenta significativamente. As organizações que adotam essas plataformas devem combinar a modernização com controles de segurança rigorosos, monitoramento contínuo e um design de privilégio mínimo para garantir que a escalabilidade não comprometa a segurança.

""

Mesmo quando agentes e aplicativos de IA são executados localmente ou em ambientes corporativos gerenciados, os modelos subjacentes ainda são acessados com frequência por meio de APIs hospedadas na nuvem, em vez de interfaces de navegador tradicionais. Embora as interações baseadas em navegador sejam roteadas por meio de domínios como chatgpt.com, Fluxos de trabalho automatizados, ferramentas internas e agentes de IA dependem, em vez disso, de endpoints como api.openai.com para acesso programático.

Essa mudança está se acelerando rapidamente. Hoje, 70% das organizações se conectam à api.openai.com. Refletindo o papel dominante da OpenAI no uso de IA geral fora do contexto de navegadores, abrangendo ferramentas internas e sistemas de agentes. A AssemblyAI vem em seguida, com 54%, impulsionada por suas fortes capacidades de conversão de fala em texto e inteligência de áudio. As APIs da Anthropic são utilizadas por 30% das organizações, uma tendência impulsionada pela crescente adoção dos modelos Claude por desenvolvedores para tarefas que exigem raciocínio complexo, análise estruturada e desenvolvimento de aplicações.

À medida que a IA continua a se integrar cada vez mais à infraestrutura operacional, o uso de IA de geração de dados (genAI) baseada em API provavelmente se acelerará, tornando-se um dos principais canais pelos quais a automação empresarial e os agentes de IA interagem com grandes modelos de linguagem.

""

A crescente adoção de IA agente está amplificando não apenas os riscos de exposição de dados destacados anteriormente neste relatório (porque os agentes podem enviar dados para aplicativos de IA geral em uma velocidade muito maior), mas também os riscos internos, já que um agente com acesso a dados ou sistemas sensíveis pode causar danos em uma taxa muito maior. Um funcionário mal-intencionado pode não apenas usar um agente para prejudicar a organização, mas um funcionário negligente pode configurá-lo incorretamente ou acioná-lo de forma imprecisa. O não determinismo dos sistemas de agentes baseados em LLMs amplificou ainda mais esses riscos – alucinações ao longo do processo podem se acumular e causar exposição de dados ou outros danos organizacionais.

A rápida proliferação da IA ativa, juntamente com sua mudança para fluxos de trabalho baseados em plataformas e orientados por API, estabelece um desafio complexo em termos de segurança para 2026. As organizações devem reconhecer que, embora esses sistemas autônomos possibilitem New níveis de eficiência, eles também expandem drasticamente a superfície de ataque e aceleram o potencial de exposição de dados por agentes internos. À medida que os agentes obtêm maior acesso e autonomia, o sucesso em 2026 dependerá da combinação dessa inovação com uma modernização de segurança rigorosa — especificamente, a implementação de monitoramento contínuo, princípios de privilégio mínimo e controles robustos e adaptados ao agente para conter os riscos ampliados de uso indevido de ferramentas e exfiltração não intencional de dados.

 

O uso de aplicativos de nuvem pessoal representa um risco significativo de ameaça interna. link link

Até agora, este relatório se concentrou nos riscos adicionais de segurança cibernética criados pela rápida adoção da IA de geração de nova geração. Na sequência deste relatório, vamos concentrar-nos nos riscos legados relacionados, aos quais se somaram estes New riscos. Nesta seção, focamos no uso de aplicativos pessoais em nuvem, que continua sendo um dos principais fatores de risco de exposição de dados internos. Os funcionários frequentemente utilizam contas pessoais por conveniência, para colaboração ou para acesso a ferramentas de IA, e esse comportamento representa desafios significativos para as organizações que tentam proteger informações confidenciais.

60% dos incidentes de ameaças internas envolvem instâncias de aplicativos pessoais na nuvem, com dados regulamentados, propriedade intelectual, código-fonte e credenciais sendo frequentemente enviados para aplicativos pessoais em violação das políticas da organização. Embora o tráfego para aplicativos em nuvem por meio de contas pessoais tenha permanecido praticamente inalterado no último ano, as organizações aprimoraram sua postura defensiva. O número de organizações que implementam controles em tempo real sobre os dados enviados para aplicativos pessoais aumentou de 70% para 77%, refletindo um foco crescente na prevenção do vazamento de dados confidenciais em ambientes não gerenciados. O DLP está entre as ferramentas mais populares para reduzir os riscos associados ao uso de aplicativos pessoais, sendo utilizado por 63% das organizações. Isso contrasta com a IA geral, onde apenas 50% das organizações utilizam DLP para mitigar o risco de exposição indesejada de dados.

As organizações continuam a implementar uma série de medidas para reduzir o risco de exposição de dados por meio de aplicativos de nuvem pessoal e IA de geração de dados. Essas estratégias incluem o bloqueio de uploads para aplicativos pessoais, o fornecimento de orientação em tempo real para ajudar os funcionários a lidar com informações confidenciais de forma segura e o uso de soluções DLP para impedir transferências de dados não autorizadas para serviços não gerenciados.

O Google Drive é o aplicativo mais frequentemente controlado, com 43% das organizações implementando proteções em tempo real, seguido pelo Gmail com 31% e pelo OneDrive com 28%. Curiosamente, o ChatGPT pessoal ocupa o quarto lugar, com 28%, apesar da ampla adoção, o que sugere que as organizações ainda estão se adaptando à governança de ferramentas de IA de última geração em comparação com as plataformas de nuvem tradicionais. Esses números reforçam os esforços contínuos para limitar a movimentação não autorizada de dados e mitigar os riscos associados ao uso de contas pessoais em serviços não gerenciados.

""

 

Violações de política de dados em aplicativos pessoais

Ao longo do último ano, a percentagem de utilizadores que carregaram dados para aplicações de nuvem pessoal aumentou 21%. Atualmente, 31% dos usuários em uma organização média carregam dados para aplicativos pessoais na nuvem todos os meses. Isso representa mais que o dobro do número de usuários que interagem com aplicativos de IA mensalmente (15%). Embora não esteja crescendo no mesmo ritmo que a adoção da IA, o número cada vez maior de pessoas que enviam dados para aplicativos de nuvem pessoal representa um risco crescente para a segurança dos dados.

O fato de 63% das organizações utilizarem DLP para monitorar e gerenciar a movimentação de dados sensíveis em aplicativos pessoais nos fornece um panorama dos tipos de dados que os usuários estão carregando em violação às políticas da organização. Dados regulamentados, incluindo informações pessoais, financeiras e de saúde, representam 54% das violações de políticas de dados relacionadas a aplicativos de nuvem pessoal. Em comparação, a propriedade intelectual representa 22%, refletindo o risco contínuo de informações proprietárias saírem de ambientes aprovados. O código-fonte representa 15% das violações, enquanto senhas e chaves de API correspondem a 8%.

Olhando para o futuro, em 2026, os riscos crescentes decorrentes do uso de aplicativos pessoais na nuvem exigem um foco estratégico. Com o aumento contínuo do número de pessoas que enviam dados para aplicativos pessoais, as organizações devem garantir que não desviem o foco dos riscos associados a esses aplicativos ao lidar com os riscos emergentes da IA. Fortalecer a cobertura de DLP (Prevenção contra Perda de Dados), aprimorar o treinamento dos funcionários e aplicar rigorosamente políticas claras de tratamento de dados para conter a crescente ameaça de exposição acidental e maliciosa de dados pode ser uma estratégia eficaz para reduzir o risco em ambas as áreas.

""

 

O phishing continua sendo um desafio persistente. link link

As seções anteriores focaram principalmente nos riscos internos relacionados à adoção de IA e ao uso de aplicativos de nuvem pessoal nas empresas. Nesta seção, direcionamos nosso foco para os adversários externos e os riscos contínuos que eles representam para as organizações em todo o mundo. Além disso, exploraremos as tendências de phishing ao longo do último ano. As campanhas de phishing direcionadas a ambientes em nuvem continuam a se tornar cada vez mais sofisticadas. Os atacantes dependem cada vez mais de páginas de login falsificadas, aplicativos OAuth maliciosos e kits de phishing baseados em proxy reverso que roubam credenciais e cookies de sessão em tempo real. À medida que as organizações transferem fluxos de trabalho mais críticos para aplicações na nuvem, a identidade tornou-se efetivamente o New perímetro, fazendo do roubo de credenciais de aplicações na nuvem um dos caminhos mais eficientes para a sua invasão.

De forma encorajadora, a vulnerabilidade dos usuários diminuiu ligeiramente no último ano: os cliques em links de phishing caíram de 119 por 10.000 usuários no ano passado para 87 por 10.000 usuários este ano, uma redução de 27%. No entanto, o phishing ainda representa uma parcela significativa das tentativas de acesso inicial e continua difícil de ser totalmente mitigado, como evidenciado pelo número considerável de pessoas que ainda clicam em links de phishing.

A imitação de marcas continua sendo uma tática fundamental. A Microsoft é agora a marca mais falsificada, representando 52% dos cliques em campanhas de phishing na nuvem, seguida pela Hotmail (11%) e pela DocuSign (10%). Essas iscas geralmente imitam fluxos de autenticação ou solicitações de assinatura de documentos para coletar credenciais ou obter permissões confidenciais de aplicativos.

""

Uma tendência crescente é o abuso do phishing de consentimento OAuth, em que os atacantes enganam os usuários para que concedam acesso a aplicativos maliciosos na nuvem, ignorando completamente as senhas e a autenticação multifator (MFA). Aliado ao aumento de kits de sequestro de sessão, o phishing está passando de simples enganos por e-mail para ataques altamente técnicos na camada de identidade, que exploram como os aplicativos modernos em nuvem autenticam e mantêm os usuários conectados. As organizações precisam fortalecer o monitoramento contínuo de sessões, a proteção por token e a detecção de acessos anormais, em vez de dependerem exclusivamente do treinamento de usuários ou de filtros de e-mail.

Os alvos de phishing mudaram notavelmente, à medida que os atacantes seguem os locais onde se encontram as credenciais mais valiosas. Embora os aplicativos em nuvem e SaaS continuem sendo alvos frequentes, os portais bancários agora representam 23% das tentativas de phishing observadas, refletindo o foco dos atacantes em fraudes financeiras e roubo de contas. Os serviços governamentais também registraram um aumento acentuado de 21%, impulsionados por ataques que exploram identidades digitais e portais de serviços ao cidadão para roubo de identidade e fraude fiscal. Suítes de produtividade na nuvem, plataformas de comércio eletrônico e mídias sociais continuam a figurar entre os principais alvos, mas os sistemas financeiros e governamentais agora estão no centro dos esforços dos atacantes.

""

Apesar da recente diminuição na vulnerabilidade dos usuários, o risco subjacente de phishing permanece criticamente alto, como evidenciado pelo volume contínuo de cliques. Em 2026, essa ameaça se intensificará à medida que os atacantes utilizarem IA para criar iscas mais sofisticadas e hiper-eficientes, além de ataques à camada de identidade, e o declínio terá sido de curta duração. O sucesso dependerá de as organizações tratarem a identidade como o New perímetro, garantindo continuamente a utilização de estratégias robustas de MFA (autenticação multifator) em todos os lugares, mas também incorporando monitoramento contínuo de sessão, proteção por token e detecção robusta de acesso anormal.

 

O malware continua a infiltrar-se nas organizações através de canais considerados confiáveis. link link

A camada final do nosso modelo de ameaças cumulativas, à medida que entramos em 2026, é a persistência de adversários externos em abusar de canais confiáveis e explorar fluxos de trabalho familiares para enganar as vítimas e levá-las a instalar malware. Os adversários estão cada vez mais abusando de serviços de nuvem confiáveis para distribuir malware, sabendo que os usuários se sentem confortáveis interagindo com plataformas familiares. O GitHub continua sendo o serviço mais abusado, com 12% das organizações detectando exposição de funcionários a malware por meio do aplicativo a cada mês, seguido pelo Microsoft OneDrive (10%) e pelo Google Drive (5,8%). Sua presença constante na colaboração e no desenvolvimento de software os torna canais ideais para a disseminação de arquivos infectados antes que os provedores possam removê-los.

Além das ameaças baseadas em arquivos, o malware distribuído pela web continua a crescer em volume e sofisticação. As campanhas modernas dependem cada vez mais de componentes web dinâmicos e enganosos em vez de downloads tradicionais. Técnicas como injeções baseadas em iframes incorporam frames ocultos que carregam silenciosamente JavaScript malicioso, permitindo redirecionamentos automáticos, execução de scripts não autorizados ou downloads automáticos. Os atacantes também implantam uploaders falsos, que imitam fluxos de trabalho legítimos de download de arquivos para capturar credenciais ou entregar payloads, e páginas CAPTCHA falsas , que usam elementos interativos para convencer os usuários a habilitar scripts ou burlar as proteções do navegador.

Uma preocupação crescente é o surgimento de malware assistido por LLM (Modelos de Linguagem de Grande Porte), em que os atacantes usam grandes modelos de linguagem para gerar código malicioso adaptável ou automatizar a ofuscação. Essa mudança possibilita ciclos de desenvolvimento mais rápidos e cargas úteis mais personalizáveis, que são cada vez mais difíceis de detectar e bloquear em grande escala.

""

Os ataques à cadeia de suprimentos de software continuam a aumentar, à medida que os adversários visam cada vez mais as relações de confiança entre serviços interconectados, plataformas SaaS e ecossistemas de pacotes. Um exemplo recente é uma New onda de atividades do Shai-Hulud visando a cadeia de suprimentos do npm, onde pacotes maliciosos tentam distribuir código prejudicial por meio dos fluxos de trabalho dos desenvolvedores.

Além dos ecossistemas de pacotes, as integrações SaaS-para-SaaS emergiram como um ponto fraco crítico, com os atacantes explorando as cadeias de confiança da API para se movimentarem lateralmente entre aplicativos na nuvem. Em um caso de grande repercussão, a Salesforce detectou chamadas de API suspeitas originadas de endereços IP não permitidos por meio de integrações com o Gainsight, o que levou a Salesforce a revogar os tokens de acesso associados, restringir a funcionalidade e iniciar uma investigação completa.

Outro incidente notável foi a violação de segurança da Salesloft, rastreada como UNC6395, um ataque de múltiplas etapas à cadeia de suprimentos identificado pela Mandiant/Google. Os atacantes exploraram integrações entre aplicativos não monitoradas, especificamente o Salesloft Drift, ilustrando como conectores SaaS comprometidos podem se tornar um canal invisível para roubo de dados.

Em conjunto, esses incidentes destacam uma tendência que deverá continuar em 2026: os ataques à cadeia de suprimentos migraram das atualizações de software tradicionais para a moderna infraestrutura de nuvem, visando registros de pacotes, pipelines de automação e ecossistemas SaaS interconectados, onde os controles de segurança são frequentemente fragmentados ou inexistentes. Para combater essa tendência, as organizações devem priorizar a obtenção de uma visibilidade profunda dessas relações de confiança e garantir que sua infraestrutura de segurança possa se defender contra a ampla gama de táticas que os adversários estão usando para burlar os controles de segurança e enganar suas vítimas.

Recomendações link link

O cenário da cibersegurança para 2026 é fundamentalmente definido pelas camadas crescentes de complexidade impulsionadas pela adoção rápida e frequentemente descontrolada da IA generativa. Essa evolução não substituiu as ameaças existentes, mas sim adicionou New riscos complexos sobre elas. O desafio mais imediato é o aumento substancial da exposição indesejada de dados. Simultaneamente, o surgimento de sistemas de IA com agentes, que executam ações complexas e autônomas em recursos internos, cria uma vasta e New superfície de ataque que amplifica o risco interno e exige uma reavaliação dos perímetros de segurança. Essa combinação de novas ameaças impulsionadas por IA e preocupações antigas, como phishing persistente e malware distribuído por meio de canais de nuvem confiáveis, significa que as equipes de segurança agora precisam gerenciar um modelo de ameaças aditivo, tornando o fortalecimento da supervisão, dos controles de DLP e de uma postura de segurança com foco em IA essencial para o próximo ano.

Com base nas tendências reveladas neste relatório, o Netskope Threat Labs recomenda fortemente que as organizações reavaliem sua postura geral de segurança:

  • Inspecione todos os downloads HTTP e HTTPS, incluindo todo o tráfego da web e da nuvem, para evitar que malware se infiltre na sua rede. Os clientes Netskope podem configurar seu Netskope One Next Gen Secure Web Gateway com uma política de proteção contra ameaças que se aplica a downloads de todas as categorias e a todos os tipos de arquivo.
  • Bloqueie o acesso a aplicativos que não atendem a nenhum propósito comercial legítimo ou que representem um risco desproporcional para a organização. Um bom ponto de partida é uma política que permita aplicativos confiáveis atualmente em uso e, ao mesmo tempo, bloqueie todos os outros.
  • Use políticas de DLP para detectar informações potencialmente confidenciais, incluindo código-fonte, dados regulamentados, senhas e chaves, propriedade intelectual e dados criptografados, sendo enviadas para instâncias de aplicativos pessoais, aplicativos GenAI ou outros locais não autorizados.
  • Use a tecnologia Remote Browser Isolation (RBI) para fornecer proteção adicional quando houver necessidade de visitar sites que se enquadram em categorias que podem apresentar um risco maior, como domínios recém-observados e recém-registrados.

 

Netskope Threat Labs link link

Com a equipe dos principais pesquisadores de malware e ameaças na nuvem do setor, o Netskope Threat Labs descobre, analisa e projeta defesas contra as mais recentes ameaças na nuvem que afetam as empresas. Nossos pesquisadores são apresentadores regulares e voluntários nas principais conferências de segurança, incluindo DefCon, BlackHat e RSA.

 

Sobre este relatório link link

A Netskope oferece proteção contra ameaças a milhões de usuários em todo o mundo. As informações apresentadas neste relatório são baseadas em dados de uso anonimizados coletados pela plataforma Netskope One.

As estatísticas deste relatório são baseadas no período de 1º de outubro de 2024 a 31 de outubro de 2025. As estatísticas refletem as táticas dos atacantes, o comportamento dos usuários e as políticas da organização.

Jogue AI CyberSprint - O melhor jogo de corrida de carros online