
O grande salto na adoção da IA está ampliando a superfície de ataque para agentes maliciosos.
Segundo a IDC*, estima-se que as despesas mundiais com IA aumentarão para quase US$ 750 bilhões até 2028. Esse valor monetário, que ilustra a adoção e o crescimento, também pode ser visto como uma representação direta da escala dos novos desafios à segurança de dados. Os profissionais de segurança cibernética responsáveis por gerenciar os riscos de IA perdem cada vez mais a visibilidade e o controle dos dados da empresa.
Assim como ocorreu com a adoção da nuvem há uma década, as ameaças não se limitam a um comportamento ou modelo de implementação específico.
O uso de "IA sombra" (uso de ferramentas de IA não gerenciadas) é um vetor de risco conhecido, no qual os funcionários trocam a conformidade pela praticidade. Quase metade (47%) dos usuários de IA generativa utiliza aplicativos pessoais de IA, segundo o Cloud and Threat Report 2026 da Netskope. O uso não oficial é um problema porque os funcionários podem, sem saber, compartilhar dados confidenciais com aplicativos em nuvem de terceiros, dificultando a visibilidade e o controle para muitas organizações.
E quanto às organizações que desenvolvem seus modelos privados de IA, muitas vezes motivadas diretamente por um esforço para aumentar a segurança? Nesse caso, existem muitos riscos mais amplos, como a responsabilidade pela segurança dos dados de treinamento e dos resultados do modelo.
A área de maior crescimento em IA é a agêntica, em que agentes autônomos executam tarefas de forma independente, com pouca supervisão humana. Ela traz um grande avanço para a produtividade, mas levanta questões relacionadas ao acesso e controle dos dados. De acordo com uma previsão da Gartner, 25% das violações corporativas estarão ligadas ao abuso de agentes de IA até 2028.
Com essas tendências em mente, vamos explorar algumas considerações de segurança que funcionam como uma lista de verificação útil para garantir que sua organização lide com os riscos de todos os ângulos.
1) Use uma abordagem zero trust como base da segurança de IA
Proteger a IA é um desafio único da segurança de dados devido à forma como os modelos de IA processam entradas e geram saídas. Estender um framework de segurança zero trust à IA garante a verificação de cada solicitação (de todas as pessoas, modelos e agentes), o monitoramento de cada fluxo de dados e a concessão de acesso com base em avaliações de risco dinâmicas, em vez de permissões estáticas. Uma pesquisa mostra que dois terços das organizações afirmam que seus controles zero trust simplesmente não conseguem proteger identidades não humanas (NHI) hoje, mas 78% acreditam que o crescimento de NHI superará o aumento de identidades humanas em 12 meses: um risco iminente. Analise como você pode incorporar a segurança de IA nas estruturas e arquiteturas de segurança existentes e resista à tentação de adicionar produtos pontuais que trazem complexidade ao seu stack e consomem muitos recursos. Busque plataformas unificadas que aceitem integrações de políticas de segurança e administração para reduzir a carga administrativa.
2) Aprimore sua onisciência diante da onipresença da IA (tenha uma visão geral)
Apenas 6% das organizações têm visibilidade total do uso da IA. No entanto, todos sabem que as equipes de segurança não podem proteger o que não conseguem ver. Esse é um desafio que se agrava quando as pessoas combinam o uso de ferramentas pessoais e corporativas. Sem visibilidade de como e onde as ferramentas de IA são usadas, as organizações ficam expostas a possíveis vazamentos de dados. As ferramentas que trazem visibilidade devem ser uma prioridade máxima e um ponto de partida para a segurança da IA.
Sua estratégia de segurança de IA precisa abranger mais do que novos aplicativos e modelos de IA. Nos últimos anos, todos os aplicativos SaaS buscaram incessantemente introduzir melhorias de IA e, embora tenham gerado muita expectativa no início, essas atualizações com base em IA estão se tornando a norma. Dessa forma, todos os dias, uma de suas ferramentas SaaS aprovadas pode lançar novas funcionalidades de IA que talvez não atendam aos seus requisitos de segurança. Essas pequenas atualizações geralmente ocorrem sem que as equipes de segurança, que deveriam avaliar os riscos antes de aprová-las, tenham qualquer visibilidade. Nesse caso, o monitoramento e a administração manuais não serão suficientes. Recomenda-se adotar a mesma abordagem para a gestão de riscos de IA que é utilizada para a gestão de riscos na nuvem. O Netskope Cloud Confidence Index (CCI) fornece insights em tempo real sobre mais de 83 mil aplicativos em nuvem e SaaS, além de avaliar os riscos de mais de 10 mil servidores MCP públicos, identificando atributos de risco, tipos de autenticação e versões de protocolo antes da implantação. Terceirize o trabalho pesado!
3) Atenção à lacuna na governança da IA
Dois terços das organizações classificam sua governança de IA como apenas reativa ou em desenvolvimento, um terço descreve a adoção como fragmentada e 38% gostariam de ter iniciado a governança antes que a adoção escalasse. Sem diretrizes claras, as empresas que usam IA estão abrindo as portas para ameaças à segurança. Evite juntar-se aos 38% e defina um conjunto de políticas para garantir o uso adequado da IA (antes e depois da implantação).
4) Aprimore habilidades e ferramentas
Quase três quartos (73%) das pessoas no Reino Unido não tiveram treinamento ou capacitação em IA, mas 31% das organizações empregam políticas documentadas e conformidade dos funcionários como método primordial de imposição para a segurança da IA. É basicamente um sistema de confiança envolto em mistério. Tal disparidade gera riscos de uso inadequado das ferramentas e, quase inevitavelmente, faz com que as organizações tenham problemas de conformidade, principalmente em setores muito regulamentados.
Invista em treinamentos e ferramentas que permitam interações adequadas com a IA, garantindo que todos na organização estejam cientes dos riscos, das políticas aprovadas para uso seguro de IA e das regulamentações que precisam conhecer. Mas não pare por aqui. Até mesmo a força de trabalho mais bem-preparada precisa de ajuda. A Gartner prevê que, até 2028, pelo menos 15% das decisões diárias de negócios serão tomadas de forma autônoma por meio da IA agêntica, em comparação com 0% em 2024. As habilidades humanas em segurança de IA são como carteiras de motorista: podem reduzir sistematicamente os riscos, mas funcionam melhor em conjunto com ferramentas de gerenciamento de risco, como cintos de segurança e freios ABS, e podem se tornar cada vez mais irrelevantes quando os carros sem motorista chegarem às estradas. Invista na segurança dos modelos de IA e dos dados corporativos com os quais eles interagem, reconhecendo onde são necessárias novas ferramentas (como gateways e proteções de segurança de IA) para complementar as melhores práticas existentes e auxiliar usuários humanos a tomarem decisões seguras.
Segurança na via rápida da IA
Com a Netskope, seus clientes podem adotar a IA em escala empresarial sem aumentar os riscos. Protegemos usuários, agentes, aplicativos e dados em ambientes de IA pública, privada e agêntica com segurança unificada, desde o fortalecimento do modelo antes da implantação até a prevenção contra ameaças no tempo de execução. O Netskope One AI Security é a única plataforma que protege todas as interações com IA, mantendo a velocidade e a experiência que suas equipes exigem.
Seja ágil. Aumente a proteção. Mantenha o controle total.
Para saber mais sobre como proteger a IA em toda a empresa, acesse netskope.com/ai.
*IDC Market Forecast, Worldwide Artificial Intelligence IT Spending Forecast, 2024–2028, Rick Villars et al., outubro de 2024, doc. nº US52635424

Leia o Blog