Coautoria de Carmine Clementelli e Jason Clark
Nos últimos tempos, a ascensão da inteligência artificial (IA) tem revolucionado a maneira como mais e mais usuários corporativos interagem com seu trabalho diário. Aplicações SaaS baseadas em IA generativa, como o ChatGPT, tem oferecido inúmeras oportunidades para que organizações e seus funcionários melhorem a produtividade dos negócios, facilitem várias tarefas, aprimorem seus serviços e simplifiquem operações. Equipes e indivíduos podem aproveitar convenientemente o ChatGPT para gerar conteúdo, traduzir textos, processar grandes quantidades de dados, criar rapidamente planos financeiros, depurar e escrever códigos, entre outras coisas.
No entanto, embora as aplicações de IA tenham o potencial de melhorar nosso trabalho, elas também podem expor significativamente dados confidenciais a veículos externos, aumentando o risco de violações e de não conformidade. Como disse recentemente, meu colega Yihua Liao, Head do Netskope AI Labs, "ao reconhecer e abordar esses desafios, as equipes de segurança podem garantir que a IA seja usada de forma responsável e eficaz na luta contra as ameaças cibernéticas".
Aqui estão alguns exemplos específicos de como dados confidenciais podem ser expostos ao ChatGPT e a outros aplicativos de IA baseados na nuvem:
- Textos contendo PII (informações pessoalmente identificáveis) podem ser copiados e colados no chatbot para gerar ideias de e-mail, respostas a consultas de clientes, cartas personalizadas e verificação de análise de sentimento.
- Informações de saúde podem ser digitadas no chatbot para criar planos de tratamento individualizados. Até mesmo imagens médicas, como tomografias computadorizadas e ressonâncias magnéticas, podem ser processadas e aprimoradas graças à IA.
- Códigos-fonte proprietários podem ser carregados por desenvolvedores de software para depuração, conclusão, legibilidade e melhorias de desempenho.
- Arquivos contendo segredos da companhia, como rascunhos de relatórios de ganhos, documentos de fusões e aquisições (M&A), anúncios de pré-lançamento e outros dados confidenciais podem ser carregados para verificação de gramática e concordância.
- Informações financeiras como transações corporativas, receitas operacionais não divulgadas, números de cartão de crédito, classificações de crédito dos clientes, extratos e históricos de pagamento podem aproveitar o ChatGPT para planejamento financeiro, processamento de documentos, integração de clientes, síntese de dados, conformidade, detecção de fraudes etc.
As organizações devem tomar medidas sérias para proteger a confidencialidade e a segurança de seus dados sensíveis em nosso mundo moderno habilitado para a nuvem, monitorando o uso e o abuso de instâncias e aplicações SaaS de risco, limitando a exposição de informações confidenciais por meio deles e protegendo documentos contra perda acidental e roubo.
Como a Netskope ajuda a evitar os riscos cibernéticos do ChatGPT
Tudo começa com visibilidade. Equipes de segurança devem aproveitar ferramentas automatizadas que monitoram continuamente quais aplicações (como o ChatGPT) os usuários corporativos tentam acessar, como, quando, de onde, com que frequência e etc. É essencial entender os diferentes níveis de risco que cada aplicação representa para a organização e ter a capacidade de definir políticas de controle de acesso granulares em tempo real com base em categorizações e condições de segurança que podem mudar com o tempo.
Embora aplicações explicitamente mal-intencionados devam ser bloqueadas, quando se trata de controle de acesso, muitas vezes a responsabilidade pelo uso de aplicações como o ChatGPT deve ser dada aos usuários, que toleram e não necessariamente interrompem atividades que podem fazer sentido para um subconjunto de grupos de negócios ou para a maioria deles. Enquanto isso, as equipes de segurança devem ser responsáveis por conscientizar os funcionários sobre aplicações e atividades consideradas arriscadas. Isso pode ser feito principalmente por meio de alertas em tempo real e fluxos de trabalho de orientação automatizados, envolvendo o usuário nas decisões de acesso após o reconhecimento do risco.
A Netskope é líder de mercado em segurança na nuvem e proteção de dados, com mais de uma década de experiência, oferecendo a mais ampla visibilidade e o melhor controle sobre milhares de novas aplicações SaaS, como o ChatGPT. A Netskope oferece opções de segurança flexíveis para controlar o acesso a aplicações SaaS baseados em IA generativa, como o ChatGPT, e para proteger automaticamente dados confidenciais. Exemplos de políticas de controle de acesso incluem fluxos de trabalho de treinamento em tempo real, acionados sempre que os usuários abrem o ChatGPT, como pop-ups de aviso personalizáveis que oferecem orientação sobre o uso responsável da aplicação, o risco potencial associado e uma solicitação de reconhecimento ou justificativa.


Usuários cometem erros e podem, por negligência, colocar dados confidenciais em risco. Embora o acesso ao ChatGPT possa ser concedido, é fundamental limitar o upload e a publicação de dados altamente confidenciais por meio dele e de outros vetores de exposição de dados potencialmente arriscados na nuvem. Isso só pode ser feito por meio de técnicas modernas de prevenção contra perda de dados (DLP). Os recursos altamente avançados de DLP da Netskope são capazes de identificar automaticamente fluxos de dados confidenciais e categorizar postagens confidenciais com o mais alto nível de precisão.
A precisão garante que o sistema monitore e impeça apenas uploads de dados confidenciais (incluindo arquivos e textos colados na área de transferência) por meio de aplicações baseadas em IA generativa e não impeça consultas inofensivas e tarefas seguras por meio do chatbot. Maturidade é importante e, mais uma vez, a Netskope oferece mais de uma década de experiência e o mais alto grau de eficácia em prevenção contra perda de dados (DLP) fornecida pela nuvem. Com o DLP avançado da Netskope, alimentado por modelos de ML e IA, milhares de tipos de arquivos, informações de identificação pessoal, propriedade intelectual (IP), registros financeiros e outros dados confidenciais são identificados com confiança e protegidos automaticamente contra exposição indesejada e fora de conformidade.
Além de interromper seletivamente os uploads e as publicações de informações confidenciais no ChatGPT, as mensagens de orientação visual podem ser automatizadas em tempo real para fornecer orientação sobre violações de publicação de dados, informar o usuário sobre as políticas de segurança corporativa e permitir a redução de comportamentos de risco repetidos ao longo do tempo, eliminando a carga das equipes de resposta de segurança.

Para saber mais, assista ao nosso vídeo de demonstração sobre como ativar o ChatGPT om segurança ou visite o site:
- https://www.netskope.com/netskope-ai-labs
- https://www.netskope.com/products/casb
- https://www.netskope.com/products/data-loss-prevention
Além disso, se você estiver interessado em saber mais sobre IA generativa e segurança de dados, registre-se em nosso evento LinkedIn Live ChatGPT: Fortifying Data Security in the AI App-ocalypse, apresentando Krishna Narayanaswamy, Naveen Palavalli, e Neil Thacker, na quinta-feira, 22 de junho às 9h30 PT.