O uso do ChatGPT está aumentando exponencialmente nas empresas, onde os usuários estão enviando informações confidenciais para o chat bot, incluindo código-fonte proprietário, senhas e chaves, propriedade intelectual e dados regulamentados. Em resposta, as organizações implementaram controles para limitar o uso do ChatGPT. Os serviços financeiros lideram o grupo, com quase uma em cada quatro organizações implementando controles em torno do ChatGPT. Este artigo do blog explora quais tipos de controles tem sido implementados em vários setores.
Controlando o ChatGPT
Os controles do ChatGPT são mais populares no setor de serviços financeiros, onde aproximadamente uma em cada quatro organizações implementou controles sobre seu uso.Como era de se esperar, a adoção do ChatGPT também é mais baixa no setor de serviços financeiros, indicando que os controles implementados nesse setor eram, em grande parte, preventivos, bloqueando o acesso dos usuários à plataforma.
Surpreendentemente, controles ao redor do uso do ChatGPT também estão em vigor dentro de uma em cada cinco organizações de tecnologia, colocando-as em segundo lugar na lista. No entanto, esses controles não tiveram o mesmo efeito nesse caso: A adoção do ChatGPT é maior nas organizações de tecnologia. Como isso poderia ser verdade? A resposta está nos tipos de controles que foram implementados.
Tipos de controles do ChatGPT
Esta publicação explora quatro tipos diferentes de controles que as organizações implementaram para monitorar e moderar o uso do ChatGPT.
Políticas de alerta
Políticas de alerta são controles informativos. Seu objetivo é apenas fornecer visibilidade sobre como os usuários da organização estão interagindo com o ChatGPT. Muitas vezes, elas são combinadas com políticas de DLP para fornecer visibilidade de dados potencialmente confidenciais que estão sendo publicados no ChatGPT. As políticas de alerta costumam ser usadas durante uma fase de aprendizado para explorar a eficácia e o impacto de um controle de bloqueio e, geralmente, são convertidas em políticas de bloqueio depois de terem sido ajustadas e testadas.
Políticas de treinamento de usuários
Políticas de treinamento de usuário fornecem contexto aos usuários que as acionam, permitindo que o usuário decida se deseja ou não continuar. As políticas de treinamento de usuários geralmente são combinadas com políticas de DLP, onde podem ser usadas para notificar o usuário de que dados postados no ChatGPT parecem ser de natureza sensível. Normalmente, o usuário é lembrado da política da empresa e perguntado se deseja ou não continuar. Por exemplo, se a política da empresa é não fazer upload de código-fonte proprietário para o ChatGPT, mas o usuário está fazendo upload de um código-fonte aberto, ele pode optar por continuar com o envio após a notificação. Para as políticas de treinamento de usuários do ChatGPT, os usuários clicam em prosseguir 57% das vezes.
Políticas de DLP
Políticas de DLP permitem que as organizações autorizem o acesso ao ChatGPT, mas controlem a publicação de dados confidenciais nos prompts. As políticas de DLP são configuradas pela organização para serem acionadas em cada postagem no ChatGPT e inspecionar o conteúdo da postagem antes de permitir sua aprovação. As políticas mais comuns se concentram em código-fonte proprietário, senhas e chaves, propriedade intelectual e dados regulamentados.
Políticas de bloqueio
O tipo mais draconiano de política é aquele que bloqueia completamente qualquer uso do ChatGPT. Os usuários não têm permissão para nenhuma interação com o aplicativo: eles não podem fazer login, publicar avisos e, às vezes, nem mesmo visitar a própria página de login.
Popularidade dos controles do ChatGPT
O gráfico a seguir mostra a porcentagem de organizações em cada uma das sete verticais que implementou cada um dos tipos de controle. Serviços financeiros lideram em termos de políticas de bloqueio, onde quase 17% das organizações bloqueiam totalmente o ChatGPT. As políticas de DLP que controlam exatamente o que pode ser publicado no ChatGPT também são mais populares entre os serviços financeiros e de saúde, ambos setores altamente regulamentados. O governo estadual, local e as instituições educacionais (SLED) têm a menor adoção geral de controles do ChatGPT e também a menor adoção de políticas de treinamento de usuários, políticas de DLP e políticas de bloqueio.
Então, como é possível que as empresas de tecnologia liderem em termos de uso do ChatGPT e fiquem em segundo lugar em termos de controles do ChatGPT? Os tipos de controles que elas implementam geralmente são menos draconianos do que os de outras organizações. As organizações de tecnologia lideram em termos de políticas de alerta projetadas apenas para fornecer visibilidade, e somente o SLED tem uma porcentagem menor de organizações que adotam políticas de bloqueio. As organizações de tecnologia usam DLP e políticas de treinamento de usuários em taxas semelhantes às de outros setores verticais. Em resumo, isso significa que as organizações de tecnologia pretendem permitir que seus usuários acessem o ChatGPT, enquanto monitoram de perto seu uso e implementam controles direcionados quando apropriado.
Ativando o ChatGPT com segurança
Os clientes da Netskope podem habilitar com segurança o uso do ChatGPT com controle de acesso a aplicações, treinamento de usuários em tempo real e proteção de dados.
Sobre esse blog post
A Netskope oferece proteção contra ameaças e dados a milhões de usuários em todo o mundo. As informações apresentadas nesta postagem do blog baseiam-se em dados de uso anônimos coletados pela plataforma Netskope Security Cloud relacionados a um subconjunto de clientes da Netskope com autorização prévia. As estatísticas são baseadas no período de 8 de maio de 2023 a 4 de junho de 2023. As estatísticas são um reflexo do comportamento do usuário e da política da organização.