Sumário
O ChatGPT é um chatbot de inteligência artificial criado pela OpenAI, que alcançou 1 milhão de usuários no final de 2022. Ele é capaz de gerar respostas a partir de inputs específicos. É uma variação do modelo GPT (Generative Pre-Trainer Transformer) e, de acordo com a OpenAI, foi desenvolvido a partir da mistura entre Aprendizado por Reforço a partir de Feedback Humano (RLHF) e conjuntos de dados InstructGPT. Devido sua flexibilidade e capacidade de imitar o comportamento humano, o ChatGPT levantou preocupações em diversas áreas, incluindo a cibersegurança.
Sua popularidade está aumentando especialmente porque ele é capaz de fornecer respostas claras sobre praticamente qualquer assunto, incluindo história, matemática, literatura e tecnologia.

O chatbot também é uma ótima ferramenta para desenvolvedores porque é capaz de criar, revisar, melhorar e explicar códigos em várias linguagens, tais como C++, Java, Python, Go e Rust. Ele também fornece uma API que pode ser usada por plugins em diferentes plataformas, como Slack, Microsoft Teams e IDEs como VS Code.
E o que aconteceria se alguém pedisse ao ChatGPT para criar um malware ou ransomware? Calma, não é preciso entrar em pânico com essa possibilidade, afinal, ele não criaria automaticamente um malware funcional. Contudo, ele ainda poderia ser usado pelos invasores para melhorar habilidades de engenharia social ou entender e construir componentes comuns de malware.
No caso da engenharia social, ele poderia gerar click baits novos e fluidos. Já no segundo caso, ele poderia servir como uma interface interativa para os muitos tutoriais e exemplos de softwares maliciosos já existentes na Internet, o que, ainda assim, exigiria um certo conhecimento do usuário para criação de malwares funcionais.
Por outro lado, também existem boas oportunidades para profissionais de cibersegurança. O ChatGPT foi treinado com exemplos de vulnerabilidades de código comum e é capaz de detectá-las quando o código fonte é compartilhado com ele. Ou seja, assim como muitas invenções, esse chatbot pode ser usado tanto para o bem quanto para o mal. Veja mais de perto como:
Desenvolvimento de Malware
O ChatGPT pode criar um malware novo e funcional automaticamente? A resposta rápida é não, mas a ferramenta pode ser usada por atacantes, principalmente aqueles sem experiência, para auxiliar no processo de desenvolvimento de malwares.
O primeiro caso de uso consiste em empregá-lo para aprender e obter exemplos de código sobre técnicas maliciosas. Por exemplo, pedimos que o ChatGPT explicasse detalhes sobre uma técnica comum chamada Process Hollowing.

A resposta foi precisa e incluiu um exemplo em C++ que poderia ser facilmente modificado e incorporado a um malware.
Nós fizemos mais perguntas sobre técnicas específicas que poderiam ser incorporadas a um malware, como baixar e executar arquivos de URLs remotas ou criptografar arquivos usando AES no Windows, e o chatbot foi capaz de gerar e explicar todas elas.

No entanto, durante nossos testes, descobrimos que o ChatGPT gerou códigos incompletos para perguntas que tinham um certo nível de complexidade a mais. Por exemplo, a IA não foi capaz de nos fornecer um código completo para um programa de busca de arquivos no Windows e nem o criptografar usando uma combinação simétrica e assimétrica, função que poderia ser usada para criar ransomware.

A IA também é capaz de identificar intenções maliciosas, dependendo de como a pergunta é feita. Por exemplo, falhamos ao tentar obter um código único que faz o download do base64, algoritmo de codificação executável, e executá-lo usando Process Hollowing.

Apesar do código não ter sido gerado em uma única resposta, nada impede o invasor de dividir sua pergunta em:
- Pedido de um exemplo de código capaz de baixar arquivos base64 codificados;
- Pedido de um exemplo de técnica de Process Hollowing;
- Combinação de ambas as respostas para realizar a execução de código do arquivo baixado.

Portanto, o ChatGPT não criará um malware novo ou completo para alguém, mas ele pode de fato ser usado como um recurso para estudar e criar trechos de código que, quando combinados, ajudam na criação de um malware funcional.
Engenharia Social
Os criminosos podem usar o ChatGPT para melhorar suas habilidades de engenharia social. Ele pode ajudar a escrever textos específicos para e-mails de phishing, redirecionando as vítimas para sites maliciosos ou atraindo-as para fazer o download de um malware anexado.
Por exemplo, pedimos que ChatGPT criasse um e-mail que fizesse parecer que a pessoa acabou de ganhar $100.000 em uma loteria chamada "BigMoney". Pedimos especificamente ao ChatGPT para gerar aleatoriamente o número de um bilhete e convencer a pessoa a abrir um link que supostamente a levaria ao prêmio.
O texto gerado pela IA poderia ser facilmente usado em e-mails de phishing para redirecionar as pessoas para um site que tenta roubar informações sensíveis, tais como contas de e-mail e senhas.

Outro exemplo é o spear phishing. Com conhecimento prévio sobre o alvo, um criminoso pode fornecer detalhes da vítima ao ChatGPT e pedir ajuda para gerar um texto que a convença a abrir um arquivo anexado.
Para provar isso, pedimos que ele gerasse o e-mail de uma pessoa chamada Ruth para outra pessoa chamada Glenn, pedindo ajuda em um projeto fictício. Os detalhes do projeto seriam anexados no e-mail, que poderia ser um arquivo criado pelo criminoso.

Eles também poderiam usar o ChatGPT para criar fake news, levando as vítimas à sites que roubam dados sensíveis, como e-mails ou contas bancárias. Para comprovar, pedimos à AI que gerasse um e-mail com fake news sobre o governo da Califórnia fornecendo $5.000 para as vítimas da COVID-19.

Estes exemplos deixam claro que o ChatGPT tem potencial para diminuir significativamente a barreira de entrada de cibercriminosos na construção de seus ataques de engenharia social.
Benefícios para a Cibersegurança
O ChatGPT não é útil apenas para criminosos, mas também pode ser uma ferramenta valiosa para profissionais de segurança, que podem usá-la para detectar vulnerabilidades em códigos ou avaliar posturas de segurança e melhorar defesas em geral.
Para exemplificar, compartilhamos com o ChatGPT um pedaço de código Python que continha uma vulnerabilidade de injeção SQL, e a IA foi capaz de detectar o problema, explicar por que acontece, e dar sugestões para corrigi-lo.

Entretanto, ao fazer isso, os usuários poderiam muito fácil e involuntariamente vazar informações pessoais ou corporativas, o que eventualmente prejudicaria as organizações. Inclusive, isso é até algo reforçado pela plataforma quando uma conta é criada. Nós não recomendamos que nenhum código confidencial seja compartilhado com o ChatGPT para análise.

Conclusões
A disponibilidade de uma ferramenta de IA capaz de imitar o comportamento humano e fornecer conhecimento de codificação aumenta os riscos de cibersegurança para as organizações, pois pode ser usada por criminosos para melhorar os ataques de engenharia social e criar componentes para ajudar no desenvolvimento de malware.
É comum que os novatos criem malwares copiando um código já existente ao invés de escrevê-lo do zero, o que a essa altura é provavelmente um caminho mais rápido do que contornar as medidas de segurança do ChatGPT e pegar partes de códigos que precisam ser ajustados e combinados para criar malwares funcionais.
No entanto, novos vetores de ataque e famílias de malware que vimos serem desenvolvidos com a ajuda do ChatGPT, ou qualquer ferramenta de IA semelhante, podem em grande parte ser identificados com uma postura de segurança eficaz. Isto inclui manter o software atualizado, políticas e tecnologias eficazes de proteção de dados e equipar os ativos mais valiosos da organização com software de segurança adicional, como um EDR (endpoint detection and response) e uma solução web gateway segura.
No caso dos ataques de engenharia social que possam surgir com a ajuda da IA, é importante que as organizações reconstruam o "firewall humano", treinando funcionários e clientes para identificar pequenas pistas como detalhes equivocados em e-mails de phishing, e verificar sempre a identidade da pessoa com quem estão falando.
Como demonstramos, o ChatGPT não é uma ferramenta que pode ser usada apenas por criminosos, mas também pode ser usada a favor de desenvolvedores e profissionais de segurança para detectar vulnerabilidades de código e avaliar posturas de segurança. Além disso, entender melhor como os criminosos podem abusar potencialmente desta ferramenta pode ajudar as equipes de segurança a se protegerem melhor. Por último, mas não menos importante, o chatbot ainda está em desenvolvimento, portanto, devemos esperar medidas de segurança mais robustas do OpenAI para evitar o abuso da ferramenta.