Conforme a inteligência artificial (IA) evolui, tenho acompanhado uma série de discussões no LinkedIn e em outras redes sociais e portais sobre as vantagens que ela pode trazer tanto para usuários mal-intencionados (preparem-se para o pior, não há mais o que fazer) quanto para equipes de defesa e segurança (tudo bem, relaxe, a IA cuidará disso). Percebi que, ao mesmo tempo em que a IA poderia ser uma ferramenta poderosa para cibercriminosos, permitindo-lhes automatizar ataques e escapar da detecção de forma mais eficaz, ela também poderia ser uma ferramenta poderosa para profissionais de segurança, ajudando-os a detectar e responder a ameaças com mais rapidez e eficiência.
As previsões polarizadas também me fizeram refletir... o impacto dos avanços da IA na cibersegurança acabará equilibrando tudo? Será que para cada avanço dos vilões teremos como resposta o progresso dos mocinhos? Tudo isso a partir do uso das mesmas ferramentas? É claro que esse equilíbrio só será possível se todos se mantiverem atentos à concorrência; conforme cibercriminosos se tornarem mais adeptos do uso da IA, profissionais de segurança também terão que garantir o uso de ferramentas e técnicas mais avançadas para se defenderem contra estes ataques.
Como em uma luta de boxe, vamos dar uma olhada em quem está em cada canto do ringue. Como exatamente cibercriminosos e profissionais de segurança podem usar IA? E quem vai ganhar?
No canto vermelho: Os cibercriminosos
- Usam a IA para identificar de alvos e escanear a Internet em busca de vulnerabilidades;
- Programam bots de AI para imitar o comportamento humano e driblar a detecção de sistemas de segurança com mais efetividade;
- Usam IA para gerar e-mails de phishing com público-alvo altamente definido e detalhes específicos, baseados em múltiplos conjuntos de dados adquiridos na Dark Web, para ajudar a atrair o alvo e construir confiança (com o público ficando mais acostumado a interagir com bots de IA para atendimento ao cliente, imitá-los pode se tornar uma ferramenta útil de engenharia social dos atores maliciosos).
- Criam malwares ainda mais sofisticados, usando IA tanto para encontrar padrões exploráveis em sistemas de segurança e projetá-los especificamente para fugir de detecções, quanto para alimentá-los e garantir que os programas maliciosos se adaptem e evoluam com o tempo.
No canto azul - Os Profissionais de Segurança
- Analisam grandes quantidades de dados de origens diferentes para identificar e rastrear ameaças em potencial. Seus sistemas de Inteligência contra Ameaças podem aprender com incidentes passados para que se adaptem e melhorem com o tempo. (No geral, eu diria que fornecedores de segurança serão responsáveis por boa parte do uso de IA para isso e sua disponibilização para clientes e membros da comunidade);
- Oferecem treinamento em tempo real à força de trabalho antes que um incidente ocorra, identificando padrões de comportamento de risco e orientando os funcionários a tomar melhores decisões para a proteção de dados e segurança do sistema;
- Fazem triagem; classificam os incidentes de segurança e os priorizam com base em seu nível de risco. Utilizam as recomendações de IA para concentrar esforços em questões mais críticas.
- Detectam padrões que indicam um potencial incidente de segurança e automaticamente liberam uma resposta e um alerta às equipes de segurança (cuja eficácia foi comprovada recentemente pela OTAN).
- Automatizam a investigação de incidentes; ajudando a identificar a causa raiz de um incidente e notificando as partes relevantes.
Então, quem será o vencedor na luta por esse título? Ainda não sei se os apostadores já têm seu favorito. A IA tem potencial para revolucionar a cibersegurança, mas ela não é suficiente para eliminar a necessidade de uma arquitetura e estratégia clara. Não podemos simplesmente deixar nossos trabalhos nas mãos das máquinas e sair para tomar uma xícara de chá. Nos próximos meses e anos, será importante entender que a IA não é a cura para todos os nossos problemas, ou uma solução independente, mas sim uma ferramenta complementar que deve ser combinada com outras medidas de segurança. Assim como uma equipe de segurança humana, a IA requer monitoramento contínuo, avaliação e ajuste para garantir que funcione conforme o esperado e seja capaz de lidar com qualquer viés ou imprecisão nos dados. E, claro, existem muitas considerações éticas a serem levadas em conta também. Se você gostou deste post, recomendo que entre nos arquivos e leia este também, de nosso CISO Neil Thacker da EMEA, onde ele discute o próximo passo da União Europeia em relação a IA e dá algumas dicas úteis para organizações que procuram se preparar para a legislação que inevitavelmente será criada neste ano.