
Independentemente do setor em que você atua, seja em tecnologia ou segurança, é bem provável que já tenha sido inundado por perguntas sobre IA agente e sobre como ela pode, ao mesmo tempo, capacitar equipes e ampliar a exposição a ameaças.
Com alguns anos de experiência, a ideia inicial era escrever um post no blog com dicas práticas sobre como abordar e proteger corretamente qualquer que seja a próxima “novidade brilhante”. Mas estamos na época das festas de fim de ano, e seria uma oportunidade perdida não recorrer a uma analogia festiva e leve para tratar do tema.
Dito isso, seguem algumas dicas com clima natalino para ajudar a habilitar e proteger a IA agente da forma certa.
Faça uma lista e revise-a cuidadosamente
O melhor ponto de partida é garantir que você ouça o que a organização deseja usar.
Assim como acontece com quem prepara uma lista de Natal, é essencial saber quais aplicativos e ferramentas a organização pretende adotar. Como já vimos com diversas tecnologias ao longo dos anos, as pessoas sempre encontram maneiras de usar o que desejam, independentemente de a equipe de segurança estar ciente disso ou não. Neste ano, a IA agente provavelmente ocupa o topo dessas listas de desejos.
Como ficou claro com a adoção da IA generativa alguns anos atrás, não faz sentido bloquear a visibilidade desse tipo de ferramenta. Em vez disso, o caminho mais eficaz é encontrar formas de habilitá-las corretamente. Vale lembrar que, embora seja uma tática comum entre crianças na véspera de Natal, a esperança não é uma estratégia em segurança cibernética. Como liderança em segurança, é necessário ter um plano claro para habilitar e proteger essas ferramentas e aplicativos, e isso começa pela visibilidade.
Saiba quem se comportou bem ou mal
Se há algo que sabemos sobre o bom velhinho, é que ele está sempre observando. O Papai Noel mantém visibilidade constante sobre quem se comportou bem e quem se comportou mal, e esse é exatamente o nível de visibilidade que você precisa replicar ao adicionar qualquer nova ferramenta à sua organização.
Isso é ainda mais importante no caso de soluções de IA agente, que evoluem rapidamente após a implantação e podem gerar exposição significativa ou até mesmo abusos quando não são configuradas corretamente.
É fundamental saber quais aplicativos têm acesso aos dados da organização e de que forma esses dados estão sendo usados. A partir disso, é necessário estabelecer políticas adequadas para garantir o controle de acesso e o uso correto de dados confidenciais ou sensíveis.
Imagine a implantação de um conjunto de agentes em uma empresa e que um deles receba instruções para executar algo indevido. A visibilidade é o ponto de partida, mas ainda é preciso explorar esse território desconhecido e entender a extensão do impacto causado.
E, para isso, é essencial contar com as pessoas certas liderando o processo, o que leva ao próximo conselho:
Deixe as renas puxarem o trenó
Como CISO, acredito firmemente em uma abordagem liderada por desenvolvedores para encontrar formas eficazes de proteger e habilitar a IA.
Ao lidar com uma área de tecnologia tão nova e em constante evolução, sempre existirão limites para o conhecimento individual. Por isso, é essencial contar com uma equipe confiável para ajudar a avançar, assim como o Papai Noel conta com sua equipe de renas para puxar o trenó.
Confio nas equipes de desenvolvimento para ajudar a formular e responder às perguntas mais difíceis que surgem ao longo do caminho. Questões como: “E se um agente malicioso sair do controle?” precisam ser exploradas em profundidade. É necessário entender como investigar esse tipo de situação. Vale acessar o servidor? Capturar a memória? Usar métodos tradicionais de análise forense e resposta a incidentes? Ou será preciso repensar completamente o processo e adotar algo diferente?
Nenhuma dessas perguntas é simples de responder. E, convenhamos, também não deve ser fácil ser uma rena voadora. Ainda assim, preparar as equipes com essa mentalidade desde já, antes que a IA agente pareça fora de controle na organização, permite que elas comecem a refletir e a se sentir mais confortáveis ao lidar com esse tipo de desafio, caso ele venha a surgir.
Reúna uma equipe de elfos trabalhadores
Ao mesmo tempo, também sabemos que uma das razões pelas quais o Papai Noel é tão alegre é contar com uma equipe de elfos de confiança, responsável por realizar o trabalho essencial para manter tudo funcionando sem problemas.
Além das equipes de desenvolvimento, outra recomendação importante para as equipes de segurança é a criação de Embaixadores de IA. Trata-se de pessoas designadas em diferentes áreas da organização que se concentram em compartilhar orientações da equipe de segurança e do comitê de governança de IA com suas equipes. Assim como os elfos, essas pessoas também podem assumir parte do trabalho adicional, revisando propostas antes que elas cheguem ao comitê de governança de IA ou à equipe de segurança para análise.
Uma equipe confiável de Embaixadores de IA ajuda a criar uma camada interna de visibilidade, contextualizando práticas recomendadas que devem ser adotadas por todos os departamentos ao avaliar e usar novas ferramentas de IA.
Que seus dias sejam felizes, iluminados e seguros
A época de festas e o Ano Novo podem ser períodos estressantes, especialmente para quem está tentando implementar e garantir a segurança das novas ferramentas solicitadas pela organização. Mas, ao compreender bem com que tipo de ferramentas você está lidando, ao incorporar a visibilidade desde o início do planejamento e ao contar com desenvolvedores liderando a abordagem, você já estará no caminho certo.
E não se esqueça de deixar bastante leite e biscoitos, ou pizza e energéticos, para as pessoas que estão ajudando a transformar esses planos em realidade.

Leia o Blog