Os avanços tecnológicos na forma como criamos e consumimos mídia transformaram repetidamente a forma como as campanhas eleitorais são disputadas: as mídias sociais, a TV e o rádio foram revoluções em sua época. Sempre houve preocupações sobre o impacto que essas novas tecnologias teriam na democracia: o Milwaukee Journal temia, após o primeiro debate presidencial televisionado, em 1960, que “a campanha presidencial americana nunca mais será a mesma”. Talvez eles estivessem certos...
É claro que 2024 será lembrado como um grande ano para a democracia, com eleições em 64 países, bem como na União Europeia, e a tecnologia disruptiva mais recente é a IA. Este ano, estamos vendo um aumento no uso da IA generativa para criar falsificações profundas — vídeos que parecem reais, mas na verdade foram criados artificialmente, geralmente para espalhar informações erradas ou desinformações. As falsificações profundas são ferramentas poderosas e, com a rápida evolução da tecnologia de IA — e o acesso a elas se expandindo — há claros perigos potenciais não apenas para a tomada de decisões democráticas, mas também para consumidores e empresas.
Com isso em mente, eu (britânica) conversei com nossos especialistas internos David Fairman (australiano e nosso CIO da APAC) e Shamla Naidoo (sul-africana e consultora de CXO) para ouvir suas opiniões sobre os possíveis problemas de segurança causados pela tecnologia durante essas eleições globais, o que esses desenvolvimentos tecnológicos podem significar para pessoas e empresas e como podemos nos proteger como indivíduos.
Emily: David, comece agora, o que são falsificações profundas e como elas estão sendo implantadas?
David: Falsificações profundas são imagens, vídeos e áudios criados por inteligência artificial generativa que manipula a imagem de uma determinada pessoa para fazer com que ela pareça fazer ou dizer algo que, na realidade, não fez. Eles não apenas espalham informações erradas e mentiras, mas também são cada vez mais fáceis e baratos de criar. Tudo o que você precisa é do software e dos materiais de origem corretos, como imagens e vídeos publicamente disponíveis de uma pessoa, para informar a ferramenta de IA.
No caso de políticos, esse material é muito fácil de obter, mas cada vez mais líderes empresariais, celebridades e, francamente, qualquer pessoa que use mídias sociais podem ser vítimas de deepfake. Hoje, como consumimos mídia principalmente por meio de vídeos curtos e de rápida absorção, os deepfakes podem ser muito convincentes, especialmente para olhos destreinados. À medida que a tecnologia continua evoluindo, ficará ainda mais difícil diferenciá-los e dizer qual conteúdo é real e o que não é.
Emily: Shamla, como os malfeitores os estão usando durante as eleições?
Shamla: Estamos vendo grandes falsificações em muitas democracias no período que antecede as eleições, em particular durante os períodos de campanha, muitas vezes carregados de emoção, e o objetivo final é influenciar nossas decisões de voto. Todas as nossas decisões, quer estejamos conscientes disso ou não, são influenciadas pelo que vemos e ouvimos diariamente. E em uma campanha eleitoral, um conteúdo profundamente falso relacionado a um tópico importante pode afetar nossas decisões sobre em quem votamos e, finalmente, quem acaba no poder.
Como as falsificações profundas são baratas e bastante simples de fazer, elas representam uma grande oportunidade para malfeitores que têm interesse em que a população vote (ou não vote) em um determinado candidato.
Emily: Como as falsificações profundas estão sendo tratadas pelas vítimas no mundo político?
Shamla: Embora sejam cada vez mais comuns, falsificações profundas estão sendo tratadas caso a caso na maioria das democracias, vistas fundamentalmente como uma questão de gerenciamento de reputação para candidatos, porque a desinformação geralmente é pessoal e de natureza escandalosa. Isso talvez minimize o poder dessas campanhas, porque cada uma está sendo criada com um objetivo mais amplo em mente.
Quanto mais prolíficas as falsificações profundas se tornarem (e, a meu ver, é inevitável que elas se tornem mais comuns), mais teremos que educar e implementar sistemas para garantir que as pessoas e as plataformas verifiquem as informações — e as fontes.
Emily: E nos negócios, David, como as falsificações profundas representam uma ameaça aos negócios e como as organizações estão lidando com os primeiros incidentes que estão sendo relatados?
David: Bem, essa é uma ameaça muito nova para as empresas, mas um desafio que crescerá em importância. Acredito que as empresas terão que se proteger contra o uso de deepfakes para se passar por executivos seniores de uma empresa. Ataques de engenharia social — nos quais criminosos se fazem passar por alguém, geralmente uma autoridade ou figura confiável, a fim de induzir as pessoas a transferir dinheiro, conceder acesso ou transferir informações — já são um perigo. À medida que a tecnologia de IA se desenvolve, ficará ainda mais difícil diferenciar uma ligação real de um executivo sênior de uma falsa e, portanto, o potencial de agentes mal-intencionados enganarem vítimas inocentes será muito maior.
Emily: Tudo isso soa muito triste e sombrio. Mas espero que não seja. É isso? Por favor, me diga que não é...
Shamla: O fato de ser tão difícil saber o que foi gerado pela IA e o que não foi faz com que seja difícil para os consumidores individuais saberem o que fazer além de agir com cautela!
Mas, felizmente, nem tudo é tão ruim quanto parece. Estamos começando a ver plataformas de mídia social rotulando conteúdo que foi criado artificialmente para que possamos saber se o conteúdo é real ou não antes de compartilhá-lo ou “curti-lo”.
Dito isso, sempre podemos tentar fazer mais. Acho que precisamos começar a ver os governos darem os próximos passos sérios na implementação da legislação sobre IA — semelhante à abordagem adotada pela União Europeia com sua Lei de Inteligência Artificial, e introduzindo requisitos juridicamente vinculativos que mitigarão os riscos da IA. Só então seremos capazes de controlar o uso da IA nesse contexto e os riscos associados a ela.
Emily: David, e nos negócios?
David: Como mencionei, uma forma particularmente perigosa de usar falsificações profundas são os ataques de engenharia social. No entanto, se as empresas se encontrarem em situações em que não sabem 100% se foram atacadas ou não, elas devem estabelecer o chamado procedimento de retorno de chama