Antes do próximo AI Safety Summit realizado no famoso Bletchley Park, no Reino Unido, em novembro, eu quis destacar três áreas que gostaria que fossem abordadas no evento, para ajudar a simplificar o complexo cenário regulatório da IA.
Quando iniciamos qualquer conversa sobre os riscos e possíveis casos de uso de uma tecnologia de inteligência artificial (IA) ou de machine learning (ML), precisamos ser capazes de responder a três perguntas fundamentais:
- Quais modelos de IA estão sendo usados?
- Quais dados estão sendo inseridos neles?
- Quais são os resultados que eles produzem?
Discuti essas questões em um episódio recente do podcast Security Visionaries, da Netskope com Yihua Liao, Head of Netskope AI Labs, e Suzanne Oliver, Director of IP Strategy da Scintilla. Tivemos uma conversa animada sobre transparência, dados, responsabilidade e regulamentação nesse complexo cenário de IA.
Transparência e modelos
Antes de falarmos sobre IA, primeiro precisamos ser claros quanto ao que estamos falando - começando pela diferenciação entre tecnologias, especificamente inteligência artificial (IA) e machine learning (ML). Conforme a cobertura da mídia se concentrou no ChatGPT, nos encontramos em um cenário confuso em que muitas pessoas confundem o ChatGPT com inteligência artificial ou machine learning, da mesma forma que confundimos o Google e os mecanismos de busca.
Entender o modelo que está sendo usado é um elemento essencial devido ao seu potencial de pegar exatamente o mesmo conjunto de dados e tirar conclusões totalmente diferentes com base nos seus preconceitos - conscientes ou inconscientes - que estão enraizadas desde o início. Mais importante ainda é que, sem uma compreensão clara do modelo, uma empresa não pode determinar se os resultados da plataforma se enquadram em seus próprios critérios de risco e ética.
Ao considerar as regulamentações sobre modelos específicos, atualmente há pouca coisa que pode influenciar o processo ou os algoritmos em si, mas devemos estar atentos às regulamentações sobre os eventuais resultados. Por exemplo, uma ferramenta de RH que usa machine learning para selecionar candidaturas a empregos poderia colocar uma empresa em risco de ser alvo da legislação sobre discriminação sem esforços rigorosos para reduzir a parcialidade. Da mesma forma, uma ferramenta de machine learning que possa identificar imagens de passaportes, carteiras de motorista e cartões de crédito estará sujeita às regulamentações de dados pessoais.
Com tanta variação nos modelos de IA e ML, surge o questionamento para saber se os órgãos reguladores poderiam ajudar a padronizar os parâmetros de risco para esses modelos, a fim de dar ao setor maior segurança ao integrar uma solução. Por exemplo, no setor automotivo, temos níveis de autonomia claramente definidos para veículos sem motorista, permitindo que as montadoras inovem dentro de um conjunto confortável de parâmetros. Como a IA está em um espectro tão amplo, que inclui desde o processamento de dados de ML até a IA generativa, talvez haja uma oportunidade interessante para os órgãos reguladores trazerem clareza para um setor tão complexo.
Supply chain de dados de IA
Antes que os órgãos reguladores entrem em ação para descobrir como poderiam controlar o desenvolvimento e o uso da IA, devemos primeiro dar uma olhada em como as regulamentações existentes poderiam ser aplicadas à IA.
As ferramentas de IA e de machine learning são altamente dependentes de uma suplly chain de dados confiável e os líderes de TI e segurança já estão trabalhando para garantir a conformidade com uma série de legislações de dados – e nadando entre acrônimos como HIPAA, GLBA, COPPA, CCPA e GDPR. Desde a introdução da GDPR em 2018, os CISOs e os líderes de TI são obrigados a deixar claro quais dados coletam, processam e armazenam, e para qual finalidade, com estipulações sobre os direitos dos usuários individuais de controlar o uso de seus dados. Os líderes têm se preocupado, com razão, sobre como a implantação de ferramentas de IA e ML afetaria sua capacidade de atender a esses requisitos regulamentares existentes.
As empresas estão pedindo aos órgãos reguladores e às empresas de IA a mesma coisa: clareza. Clareza sobre como as regulamentações existentes serão aplicadas às ferramentas de IA e - se isso mudar - como isso afeta seu status como processadores de dados. As empresas de IA devem se esforçar ao máximo para serem transparentes com os clientes por meio de contratos de parceria e termos de serviço sobre como suas ferramentas estão em conformidade com as regulamentações existentes, especialmente em relação aos dados coletados, como eles são armazenados ou processados e os mecanismos para que os clientes restrinjam essas ações.
Desenvolvimento responsável
Ao invés de esperar que os órgãos reguladores esclareçam o cenário da IA, os líderes de tecnologia podem promover a autorregulação e adoção de práticas éticas de IA em suas organizações para garantir que os resultados das tecnologias de IA sejam seguros e benéficos para a sociedade. Muitas empresas já publicaram seus próprios princípios orientadores para o uso responsável da IA, e eles compartilham muitos temas consistentes de responsabilidade, confiabilidade, justiça, transparência, privacidade e segurança.
Se ainda não o fizeram, os líderes de tecnologia devem agir agora para avaliar as implicações da incorporação da IA em seus produtos. As empresas devem criar comitês internos de governança para discutir a ética da IA, avaliar ferramentas e suas aplicações em seus próprios negócios, revisar processos e discutir estratégias antes de uma regulamentação mais ampla.
Embora aparentemente não seja o foco do próximo AI Safety Summit, a criação de um órgão regulador (semelhante à Agência Internacional de Energia Atômica (IAEA) ou à Agência Europeia de Medicamentos (EMA) ajudaria muito a estabelecer uma estrutura global para regulamentar a IA. Esse órgão poderia ajudar a padronizar e definir os critérios para avaliações contínuas de ferramentas para garantir que elas sigam esses padrões à medida que os modelos aprendem e crescem.
Um futuro inteligente
Embora a IA tenha o potencial de transformar nossas vidas, isso não pode ocorrer às custas dos princípios fundamentais sobre direitos de dados e privacidade que temos hoje. Os órgãos reguladores precisam encontrar um equilíbrio delicado que proteja os indivíduos sem impedir a inovação.
Depois que os líderes do governo e do setor se reunirem em Bletchley Park, o primeiro resultado que eu gostaria de ver é uma maior ênfase em trazer transparência ao atual cenário da IA. Em vez de confiar na boa vontade e nos códigos de conduta voluntários, as empresas de IA devem ser obrigadas a ser transparentes em relação aos modelos e as tecnologias por trás de suas ferramentas. Isso permitirá que as empresas e os clientes tomem decisões mais conscientes em sua adoção e lhes dará maior autonomia sobre seus dados.