Microsoft Processa Ação Judicial Contra Grupo por Exploração de Ferramentas de IA
A Microsoft tomou medidas legais contra um grupo que, segundo a empresa, desenvolveu e utilizou ferramentas com o intuito de contornar as proteções de segurança dos seus produtos de IA na nuvem.
De acordo com uma denúncia apresentada em dezembro de 2024 no Tribunal Distrital dos EUA para o Leste da Virgínia, um grupo de 10 réus não identificados, alegadamente, usou credenciais de clientes roubadas e softwares personalizados para acessar o Azure OpenAI Service, o serviço totalmente gerenciado da Microsoft, baseado nas tecnologias da OpenAI.
Acusações e Violação de Leis
Na queixa, a Microsoft acusa os réus—que são referidos apenas como “Does”, um pseudônimo legal—de violarem a Lei de Fraude e Abuso de Computadores, a Lei de Copyright do Milênio Digital e uma lei federal sobre organizações criminosas. A denúncia afirma que os réus acessaram e utilizaram seus softwares e servidores de forma ilícita para criar conteúdos “ofensivos” e “perigosos”. Detalhes específicos sobre esses conteúdos gerados não foram fornecidos pela Microsoft.
A empresa está buscando medidas cautelares e compensações financeiras.
Investigação e Descobertas
A Microsoft revelou que, em julho de 2024, descobriu que credenciais do Azure OpenAI Service—especificamente chaves de API, que são sequências únicas de caracteres usadas para autenticar um aplicativo ou usuário—estavam sendo utilizadas para gerar conteúdos que violavam a política de uso aceitável do serviço. Após investigar, a empresa descobriu que as chaves de API haviam sido roubadas de clientes pagantes.
“A maneira precisa pela qual os réus obtiveram todas as chaves de API utilizadas na má conduta descrita nesta queixa é desconhecida”, afirma a denúncia da Microsoft.
Além disso, a Microsoft alegou que os réus usaram chaves de API roubadas para criar um esquema de “hacking como serviço”. Para isso, desenvolveram uma ferramenta chamada de3u, além de software para processar e redirecionar comunicações entre o de3u e os sistemas da Microsoft.
Funcionalidades do De3u e Medidas da Microsoft
O de3u permitiu que os usuários utilizassem as chaves de API roubadas para gerar imagens com o DALL-E, um dos modelos da OpenAI disponível para clientes do Azure OpenAI Service, sem precisar programar. A ferramenta também tentou evitar que o Azure OpenAI Service revisasse os comandos utilizados para gerar as imagens, o que poderia ocorrer, por exemplo, quando um comando contivesse palavras que acionassem o filtro de conteúdo da Microsoft.
Infelizmente, o repositório que continha o código do projeto de3u, hospedado no GitHub—uma empresa adquirida pela Microsoft—não estava acessível no momento da reportagem.
A Microsoft afirmou que as funcionalidades do de3u, combinadas com o acesso programático não autorizado ao serviço Azure OpenAI, permitiram que os réus usassem métodos de engenharia reversa para contornar as medidas de segurança da Microsoft.
A Iniciativa da Microsoft e o Progresso Legal
Em uma postagem de blog, a Microsoft informou que o tribunal autorizou a apreensão de um site “instrumental” para as operações dos réus, permitindo à empresa reunir evidências, descobrir como os serviços alegados eram monetizados e interromper qualquer infraestrutura técnica adicional que encontrasse.
Além disso, a empresa anunciou que implementou “contra-medidas”—sem especificar quais—e “adicionou mitigadores de segurança adicionais” ao Azure OpenAI Service em resposta às atividades que observou.
Reflexões Finais
Essas alegações ressaltam a crescente preocupação com a segurança das ferramentas de IA e a importância de proteger os dados dos usuários. A Microsoft pode estar dando um passo significativo na proteção de seus usuários e na responsabilização de quem tenta contornar as normas.