Desenvolvedores de IA Buscam Equilíbrio em Colaboração com o Pentágono
Os principais desenvolvedores de inteligência artificial, como OpenAI e Anthropic, estão em uma posição delicada ao vender software para o exército dos Estados Unidos: eles precisam tornar o Pentágono mais eficiente sem permitir que suas IAs ataquem pessoas.
No momento, as ferramentas de IA não estão sendo usadas como armas, mas estão proporcionando ao Departamento de Defesa uma “vantagem significativa” na identificação, rastreamento e avaliação de ameaças. Isso foi afirmado pela Dra. Radha Plumb, chefe digital e de IA do Pentágono, em uma entrevista ao TechCrunch.
“Estamos aumentando as maneiras de acelerar a execução da cadeia de eliminação, para que nossos comandantes possam responder a tempo e proteger nossas forças”, disse Plumb.
O Que é a ‘Cadeia de Eliminação’?
A “cadeia de eliminação” refere-se ao processo militar de identificar, rastrear e eliminar ameaças, envolvendo um sistema complexo de sensores, plataformas e armas. A IA generativa está se mostrando útil nas fases de planejamento e estratégia da cadeia de eliminação, segundo Plumb.
O relacionamento entre o Pentágono e os desenvolvedores de IA é relativamente novo. Em 2024, OpenAI, Anthropic e Meta alteraram suas políticas de uso para permitir que agências de inteligência e defesa dos EUA utilizassem seus sistemas de IA, mantendo, porém, a proibição de seus sistemas causarem danos a seres humanos.
“Ficamos muito claros sobre o que podemos e não podemos usar das tecnologias deles”, destacou Plumb, quando questionada sobre a parceria com provedores de modelos de IA.
Parcerias Estratégicas
Essa abertura deu início a uma corrida por parcerias entre empresas de IA e contratantes de defesa.
- A Meta se uniu à Lockheed Martin e Booz Allen, entre outros, para integrar seus modelos Llama a agências de defesa.
- No mesmo mês, Anthropic se juntou à Palantir.
- Em dezembro, a OpenAI fez um acordo semelhante com a Anduril.
- Além disso, a Cohere também tem feito parcerias silenciosas com a Palantir.
Com a IA generativa mostrando sua utilidade no Pentágono, isso pode incentivar o Vale do Silício a flexibilizar suas políticas de uso de IA e permitir mais aplicações militares.
“Simular diferentes cenários é algo em que a IA generativa pode ser útil”, disse Plumb. “Ela permite que você aproveite toda a gama de ferramentas disponíveis para nossos comandantes, além de pensar criativamente sobre diferentes opções de resposta e potenciais compensações em um ambiente de ameaça.”
Limites e Ética da IA
Não está claro qual tecnologia o Pentágono está usando, pois a utilização de IA generativa na cadeia de eliminação parece violar as políticas de uso de vários desenvolvedores de modelos de destaque. Por exemplo, a política da Anthropic proíbe o uso de seus modelos para criar ou modificar “sistemas projetados para causar danos ou perda de vidas humanas”.
Em resposta a questionamentos, a Anthropic direcionou o TechCrunch para uma entrevista recente de seu CEO, Dario Amodei, no Financial Times, onde ele defendeu o trabalho militar:
“A posição de que nunca devemos usar IA em configurações de defesa e inteligência não faz sentido para mim. A ideia de que devemos usá-la sem limites — incluindo para armas de destruição em massa — é igualmente absurda. Estamos tentando buscar um meio-termo e fazer as coisas de maneira responsável.”
Debate sobre Armas de IA
Nos últimos meses, surgiu um debate na tecnologia de defesa sobre se armas de IA deveriam ser realmente autorizadas a tomar decisões de vida ou morte. Alguns argumentam que o exército dos EUA já possui armas que fazem isso.
O CEO da Anduril, Palmer Luckey, destacou recentemente que o exército dos EUA tem uma longa história de compra e uso de sistemas de armas autônomos.
“O DoD tem adquirido e utilizado sistemas de armas autônomos há décadas. Seu uso e exportação são bem compreendidos, bem definidos e explicitamente regulamentados por regras que não são de forma alguma voluntárias”, afirmou Luckey.
Porém, a Dra. Plumb rejeitou a ideia de que o Pentágono compre armas totalmente autônomas. “Não, a resposta é curta”, disse ela. “Por questões de confiabilidade e ética, sempre teremos humanos envolvidos na decisão de usar a força, inclusive em nossos sistemas de armas.”
Segurança da IA no Pentágono
As parcerias militares nem sempre foram bem recebidas por funcionários do Vale do Silício. No ano passado, dezenas de colaboradores da Amazon e Google foram demitidos e presos após protestarem contra os contratos militares de suas empresas com Israel.
Comparativamente, a resposta da comunidade de IA tem sido relativamente contida. Alguns pesquisadores de IA, como Evan Hubinger, da Anthropic, afirmam que o uso de IA em militarizações é inevitável, e é crucial trabalhar diretamente com o exército para garantir que tudo seja feito corretamente.
“Se você leva a sério os riscos catastróficos da IA, o governo dos EUA é um ator extremamente importante com quem envolver-se. Tentar bloquear o governo dos EUA de usar IA não é uma estratégia viável.”
Em resumo, as interações entre o desenvolvimento de IA e o setor militar continuam a evoluir. Com a tecnologia se tornando cada vez mais presente, será essencial garantir que seu uso ocorra de forma ética e responsável.