Cloud security resource

Big techs defendem anthropic e desafiam pentágono sobre uso militar da Ia

Big techs se alinham em defesa da Anthropic e acendem alerta sobre uso militar da IA

Google, Apple e Microsoft, por meio de associações que representam seus interesses, entraram em campo para apoiar a desenvolvedora de inteligência artificial Anthropic em um confronto inédito com o Departamento de Defesa dos Estados Unidos. No centro da disputa estão cláusulas éticas que limitam o uso militar de seus modelos de IA e o temor de que o Pentágono esteja tentando punir a empresa por impor restrições a aplicações consideradas sensíveis.

O caso, que ganhou novos capítulos nesta semana, é visto por especialistas como um possível divisor de águas na relação entre governo, setor de defesa e indústria de tecnologia. A preocupação principal: o risco de se criar um precedente em que empresas que impõem salvaguardas éticas à IA sejam tratadas como ameaça à cadeia de suprimentos de defesa.

Pressão sobre o Pentágono e efeito cascata

O Conselho da Indústria de Tecnologia da Informação (ITI), que reúne gigantes como Google, Apple e Microsoft, enviou uma carta ao Departamento de Defesa expressando “profunda preocupação” com as declarações do secretário de Defesa, Pete Hegseth. Ele teria considerado classificar a Anthropic como risco à cadeia de suprimentos – um rótulo tradicionalmente reservado a fornecedores estrangeiros vistos como potencialmente hostis.

Na avaliação do ITI, rotular uma empresa norte-americana dessa forma poderia desencadear “efeitos em cascata em toda a base industrial de defesa”, afetando relações contratuais, parcerias de longo prazo e a disposição de outras empresas em dialogar com o governo sobre limites éticos no uso de IA. A mensagem central do grupo é clara: punir a Anthropic enviaria um recado negativo a todo o ecossistema tecnológico.

Ex-autoridades de defesa pedem investigação

No dia seguinte, um grupo bipartidário composto por cerca de 30 ex-autoridades de defesa e inteligência reforçou a pressão, desta vez direcionada ao Congresso. Em carta enviada aos Comitês de Serviços Armados do Senado e da Câmara, eles pedem que parlamentares investiguem o que classificam como um “ataque” do Pentágono à Anthropic.

O documento sustenta que a posição da empresa – que traçou “linhas vermelhas” para impedir usos de seus modelos em vigilância doméstica em massa contra cidadãos americanos – está longe de ser radical ou marginal. Pelo contrário, estaria alinhada a princípios básicos de proteção de privacidade e de respeito a direitos civis.

Segundo essas ex-autoridades, permitir que a IA seja usada para monitoramento em larga escala da população, sem salvaguardas robustas, abriria espaço para abusos difíceis de reverter. Daí o tom de alerta na carta: a pressão contra a Anthropic seria um passo na direção errada em termos de governança tecnológica e democrática.

Uso histórico das regras de cadeia de suprimentos é questionado

Críticos do movimento do Pentágono lembram que as chamadas “autoridades de risco da cadeia de suprimentos” foram concebidas para mitigar ameaças vindas, sobretudo, de fornecedores estrangeiros – muitas vezes associados a governos considerados adversários. Usar o mesmo instrumento contra uma empresa americana, que opera abertamente no país, seria um desvio drástico do propósito original dessas normas.

Esse desvio não é visto apenas como problema jurídico, mas como um sinal político: a mensagem implícita seria que quem se recusa a flexibilizar seus parâmetros éticos para fins militares pode ser enquadrado como risco, e não como parceiro estratégico. Para empresas que hoje investem pesado em diretrizes de segurança e responsabilidade em IA, o recado é particularmente incômodo.

A intervenção do senador Ron Wyden

O senador Ron Wyden, democrata do Oregon e uma das vozes mais ativas em temas de privacidade e vigilância governamental, também entrou no debate. Ele enviou cartas aos CEOs da Anthropic, Google, OpenAI e xAI, solicitando esclarecimentos sobre políticas internas relacionadas ao uso de suas tecnologias por agências governamentais, em especial para análise de dados de cidadãos americanos sem autorização judicial.

Wyden afirma que a disputa em torno da Anthropic “parece girar em torno de práticas que podem ser tecnicamente legais, mas violam a privacidade”. Essa distinção – entre o que a lei permite hoje e o que deveria ser considerado aceitável do ponto de vista ético e democrático – é um dos pontos centrais da controvérsia.

Ao acionar várias das principais empresas do setor, o senador também sinaliza que o problema não é apenas um conflito bilateral entre o Pentágono e uma fornecedora específica, mas um debate mais amplo sobre os limites da vigilância algorítmica em uma era de dados massivos e modelos extremamente poderosos.

Desafios práticos para “desconectar” a Anthropic

Mesmo que o governo decida seguir adiante com a eliminação gradual da tecnologia da Anthropic de seu ecossistema, o caminho não é simples. Modelos de IA já estão profundamente integrados a fluxos de trabalho de contratadas de defesa, plataformas de análise de dados e sistemas de apoio à decisão.

Empresas como a Palantir, por exemplo, incorporam IA em diversas camadas de seus produtos usados por órgãos militares, de inteligência e segurança. Se partes dessas soluções dependem de modelos ou ferramentas da Anthropic, separar tudo em poucos meses pode significar reescrever código, substituir APIs, recalibrar modelos e refazer testes de segurança – um processo caro, complexo e sujeito a falhas.

A Casa Branca chegou a determinar que a tecnologia da Anthropic fosse retirada das agências federais em um prazo de seis meses, mas não detalhou como isso será feito na prática. Essa lacuna operacional aumenta a insegurança tanto entre fornecedores quanto entre os próprios órgãos públicos, que podem ter de rever projetos inteiros em função de decisões de curto prazo.

A diferença de abordagem entre Anthropic e concorrentes

Enquanto a Anthropic tenta impor “linhas vermelhas” para usos considerados inaceitáveis, concorrentes adotam posturas mais flexíveis diante das demandas militares. A OpenAI, por exemplo, já firmou um acordo com o Pentágono permitindo que suas tecnologias sejam utilizadas para “todos os fins legais”.

O próprio CEO da OpenAI, Sam Altman, admitiu que o acordo foi fechado às pressas, em meio à pressão para não perder espaço no lucrativo mercado de contratos governamentais. Na prática, isso ilustra uma divergência de estratégia: algumas empresas preferem estabelecer cláusulas amplas e depois negociar caso a caso; outras, como a Anthropic, tentam cravar limitações explícitas logo na origem.

Essa diferença aumenta a tensão competitiva: se empresas mais rígidas em termos éticos são punidas ou excluídas de licitações, o mercado tende a favorecer quem faz menos perguntas sobre o uso final da tecnologia. Para críticos, esse é um incentivo perigoso à “corrida para o fundo do poço” em matéria de responsabilidade.

Por que o precedente preocupa todo o setor de tecnologia

O temor das big techs não se resume a solidariedade corporativa. O que está em jogo é a capacidade da indústria de definir e aplicar, por conta própria, salvaguardas éticas para tecnologias que têm potencial de uso dual – civil e militar. Se a mensagem do governo for de que limites éticos atrapalham e serão punidos, muitas empresas podem optar por não formalizar políticas restritivas, mesmo que internamente considerem certos usos problemáticos.

Isso impacta diretamente o desenvolvimento de IA responsável. Modelos avançados de linguagem e visão computacional podem ser empregados tanto em diagnósticos médicos quanto em sistemas de seleção de alvos ou vigilância persistente. Sem regras claras e coerentes, a tendência é que interesses de curto prazo – como fechar contratos multimilionários – se sobreponham a preocupações de longo prazo com direitos humanos e estabilidade social.

O papel da privacidade e dos direitos civis

No coração da briga está uma questão que vai além da tecnologia: até que ponto um governo democrático pode usar ferramentas de inteligência artificial para monitorar sua própria população? O receio de ex-autoridades e legisladores é que a combinação de dados massivos, algoritmos de correlação e poder computacional permita um nível de vigilância antes inimaginável, muitas vezes sem o escrutínio público adequado.

A discussão sobre “vigilância doméstica em massa” remete a debates que já ocorreram em torno de interceptações telefônicas, coleta de metadados e programas de espionagem digital. A diferença agora é a escala e a precisão: sistemas de IA podem identificar padrões, prever comportamentos e classificar indivíduos em risco com base em sinais sutis e correlacionados, o que amplia tanto a eficácia quanto o potencial de erro e abuso.

Impactos para inovação e clima de negócios

Outro ponto sensível é o efeito sobre o clima de inovação. Startups e laboratórios de pesquisa dependem, em grande medida, de previsibilidade regulatória e de confiança de investidores. Se o recado institucional for de que o governo pode rotular uma empresa americana de risco à segurança por divergências sobre cláusulas éticas, muitos investidores podem recuar de projetos mais ousados em governança de IA.

Além disso, parcerias público-privadas, consideradas essenciais para que democracias acompanhem o ritmo de inovação de regimes autoritários, podem se deteriorar. Sem confiança mútua, empresas hesitam em compartilhar conhecimento, participar de programas conjuntos ou testar novas abordagens de segurança com o Estado.

Caminhos possíveis para uma saída negociada

Especialistas apontam que há espaço para uma solução mais equilibrada, que não exija nem a submissão total das empresas às vontades do complexo militar, nem a exclusão pura e simples de fornecedores que defendem limites éticos. Uma alternativa seria a criação de um marco regulatório mais claro para o uso de IA pelo governo, incluindo:

– regras específicas para vigilância doméstica e análise de dados de cidadãos;
– exigência de autorização judicial ou supervisão independente para determinados tipos de uso;
– comitês mistos envolvendo governo, academia, sociedade civil e indústria para avaliar casos de alto impacto;
– transparência mínima sobre contratos e finalidades de uso, respeitando o sigilo necessário em temas de segurança nacional.

Nesse cenário, cláusulas como as defendidas pela Anthropic poderiam ser integradas a um padrão setorial, em vez de vistas como obstáculo isolado.

O que observar nos próximos meses

Os próximos passos do Congresso dos EUA, a reação do Pentágono às cartas de pressão e a implementação – ou revisão – da decisão da Casa Branca de banir a Anthropic de agências federais serão decisivos. Eles indicarão se o episódio será um ponto fora da curva ou o início de uma linha dura contra empresas que tentam impor restrições éticas à IA.

Ao mesmo tempo, movimentos de outras big techs serão reveladores. Se mais empresas passarem a explicitar “linhas vermelhas” para uso militar e governamental, a pressão sobre o Pentágono tende a crescer. Se, ao contrário, prevalecer o silêncio e a busca por contratos a qualquer custo, o caso Anthropic pode servir como exemplo de risco para quem tenta nadar contra a corrente.

Em última instância, a disputa não trata apenas de uma empresa ou de um contrato específico, mas de qual modelo de relação entre Estado, tecnologia e sociedade vai prevalecer na era da inteligência artificial: um modelo orientado por princípios e limites claros, ou um arranjo em que o poder de vigilância e uso de dados cresce mais rápido do que a capacidade de controlá-lo.