Anthropic Contesta Pentágono sobre Risco de Segurança Nacional
AI & Futuro

Anthropic Contesta Pentágono sobre Risco de Segurança Nacional

Numa reviravolta judicial, a Anthropic apresentou declarações juramentadas contestando as alegações do Pentágono de que a empresa de IA representa um risco inaceitável para a segurança nacional. A empresa argumenta que o caso do governo se baseia em mal-entendidos técnicos e afirmações nunca levantadas durante as negociações. O diferendo sublinha o crescente debate sobre o uso militar da IA e a sua governança ética, um tópico de relevância global.

6 min de leitura

A Anthropic, uma das principais empresas no desenvolvimento de inteligência artificial, submeteu na passada sexta-feira à tarde duas declarações juramentadas a um tribunal federal na Califórnia, nos Estados Unidos, refutando veementemente a posição do Pentágono de que a empresa representa um “risco inaceitável para a segurança nacional”. A ação judicial surge em resposta à alegação do Departamento de Defesa, com a Anthropic a argumentar que o caso do governo se baseia em equívocos técnicos e em afirmações que nunca foram levantadas durante os meses de negociações que precederam esta disputa. Estes documentos foram apresentados juntamente com a contramemória da Anthropic no seu processo contra o Departamento de Defesa, antecipando uma audição agendada para esta terça-feira, 24 de março de 2026, perante a Juíza Rita Lin em São Francisco.

Detalhes Técnicos e Contradições nas Negociações

O cerne da disputa remonta a finais de fevereiro, quando o então Presidente Trump e o Secretário de Defesa Pete Hegseth declararam publicamente que estavam a cortar laços com a Anthropic, após a recusa da empresa em permitir o uso militar irrestrito da sua tecnologia de IA. As declarações foram submetidas por Sarah Heck, Diretora de Políticas da Anthropic, e Thiyagu Ramasamy, Diretor do Setor Público da empresa. Heck, uma ex-oficial do Conselho de Segurança Nacional que serviu na Casa Branca sob a administração Obama, desmonta o que descreve como uma falsidade central nas alegações do governo: a de que a Anthropic exigiria algum tipo de papel de aprovação sobre operações militares. “Em momento algum, durante as negociações da Anthropic com o Departamento, eu ou qualquer outro funcionário da Anthropic afirmámos que a empresa queria esse tipo de papel”, escreveu.

Heck também revela que a preocupação do Pentágono sobre a potencial capacidade da Anthropic de desativar ou alterar a sua tecnologia a meio de uma operação nunca foi levantada durante as negociações, surgindo pela primeira vez nos documentos judiciais do governo, sem oportunidade de resposta para a empresa. Um detalhe particularmente intrigante na declaração de Heck é a revelação de um e-mail de 4 de março — o dia seguinte à formalização da designação de risco na cadeia de abastecimento contra a Anthropic — no qual o Subsecretário Emil Michael comunicou ao CEO da Anthropic, Dario Amodei, que as duas partes estavam “muito próximas” nos dois pontos que o governo agora cita como prova de que a Anthropic é uma ameaça à segurança nacional: as suas posições sobre armas autónomas e a vigilância em massa de cidadãos americanos. Este e-mail contrasta fortemente com declarações públicas subsequentes de Michael, que numa semana posterior afirmou que “não havia negociações ativas com a Anthropic” e que “não havia hipótese” de retomar as conversações. A linha argumentativa de Heck sugere que, se a postura da Anthropic sobre esses dois temas é o que a torna uma ameaça, é contraditório que um oficial do Pentágono indicasse um alinhamento quase total logo após a formalização da designação de risco.

Precisa de Ajuda com a Sua Presença Digital?

Oferecemos Web Design, E-commerce, Automação e Consultoria para negócios em Portugal. Qualidade premium, preços justos.

Websites profissionais desde €500
Lojas online completas
Automação de processos
SEO e marketing digital
Ver Serviços

Por seu lado, Thiyagu Ramasamy traz uma perspetiva técnica crucial. Antes de se juntar à Anthropic em 2025, Ramasamy passou seis anos na Amazon Web Services, gerindo implementações de IA para clientes governamentais, incluindo ambientes classificados. Na Anthropic, ele foi responsável por construir a equipa que levou os modelos Claude da empresa para ambientes de segurança nacional e defesa, incluindo um contrato de 200 milhões de dólares com o Pentágono. A sua declaração refuta a alegação do governo de que a Anthropic poderia, teoricamente, interferir com operações militares desativando a tecnologia ou alterando o seu comportamento. Ramasamy explica que, uma vez que o Claude é implementado num sistema seguro do governo, um ambiente ‘air-gapped’ operado por um terceiro contratado, a Anthropic não tem acesso ao mesmo. Não existe um mecanismo de desligamento remoto, uma porta dos fundos, nem qualquer mecanismo para enviar atualizações não autorizadas. Qualquer tipo de “veto operacional” é uma ficção, sublinha, explicando que uma alteração ao modelo exigiria a aprovação explícita e a ação do Pentágono para ser instalada. A Anthropic, afirma, nem sequer consegue ver o que os utilizadores governamentais estão a digitar no sistema, muito menos extrair esses dados. Ramasamy também contesta a alegação de que a contratação de cidadãos estrangeiros pela Anthropic constitui um risco de segurança, notando que os funcionários da empresa passaram por verificações de segurança do governo dos EUA, o mesmo processo exigido para acesso a informações classificadas. Acrescenta que, “pelo que sabe”, a Anthropic é a única empresa de IA onde o pessoal com autorização de segurança construiu os modelos de IA concebidos para operar em ambientes classificados.

O Impacto Europeu no Debate sobre Governança da IA

Embora este litígio seja intrinsecamente americano, as questões levantadas pela disputa entre a Anthropic e o Pentágono ressoam profundamente na Europa. O debate sobre o uso militar da inteligência artificial, a sua segurança e a necessidade de governança ética são temas centrais para a União Europeia, que tem estado na vanguarda da regulamentação da IA com iniciativas como a Lei da IA da UE. As preocupações com “riscos inaceitáveis para a segurança nacional” e o “uso irrestrito” de tecnologias de IA, bem como as considerações sobre armas autónomas e vigilância em massa, são dilemas universais. A forma como este caso se desenrola nos EUA pode influenciar as discussões globais sobre os limites da IA em setores sensíveis e reforçar a necessidade de quadros regulamentares robustos que garantam transparência, responsabilidade e proteção contra usos indevidos da tecnologia, independentemente da sua origem. A Europa monitoriza de perto estes desenvolvimentos, procurando equilibrar a inovação com a segurança e a ética no avanço da inteligência artificial.

Mantenha-se Atualizado

Receba as últimas notícias tech diretamente no seu email. Sem spam, apenas conteúdo relevante.

Implicações para o Mercado Tecnológico Português

Para Portugal, enquanto membro da União Europeia, as implicações deste caso refletem-se na crescente atenção à governança da inteligência artificial e aos seus potenciais impactos na segurança e na sociedade. Embora não haja uma ligação comercial direta neste artigo, a forma como os grandes ‘players’ de IA lidam com questões de ética, segurança nacional e controlo governamental molda o ecossistema tecnológico global. Empresas e investigadores portugueses no campo da IA estarão atentos aos precedentes estabelecidos, especialmente no que diz respeito à conformidade e responsabilidade no desenvolvimento de IA de dupla utilização. A necessidade de transparência nas relações entre empresas tecnológicas e governos, e a definição clara de limites para a aplicação de IA em cenários sensíveis, são cruciais para a confiança pública e para o desenvolvimento sustentável da inovação em Portugal, em linha com os princípios da Lei da IA da UE que visa proteger os cidadãos e promover um ambiente tecnológico seguro e justo.

Tem um Projeto em Mente?

Transformamos ideias em realidade digital. Fale connosco e descubra como podemos ajudar o seu negócio a crescer online.

Resposta garantida em 24 horas • Orçamento sem compromisso