Os Estados Unidos preparam novas regras para contratos civis envolvendo inteligência artificial, exigindo que empresas do setor permitam o uso de seus modelos para “qualquer finalidade legal” por parte do governo. As diretrizes surgem após o impasse entre o Pentágono e a Anthropic.
De acordo com uma versão preliminar das regras, divulgadas pelo Financial Times, desenvolvedoras que desejarem fornecer sistemas de IA ao governo americano terão de conceder uma licença irrevogável para utilizar suas tecnologias em todas as aplicações consideradas legais.
As orientações foram elaboradas pela Administração de Serviços Gerais (GSA), órgão responsável por coordenar compras e contratos para a administração pública. Embora as regras se destinem inicialmente a contratos civis, o modelo pode influenciar diretrizes semelhantes em acordos ligados ao setor militar.
Pentágono x Anthropic
O debate ocorre após uma decisão recente do Departamento de Defesa (agora Departamento de Guerra) envolvendo a Anthropic. Na quinta-feira (5), o Pentágono classificou a empresa como um “risco para a cadeia de suprimentos”.
A medida foi tomada depois de um desacordo entre a desenvolvedora e o governo. Segundo autoridades americanas, a Anthropic insistiu em adotar medidas de segurança consideradas excessivamente restritivas, o que teria dificultado o uso da tecnologia em aplicações governamentais.
Por outro lado, a Anthropic expressou preocupações acerca do uso de seu chatbot, o Claude, em aplicações voltadas para vigilância em massa de cidadãos americanos e armas autônomas. A empresa se recusou a flexibilizar suas regras para se adequar ao Pentágono, resultando na quebra da parceria. O Olhar Digital deu detalhes aqui.
Em paralelo, a GSA decidiu encerrar o contrato da empresa no programa OneGov, que disponibiliza ferramentas de software para órgãos dos poderes Executivo, Legislativo e Judiciário por meio de acordos previamente negociados.
Novas regras vêm depois do desacordo entre Anthropic e Pentágono (Imagem: Keith J Finks/Shutterstock)
Novas exigências dos EUA para empresas de IA
O rascunho das diretrizes também estabelece regras sobre o comportamento dos sistemas de inteligência artificial fornecidos ao governo. Entre os pontos previstos está a exigência de que os contratados não incluam deliberadamente vieses partidários ou ideológicos nas respostas geradas pelos modelos.
Além disso, as empresas terão de informar se seus sistemas foram adaptados ou configurados especificamente para atender a regulamentações ou exigências de conformidade fora do governo federal dos EUA.
As novas regras fazem parte de uma iniciativa da administração para ampliar o uso de IA no setor público, ao mesmo tempo em que tenta estabelecer padrões para segurança, neutralidade e disponibilidade dessas tecnologias. A Casa Branca não comentou publicamente o assunto até o momento.
A rede social X está investigando o funcionamento do seu chatbot de inteligência artificial, o Grok, após relatos de que a ferramenta estaria gerando publicações com conteúdos racistas e ofensivos. As informações foram divulgadas pela Sky News neste domingo (8).
De acordo com o repórter Rob Harris, da Sky News, as equipes de segurança do X trabalham com urgência para entender como o chatbot, desenvolvido pela empresa xAI, gerou mensagens de ódio em resposta a comandos feitos por usuários.
Histórico de Restrições
Esta não é a primeira vez que as ferramentas da xAI, empresa de Elon Musk, passam por vistorias. Governos e órgãos reguladores em diversos países têm pressionado a plataforma para criar barreiras contra conteúdos ilegais ou sexualmente explícitos gerados pela inteligência artificial.
Em resposta a essas pressões, a xAI já havia anunciado algumas mudanças em janeiro:
Edição de imagens: A empresa restringiu as opções de edição de fotos para os usuários do Grok.
Bloqueio por localização: Usuários em determinadas regiões foram impedidos de gerar imagens de pessoas com roupas reveladoras.
Segurança local: Essas restrições foram aplicadas em locais onde esse tipo de conteúdo é considerado ilegal, embora a empresa não tenha listado quais seriam esses países.
Próximos Passos
Até o momento, nem o X nem a xAI responderam oficialmente aos pedidos de comentário sobre a nova investigação. A Reuters informou que ainda não foi possível verificar de forma independente o vídeo citado na reportagem da Sky News.
As investigações atuais fazem parte de um movimento global de autoridades que buscam exigir salvaguardas e punições para conter a disseminação de materiais impróprios gerados por IA.
A disputa entre duas das empresas mais influentes do setor de inteligência artificial (IA) — OpenAI e Anthropic — vem ganhando contornos cada vez mais pessoais e públicos, envolvendo seus líderes, Sam Altman e Dario Amodei, e levantando questionamentos sobre como a tecnologia será desenvolvida e utilizada nos próximos anos.
O episódio mais recente dessa rivalidade surgiu em meio a negociações com o Pentágono e expôs diferenças profundas entre as empresas sobre segurança, regulação e o uso militar da IA.
Rivalidade visível até em eventos públicos
A tensão entre Altman e Amodei chegou a se manifestar em um encontro recente com líderes de tecnologia na Índia;
Durante uma foto oficial com o primeiro-ministro do país, outros executivos deram as mãos em sinal de união — mas os dois rivais evitaram qualquer contato físico, limitando-se a um constrangido toque de cotovelos;
Para muitos observadores, a cena simbolizou a rivalidade crescente entre duas companhias que disputam usuários, talentos e investidores, especialmente em um momento em que ambas avaliam abrir capital ainda este ano;
Conflitos entre gigantes da tecnologia não são novidade no Vale do Silício. A história do setor inclui disputas, como Steve Jobs contra Bill Gates, Apple contra Samsung e Uber contra Lyft. Há ainda confrontos frequentes envolvendo Elon Musk e figuras, como Jeff Bezos e Mark Zuckerberg;
Embora rivalidades desse tipo muitas vezes estimulem inovação e concorrência, analistas alertam que a disputa entre OpenAI e Anthropic envolve um risco adicional: ambas concentram enorme influência sobre uma tecnologia ainda emergente, cujo impacto potencial é global.
Anthropic: origem da divisão da OpenAI
A Anthropic nasceu em 2021 justamente a partir de preocupações sobre segurança no desenvolvimento da IA. Amodei, então vice-presidente de pesquisa da OpenAI, deixou a empresa após questionar a rapidez com que a tecnologia estava sendo comercializada.
Ele levou consigo vários pesquisadores para fundar a nova companhia, estruturada como uma organização com fins lucrativos que afirma seguir padrões específicos de impacto social e responsabilidade.
As diferenças de visão entre os líderes são frequentemente apontadas como um dos motores da rivalidade. Altman é visto como um negociador agressivo, disposto a fechar grandes acordos para acelerar o crescimento da OpenAI. Já Amodei adota uma postura mais cautelosa e frequentemente alerta para riscos da tecnologia, como possíveis perdas massivas de empregos — comparáveis às da Grande Depressão.
Dario Amodei já criticou Sam Altman e a OpenAI em memorando interno (Imagem: Thrive Studios ID/Shutterstock)
Crescimento acelerado da Anthropic
Durante anos, a OpenAI parecia ter uma vantagem confortável na corrida para levar a IA ao grande público. A empresa criou o aplicativo de consumo com crescimento mais rápido da história da tecnologia, acumulou mais de US$ 100 bilhões (R$ 524,4 bilhões) em caixa e firmou parcerias com grandes empresas de computação.
Nos últimos meses, porém, o cenário começou a mudar. A Anthropic conquistou milhares de grandes empresas como clientes e mais que dobrou sua previsão de receita anual, passando de US$ 9 bilhões (R$ 47,2 bilhões) para US$ 19 bilhões (R$ 99,6 bilhões). Em alguns círculos da indústria, sua tecnologia também passou a ser considerada a mais avançada entre as concorrentes.
Segundo o investidor de capital de risco Siri Srinivas, mudanças de narrativa no setor estão acontecendo cada vez mais rápido. “Levava anos para surgir uma história sobre uma empresa. Agora, as narrativas mudam em meses”, disse ao The New York Times.
A corrida pelo domínio da IA também inclui planos de abertura de capital. De acordo com pessoas familiarizadas com o assunto que conversaram com o The Wall Street Journal, a Anthropic pretende realizar seu IPO antes da OpenAI, o que poderia dar à empresa uma vantagem inicial com investidores.
Situação semelhante ocorreu em 2019, quando a Lyft buscou abrir capital antes da Uber em meio à disputa entre as duas companhias de transporte por aplicativo.
A rivalidade atingiu um novo patamar quando a Anthropic entrou em choque com o Departamento de Defesa dos Estados Unidos.
Durante negociações para contratos governamentais, a empresa tentou incluir cláusulas que impediriam o uso de sua IA em sistemas de armas autônomas e em vigilância doméstica em larga escala. Autoridades do Pentágono reagiram negativamente. Segundo o chefe de tecnologia do departamento, Emil Michael, cabe ao governo decidir como o Exército utiliza tecnologia. “Tem que ser nossa escolha”, afirmou.
Após Amodei se recusar a retirar essas condições, o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um “risco na cadeia de suprimentos”, o que impede o uso de sua tecnologia em contratos de defesa.
Poucas horas depois de as negociações entre Anthropic e o Pentágono fracassarem, Altman anunciou que a OpenAI havia fechado seu próprio acordo com o Departamento de Defesa. A decisão provocou forte reação pública. Funcionários de tecnologia e usuários elogiaram a Anthropic por manter sua posição contra o uso da IA em vigilância e armamentos autônomos.
Manifestantes também se reuniram diante da sede da OpenAI, escrevendo mensagens como “Sem armas de IA” e “Quais são suas linhas vermelhas?” na calçada. Nas redes sociais, a hashtag “#FireSamAltman” (demita Sam Altman, em tradução livre) chegou a se tornar tendência.
Em contraste, apoiadores deixaram mensagens encorajadoras na sede da Anthropic, incluindo frases como “DEUS AMA A ANTHROPIC” e “VOCÊS NOS ENCORAJAM”.
Memorando interno da Anthropic e troca de acusações
Em um memorando interno divulgado posteriormente, Amodei criticou duramente a OpenAI e acusou a empresa de agir de forma enganosa. “Quero ser muito claro sobre as mensagens que estão vindo da OpenAI e a natureza mentirosa disso. Este é um exemplo de quem eles realmente são”, escreveu.
Ele também afirmou que a Anthropic perdeu o contrato porque se recusou a oferecer “elogios ao estilo de ditadores” ao governo de Donald Trump, algo que alegou que Altman estaria disposto a fazer. Após a repercussão pública do documento, Amodei pediu desculpas pelo tom da mensagem e afirmou que seu pensamento havia evoluído.
Altman também criticou indiretamente o rival ao comentar o papel do governo no setor. “O governo deve ser mais poderoso do que empresas privadas”, disse, durante conferência do banco Morgan Stanley.
A disputa também ganhou contornos políticos. O deputado democrata Ro Khanna elogiou a decisão da Anthropic de não ceder às exigências do Pentágono. Ao mesmo tempo, o presidente Trump criticou duramente a empresa. “Bem, eu demiti a Anthropic”, disse ele em entrevista ao Politico. “A Anthropic está em apuros”, acrescentou, afirmando que a empresa foi dispensada “como cães”.
Altman fez críticas indiretas à rival (Imagem: alprodhk/Shutterstock)
Popularidade e números do mercado
Apesar das controvérsias, as duas empresas continuam crescendo rapidamente. A OpenAI informou recentemente que seus produtos são usados por mais de 900 milhões de pessoas, mais que dobrando sua base de clientes em um ano. Mais de nove milhões de empresas pagam para usar o ChatGPT em atividades profissionais e a receita da companhia pode ultrapassar US$ 25 bilhões (R$ 131,1 bilhões) neste ano.
Já o Claude, chatbot da Anthropic, alcançou o primeiro lugar entre os downloads da Apple App Store em 16 países. Mais de um milhão de pessoas passaram a baixar o aplicativo diariamente — entre elas, a cantora Katy Perry.
Rivalidade que pode influenciar futuro da IA
Apesar dos conflitos, Altman e Amodei frequentemente expressam visões semelhantes sobre a velocidade com que a IA está evoluindo e sobre seu potencial transformador. Ambos concordam que a tecnologia terá impacto profundo na sociedade — inclusive na economia e no mercado de trabalho.
A divergência central está em como chegar lá: avançar rapidamente para dominar o mercado ou priorizar limites e regras de segurança. Com as duas empresas sediadas a poucos quilômetros de distância em São Francisco (EUA), a rivalidade entre seus líderes tornou-se um dos principais motores — e também uma das maiores tensões — da corrida global pela liderança em IA. E, pelo tom das recentes trocas de acusações, dificilmente os dois executivos estarão de mãos dadas tão cedo.
Após a confirmação de que a Anthropic foi classificada como risco na cadeia de suprimentos pelo Pentágono, a Amazon se pronunciou a respeito e disse que seguirá ofertando a inteligência artificial (IA) da empresa, o Claude, a seus clientes de nuvem, o Amazon Web Services (AWS). Somente os projetos que envolvem o Departamento de Defesa não receberão mais a oferta.
“Os clientes e parceiros da AWS podem continuar usando o Claude para todas as suas cargas de trabalho não associadas ao Departamento de Guerra (DoW). Para todas as cargas de trabalho do DoW que usam tecnologias da Anthropic, estamos dando suporte aos clientes e parceiros durante a transição para alternativas executadas na AWS”, disse um porta-voz da AWS em comunicado.
Amazon se junta a outras big techs para “defender” Anthropic
A Amazon, que detém a liderança no mercado de nuvem, segue o passo de suas concorrentes (Microsoft e Google) ao atualizar seus clientes sobre a disponibilidade da Anthropic;
Na quinta-feira (5), a Microsoft anunciou que o Claude segue acessível em produtos que não envolvam o Departamento de Defesa. Na manhã desta sexta-feira (6), foi a vez de o Google fazer o mesmo;
A gigante do e-commerce de Jeff Bezos é uma das maiores investidoras da Anthropic, com investimentos de US$ 8 bilhões (R$ 41,9 bilhões) desde 2023. Elas também possuem forte relação comercial.
Por sua vez, a AWS segue como a principal parceira de nuvem e treinamento da empresa de Dario Amodei, que se comprometeu a utilizar 500 mil chips personalizados da Amazon, o Trainium 2, como parte de um campus de data centers da AWS construído para a startup, nomeado Projeto Rainier. Seu custo é de US$ 11 bilhões (R$ 57,6 bilhões).
Startup está “em pé de guerra” com Pentágono (Imagem: gguy/Shutterstock)
Acesso ao Claude na AWS
Os modelos do Claude estão disponíveis via AWS Bedrock, no qual as empresas podem acessar vários modelos de IA de diferentes desenvolvedoras.
O Bedrock é fornecido por meio do serviço GovCloud, da AWS. Trata-se de uma região de nuvem dedicada e equipada para hospedagem de dados sensíveis e fluxos de trabalho regulamentados.
A Amazon conseguiu contratos bilionários com agências do governo dos EUA, fornecendo serviços de nuvem e IA. Em novembro de 2025, foram destinados, pela empresa, cerca de US$ 50 bilhões (R$ 262,2 bilhões) às infraestruturas de IA para clientes governamentais. À época, a big tech dizia ter mais de 11 mil agências dos EUA sob seu guarda-chuva.
11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.
14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.
Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.
24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.
27 de fevereiro de 2026:fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.
28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo. Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.
4 de março de 2026: embora houvesse rumor de que Amodei e Hegseth voltariam a conversar, o Pentágono notificou formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.
5 de março de 2026: Amodei afirmou que a Anthropic pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial. Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.
A OpenAI anunciou nesta sexta-feira (6) o lançamento do Codex Security, um agente de inteligência artificial projetado para transformar a segurança de aplicações. O objetivo central da ferramenta é resolver uma das maiores “dores” dos desenvolvedores: o excesso de alarmes falsos (falsos positivos) que sobrecarregam as equipes de segurança e atrasam o lançamento de softwares.
Diferente de ferramentas tradicionais, o Codex Security não apenas aponta vulnerabilidades, mas cria um modelo de ameaça específico para cada projeto, sendo capaz de sugerir e aplicar correções automáticas que mantêm a integridade do sistema.
We’re introducing Codex Security.
An application security agent that helps you secure your codebase by finding vulnerabilities, validating them, and proposing fixes you can review and patch.
Now, teams can focus on the vulnerabilities that matter and ship code faster.… pic.twitter.com/t45Wkm7Rda
O que muda com o Codex Security e como ele funciona?
A grande inovação do Codex Security é o uso de raciocínio agêntico, alimentado pelos modelos de fronteira da OpenAI (incluindo o GPT-5, conforme apontado pela Bloomberg). Enquanto ferramentas legadas costumam disparar alertas para qualquer linha de código suspeita, o novo agente valida as falhas em ambientes isolados (os chamados sandboxes) para garantir que o problema é real antes de notificar o usuário.
De acordo com o comunicado oficial da OpenAI, a ferramenta já demonstrou resultados impressionantes durante sua fase beta (quando ainda era chamada de Aardvark):
Redução de 84% no “ruído” (alertas irrelevantes) em repositórios testados.
Queda de 50% na taxa de falsos positivos.
Identificação de falhas críticas em projetos de peso, como OpenSSH, PHP e Chromium.
Para entender o salto geracional, veja como o novo agente da OpenAI se compara às soluções convencionais do mercado:
Quem pode usar e como acessar?
A OpenAI informou que o Codex Security está sendo liberado em Research Preview a partir de hoje. O acesso será gradual ao longo dos próximos dias para os seguintes grupos:
Assinantes corporativos: usuários do ChatGPT Enterprise, Business e Education.
Desenvolvedores de código aberto: a empresa criou o programa “Codex for OSS”, oferecendo contas gratuitas e suporte para mantenedores de projetos open-source.
Custo: o uso será gratuito durante o primeiro mês para os clientes elegíveis.
Para quem já utiliza as versões empresariais da OpenAI, o recurso aparecerá diretamente na interface do Codex web. Segundo a Bloomberg, o lançamento coloca a OpenAI em competição direta com outras gigantes do setor, como a Anthropic, que lançou recentemente o Claude Code Security.
Recentemente, a OpenAI fez uma mudança na política de serviços do ChatGPT, permitindo que o usuário possa sincronizar seus contatos para ver quais também usam a inteligência artificial (IA).
Isso, segundo o Mobile Time, pode ser um movimento rumo à adoção de um serviço de mensageria no chatbot. Para fortificar o argumento, o portal ouviu uma fonte experiente do mercado de mensageria.
“Não tenho dúvida de que o ChatGPT vai entrar em mensageria. E é o movimento mais inteligente que Sam Altman poderia fazer”, comentou.
Como se não bastasse, outra tecnologia recente da OpenAI poderia reforçar a ideia: a possibilidade de convidar pessoas para participar de uma mesma sessão de conversa com o ChatGPT a partir de um link.
“É o movimento mais inteligente que Sam Altman poderia fazer”, comentou fonte (Imagem: FotoField/Shutterstock)
O portal avalia, ainda, que essa é uma tendência do mercado, com buscadores e apps de mensageria incorporando IA generativa e assistentes de IA lançando navegadores;
O próximo passo seria a incorporação de mensageiros pelos chatbots;
Tudo isso se baseia na audiência e na obtenção de maior receita;
Hoje, os principais concorrentes no Ocidente são Meta, Google e Microsoft.
OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora
A OpenAI anunciou nesta quinta-feira (5) o lançamento do GPT-5.4, atualização que traz avanços em raciocínio, programação e execução de tarefas profissionais. Segundo a empresa, o modelo é o “mais capaz e eficiente para trabalho profissional” até agora.
A nova versão do GPT também amplia as capacidades do sistema ao lidar com documentos, planilhas e apresentações. Além disso, é mais um passo em direção aos agentes de IA, que atuam em segundo plano para realizar atividades complexas sem necessidade de intervenção humana.
No fim da noite desta quinta-feira (5), o CEO da Anthropic, Dario Amodei, confirmou os rumores de que a Anthropic teria recebido a classificação de risco à cadeia de suprimentos pelo Pentágono.
Além disso, ele afirmou que a empresa pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial.
Amodei confirmou que o governo dos EUA declarou a Anthropic como um risco de cadeia de suprimentos na quinta-feira (5). A classificação ocorre em meio a um impasse entre a startup e o Departamento de Defesa dos Estados Unidos (DOD) sobre a forma como seus modelos de inteligência artificial (IA), o Claude, podem ser utilizados.
A empresa vinha se desentendendo com o Pentágono sobre limites para o uso da tecnologia. No fim da semana passada, a Anthropic foi informada — por meio de publicações em redes sociais — de que estava sendo incluída em uma lista que a impediria de participar de contratos governamentais.
A companhia buscava garantias de que sua tecnologia não seria utilizada para armas totalmente autônomas ou para vigilância doméstica em massa. Já o DOD queria que a Anthropic concedesse acesso irrestrito ao Claude para qualquer finalidade legal.
“Como afirmamos na sexta-feira passada, não acreditamos, e nunca acreditamos, que seja papel da Anthropic ou de qualquer empresa privada se envolver na tomada de decisões operacionais — esse é o papel dos militares”, escreveu Amodei.
“Nossas únicas preocupações sempre foram nossas exceções para armas totalmente autônomas e vigilância doméstica em massa, que se relacionam a áreas de uso de alto nível, e não à tomada de decisões operacionais.”
CEO disse que não há outra saída senão ir à Justiça contra o Pentágono (Imagem: Thrive Studios ID/Shutterstock)
Segundo o executivo, a Anthropic é a única empresa estadunidense a ser publicamente classificada como risco para a cadeia de suprimentos;
A designação agora oficial exige que fornecedores e contratados do setor de defesa certifiquem que não utilizam os modelos da empresa em trabalhos realizados com o Pentágono;
Esse tipo de classificação costuma ser aplicado a organizações que operam em países considerados adversários dos Estados Unidos, como a empresa chinesa de tecnologia Huawei;
Ainda há incerteza sobre se empresas contratadas pelo setor de defesa poderão continuar usando a tecnologia da Anthropic em projetos que não estejam relacionados ao trabalho militar;
Amodei afirmou que a designação “não limita (e não pode limitar) o uso do Claude ou relações comerciais com a Anthropic quando não estão relacionadas a contratos específicos com o Departamento de Guerra”.
A Microsoft, que anunciou, em novembro, planos de investir até US$ 5 bilhões (R$ 26,3 bilhões) na Anthropic, afirmou, em comunicado, que seus advogados analisaram a designação e concluíram que os produtos da empresa podem continuar disponíveis para clientes que não sejam o DOD.
A Anthropic havia firmado em julho um contrato de US$ 200 milhões (R$ 1 bilhão) com o Departamento de Defesa e foi o primeiro laboratório de inteligência artificial a integrar seus modelos a fluxos de trabalho de missões em redes classificadas. No entanto, com o avanço das divergências nas negociações, concorrentes também passaram a firmar acordos semelhantes.
A OpenAI, de Sam Altman, e a xAI, de Elon Musk, concordaram em implantar seus modelos em ambientes classificados. Altman anunciou o acordo de sua companhia com o Departamento de Defesa poucas horas depois de a Anthropic ter sido colocada na lista de restrições na sexta-feira (27).
Em uma publicação no X, Altman afirmou que a agência demonstrou “profundo respeito pela segurança e o desejo de fazer parceria para alcançar o melhor resultado possível”.
Executivo da OpenAI garantiu que o Departamento vai seguir suas restrições (Imagem: FotoField/Shutterstock)
Relação tensa
A relação entre a Anthropic e o governo do presidente Trump tem se tornado cada vez mais tensa nos últimos meses. Amodei chegou a pedir desculpas por um memorando interno crítico à administração que vazou para a imprensa na quarta-feira (4).
De acordo com uma reportagem do The Information, o executivo teria dito a funcionários que o governo não simpatizava com a Anthropic porque a empresa não havia feito doações nem oferecido “elogios no estilo ditador a Trump”.
Amodei afirmou que o memorando foi escrito na sexta-feira (27), após “um dia difícil para a empresa”, e que não reflete suas “opiniões cuidadosas ou ponderadas”. Ele acrescentou que o texto representa uma “avaliação desatualizada da situação atual”.
“A Anthropic não vazou essa publicação nem orientou ninguém a fazê-lo — não é do nosso interesse escalar essa situação”, escreveu o executivo.
O Pentágono teria notificado formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.
A medida, confirmada por autoridades de defesa à Bloomberg, ocorre em um momento de incerteza: embora o Financial Times tenha relatado horas antes que as partes haviam voltado negociar, a oficialização do status de risco sinaliza que a diplomacia entre o Vale do Silício e Washington pode ter fracassado.
Essa notificação é um golpe direto na Anthropic, atualmente avaliada em US$ 380 bilhões. Com uma receita projetada de US$ 20 bilhões para este ano, a startup depende de sua integração em sistemas como o Maven (da Palantir), utilizado em operações militares no Irã.
Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.
Histórico das empresas
O embate entre o CEO da Anthropic, Dario Amodei, e o subsecretário de defesa, Emil Michael, atingiu níveis de hostilidade raros no setor. Michael chegou a acusar Amodei publicamente de ter um “complexo de Deus” e colocar a nação em perigo.
O cerne da disputa é uma cláusula sobre o uso do Claude para vigilância em massa e armas autônomas: termos que a Anthropic se recusa a flexibilizar, mas que rivais como OpenAI e xAI teriam aceitado sob a premissa de “qualquer uso legal”.
Um memorando interno da Anthropic, revelado pelo The Information, sugere que o Pentágono tentou uma manobra de última hora: o governo aceitaria os termos éticos da startup, desde que uma frase específica sobre “análise de dados adquiridos em massa” fosse removida.
A recusa de Amodei em ceder nesse ponto parece ter sido a gota d’água para que o Secretário de Defesa, Pete Hegseth, cumprisse a promessa de rotularr a empresa como uma ameaça à segurança nacional.
Cenário do setor
O mercado agora observa se a retomada das conversas citada pelo Financial Times é uma tentativa real de conciliação ou apenas uma formalidade antes de uma batalha judicial. A classificação de “risco à cadeia de suprimentos” é uma ferramenta de pressão extrema, geralmente reservada a adversários geopolíticos, e sua aplicação a uma “queridinha” de Wall Street cria um precedente que pode vir ameaçar a autonomia das Big Techs.
Para a Anthropic, o desafio é sobreviver a essa decisão do governo sem comprometer os princípios de segurança que sustentam sua marca. Enquanto isso, a OpenAI se posiciona para ocupar a lacuna deixada no Pentágono, transformando o impasse ético em uma vantagem competitiva de bilhões de dólares.
Uma startup dos EUA afirma ter criado o menor supercomputador de Inteligência Artificial (IA) do mundo. O equipamento reúne alto poder de processamento e grande quantidade de memória em um dispositivo compacto, pequeno o suficiente para caber no bolso.
Segundo os desenvolvedores, a máquina consegue executar modelos avançados de IA capazes de analisar informações complexas, planejar tarefas e resolver problemas de forma autônoma.
Em resumo:
Startup cria supercomputador de IA que cabe no bolso;
Dispositivo roda modelos gigantes localmente;
Memória é bem superior à da maioria dos notebooks atuais;
Tecnologias otimizam cálculos e reduzem consumo;
IA local amplia privacidade e uso remoto.
O pequeno dispositivo de IA Pocket Lab se conecta a notebooks. Crédito: Tiiny AI
Desenvolvido pela empresa Tiiny AI, o supercomputador recebeu o nome de AI Pocket Lab. Ele consegue rodar localmente um grande modelo de linguagem com cerca de 120 bilhões de parâmetros. Normalmente, sistemas desse porte dependem de grandes centros de dados cheios de servidores e placas gráficas. Nesse caso, porém, o processamento ocorre diretamente no dispositivo, sem necessidade de conexão com a internet.
O AI Pocket Lab utiliza um processador ARM de 12 núcleos, tecnologia comum em smartphones e tablets. Apesar do tamanho reduzido – cerca de 14 centímetros de comprimento – o equipamento possui 80 GB de memória RAM do tipo LPDDR5X. Para comparação, a maioria dos notebooks atuais possui entre 8 GB e 32 GB de memória.
Cerca de 48 GB dessa memória são reservados para a unidade de processamento neural (NPU). Esse tipo de chip é otimizado para executar operações relacionadas à inteligência artificial com maior eficiência. Tecnologias semelhantes já aparecem em processadores modernos de empresas como Intel e AMD, criadas justamente para acelerar aplicações baseadas em IA.
Por que “supercomputador”?
O dispositivo é considerado um supercomputador porque consegue executar modelos de linguagem com mais de 100 bilhões de parâmetros. Em geral, esse tipo de processamento exige vários computadores com placas gráficas avançadas trabalhando juntos em centros de dados especializados.
Mesmo não rivalizando com os maiores supercomputadores do mundo, o AI Pocket Lab alcança cerca de 190 trilhões de operações por segundo. Esse desempenho resulta da combinação entre CPU e NPU trabalhando juntas para executar cálculos complexos.
Para atingir essa potência em um aparelho pequeno, os engenheiros utilizaram tecnologias de otimização. Uma delas é o sistema TurboSparse, que faz o modelo de IA usar apenas partes específicas de seus parâmetros durante cada etapa do processamento, reduzindo cálculos desnecessários.
Outra tecnologia, chamada PowerInfer, distribui as tarefas entre diferentes processadores do dispositivo. Dessa forma, cada componente executa apenas as operações para as quais é mais eficiente. Isso melhora o desempenho, reduz o consumo de energia e permite usar IA avançada mesmo em locais sem acesso à internet.
Elon Musk investe bilhões para construir maior supercomputador de IA do mundo
No outro extremo está um projeto do bilionário Elon Musk, que ele chama de “maior supercomputador de IA do mundo”: o Colossus, que abriga mais de 200 mil chips da Nvidia e alimenta o chatbot Grok.
Agora, a empresa está perto de finalizar um segundo centro, batizado de Colossus 2, ainda maior e mais potente. Estima-se que o novo projeto abrigará inicialmente 550 mil chips, podendo chegar futuramente a um milhão, com investimento total que pode atingir dezenas de bilhões de dólares. Saiba mais aqui.
Anthropic e o Departamento de Defesa dos Estados Unidos (agora renomeado para Departamento de Guerra) cortaram relações na sexta-feira passada. O desentendimento veio após a desenvolvedora de IA se recusar a flexibilizar suas regras para permitir o uso do Claude em aplicações perigosas, incluindo vigilância em massa de cidadãos americanos e armas autônomas.
Agora, parece que a Anthropic mudou de ideia. Segundo o Financial Times, que citou fontes familiarizadas com o assunto, o CEO Dario Amodei voltou a discutir um possível acordo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. O objetivo seria estabelecer novos termos contratuais que permitam o uso do Claude nas forças armadas.
Mas o clima entre as partes é tenso. Após o desentendimento entre Anthropic e Pentágono, Michael criticou Amodei nas redes sociais, chamando-o de “mentiroso” com “complexo de Deus” e acusando-o de “colocar a segurança de nossa nação em risco”.
Do outro lado, Amodei também criticou o Pentágono e a rival OpenAI, que aproveitou a quebra de contrato para se aliar ao governo. Em um memorando interno divulgado pelo The Information, o executivo criticou o acordo entre OpenAI e Departamento de Defesa, classificando-o como “teatro da segurança” e afirmando que as mensagens entre as partes eram “mentiras descaradas”.
Amodei ainda sugeriu que o relacionamento da Anthropic com o governo federal pode ter se deteriorado por fatores políticos. No documento, ele afirmou que a empresa não fez doações ao presidente Donald Trump nem adotou uma postura pública de apoio semelhante à de outros líderes do setor de tecnologia.
O memorando também detalha um momento das negociações em que o Departamento de Defesa teria sinalizado que aceitaria os termos propostos pela startup, desde que uma cláusula específica fosse removida do contrato.
Perto do fim da negociação, o [departamento] ofereceu-se para aceitar os nossos termos atuais se excluíssemos uma frase específica sobre ‘análise de dados adquiridos em massa’, que era a única linha do contrato que correspondia exatamente ao cenário que mais nos preocupava. Achamos isso muito suspeito.
Anthropic, em memorando interno divulgado pelo The Information
Com a recusa da Anthropic, Pentágono se aliou à OpenAI (Imagem: Keith J Finks/Shutterstock)
Então, por que Anthropic voltou a negociar com o Pentágono?
Mesmo assim, a Anthropic tem motivo para voltar atrás.
Durante as negociações da semana passada, o secretário de Defesa dos Estados Unidos, Pete Hegseth, afirmou que a desenvolvedora poderia ser classificada como um “risco para a cadeia de suprimentos” caso não se aliasse ao Pentágono. Esse tipo de designação costuma ser aplicado a empresas consideradas uma ameaça à segurança nacional – geralmente por vínculos com governos estrangeiros – e poderia prejudicar a Anthropic no setor de tecnologia.
Caso a desenvolvedora realmente seja incluída na lista, companhias que trabalham com contratos de defesa poderiam ser obrigadas a interromper o uso do Claude e encerrar parcerias com a startup.
Relembrando: No centro dessa disputa estão as condições para o uso militar da tecnologia da Anthropic. A empresa afirma ter dois limites claros: não permitir aplicações de vigilância em massa contra cidadãos americanos e impedir o uso de sistemas de inteligência artificial em armas autônomas letais, capazes de operar sem supervisão humana.
O Departamento de Defesa, por sua vez, defende que a IA utilizada pela instituição esteja disponível para “qualquer uso legal”, um princípio que a Anthropic considera amplo demais e potencialmente incompatível com suas restrições éticas. Segundo relatos, outras empresas do setor – como OpenAI e xAI – teriam aceitado esse tipo de condição.