Anthropic

Auto Added by WPeMatico

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa

A decisão da OpenAI de fechar uma parceria com o Departamento de Guerra (antigo Departamento de Defesa) dos Estados Unidos não caiu bem entre os usuários. As desinstalações do aplicativo do ChatGPT aumentaram em 295% no sábado (28 de fevereiro) em relação ao dia anterior.

Os dados são da empresa de inteligência de mercado Sensor Tower, divulgados pelo TechCrunch. O salto nesse número contrasta com a média diária registrada nos 30 dias anteriores, quando a mesma taxa ficava em torno de 9%.

E não foram apenas as desinstalações que afetaram o ChatGPT. Na sexta-feira (27), antes da divulgação do acordo da OpenAI com o Pentágono, a taxa de downloads havia crescido 14%. No sábado, depois do acordo, caiu 13% em relação ao dia anterior. No domingo, caiu mais 5%.

As quedas vieram após a OpenAI firmar um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Departamento de Guerra para fornecer IA voltada à vigilância militar. Antes disso, a Anthropic tinha um acordo com o Pentágono para a mesma finalidade, mas se recusou a flexibilizar suas regras de segurança para permitir o uso do Claude em operações militares perigosas. A rival desfez a parceria com o governo e a OpenAI entrou no lugar.

Mesmo com a perda do contrato federal, a Anthropic experienciou o efeito inverso: enquanto o ChatGPT caiu, o Claude cresceu em downloads.

Comparação nos downloads dos aplicativos ChatGPT (OpenAI) e Claude (Anthropic) [Imagem: Appfigures)

ChatGPT caindo, Claude crescendo

Após a recusa da Anthropic em ceder o Claude para aplicações militares perigosas, os downloads do aplicativo nos Estados Unidos subiram 37% na sexta-feira e 51% no sábado, de acordo com a Sensor Tower.

Os números sugerem que, aparentemente, parte dos consumidores aprovou a postura adotada pela desenvolvedora.

A repercussão também se refletiu no desempenho do aplicativo nas lojas digitais. No sábado, o Claude alcançou o primeiro lugar em downloads na App Store dos EUA – e continuou assim até segunda-feira (2). Para se ter uma ideia, uma semana antes, o app estava 20 posições abaixo no ranking.

Leia mais:

Além da Sensor Tower, outras empresas de monitoramento de mercado registraram tendências semelhantes:

  • A Appfigures apontou que, pela primeira vez, o total de downloads diários do Claude nos EUA superou o do ChatGPT;
  • Segundo as estimativas, o crescimento do app no sábado foi ainda mais expressivo, chegando a 88% em comparação com o dia anterior;
  • O avanço não ficou restrito ao mercado americano. A Appfigures informou que o Claude passou a ocupar o topo da categoria de aplicativos gratuitos para iPhone em seis países fora dos EUA: Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça;
  • Já a Similarweb estimou que, na última semana, os downloads do Claude nos EUA foram cerca de 20 vezes maiores do que os registrados em janeiro. A empresa destacou que o aumento pode estar associado a múltiplos fatores, e não exclusivamente à controvérsia envolvendo o Pentágono.

A reação também apareceu nas avaliações do ChatGPT. De acordo com a Sensor Tower, as avaliações de uma estrela para o aplicativo cresceram 775% no sábado e 100% no domingo. No mesmo intervalo, as avaliações máximas (cinco estrelas) caíram 50%.

O post Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa apareceu primeiro em Olhar Digital.

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa Read More »

Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono

A OpenAI firmou um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Pentágono para fornecer inteligência artificial (IA) voltada à vigilância militar. O acordo foi fechado após o colapso das negociações entre o Departamento de Defesa e a Anthropic, que recusou os termos exigidos pelo governo.

A divergência central envolve o monitoramento de cidadãos americanos e o uso da tecnologia em operações de segurança nacional. Enquanto a Anthropic priorizou restrições éticas sobre vigilância doméstica, a OpenAI aceitou as condições governamentais para integrar seus modelos de linguagem à infraestrutura de defesa dos EUA.

Anthropic interrompe negociações por restrições ao monitoramento de cidadãos

As conversas entre a Anthropic e o Pentágono falharam minutos antes do prazo final estabelecido pelo Secretário de Defesa, Pete Hegseth, segundo o jornal The New York Times. O impasse central foi a exigência do governo pelo uso irrestrito das ferramentas de IA para vigilância doméstica. A empresa se recusou a ceder em pontos que violariam suas políticas de segurança e ética de dados pessoais.

O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana (Imagem: Ahyan Stock Studios/Shutterstock)

O diretor de tecnologia do Departamento de Defesa, Emil Michael, liderou as tratativas de um contrato avaliado em US$ 200 milhões. O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana. A resistência da startup gerou atritos diretos com a cúpula do governo e resultou no fim do diálogo.

A Anthropic buscava garantir que seus modelos não fossem aplicados em ações de vigilância em solo americano. O Departamento de Defesa, contudo, demandava flexibilidade total para interpretar o que seria considerado monitoramento legal sob a legislação vigente. Essa divergência semântica e ética foi o principal gatilho para o encerramento do contrato na última sexta-feira (28).

O fracasso da parceria resultou na designação da Anthropic como risco à cadeia de suprimentos pelo governo federal. O presidente dos EUA, Donald Trump, ordenou que agências federais suspendessem o uso das tecnologias da empresa logo após o colapso do acordo.

OpenAI aceita termos do Pentágono e assume contrato de inteligência militar

Pouco após o recuo da Anthropic, o CEO da OpenAI, Sam Altman, anunciou um acordo com o Departamento de Defesa. A empresa assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono. A manobra foi vista como uma resposta estratégica para ocupar o vácuo deixado pela concorrente.

Logo da OpenAI em um smartphone
A OpenAI assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono (Imagem: Thrive Studios ID/Shutterstock)

A OpenAI concordou com cláusulas que permitem a utilização de seus sistemas para análise de dados de vigilância. Altman defendeu a posição afirmando que a empresa não deseja opinar sobre a legalidade de ações militares específicas, mas fornecer tecnologia de ponta. O acordo permite que o Pentágono utilize a infraestrutura da OpenAI para fins de segurança nacional.

Críticos e especialistas em privacidade consultados pelo The Verge questionam a conformidade do pacto com os princípios de segurança originais da OpenAI. A mudança na política de uso da empresa, ocorrida anteriormente, já havia removido a proibição explícita de aplicações para “fins militares e bélicos”. Essa alteração facilitou juridicamente a assinatura do contrato e o uso de modelos como o GPT-4.

O Pentágono planeja utilizar a tecnologia para acelerar o desenvolvimento de sistemas autônomos e o processamento massivo de informações de inteligência. A parceria estabelece a OpenAI como o principal fornecedor de IA generativa para a defesa dos Estados Unidos. E o movimento consolida uma fase na qual a eficiência operacional militar sobrepõe-se a restrições de monitoramento.

O post Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono apareceu primeiro em Olhar Digital.

Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono Read More »

Claude: Anthropic libera recurso de memória para usuários gratuitos

A Anthropic anunciou que está levando mais um recurso antes restrito a assinantes pagos para o plano gratuito do Claude. A partir de agora, usuários da versão gratuita do chatbot poderão optar por permitir que a ferramenta faça referência a conversas anteriores para informar suas respostas.

A empresa tornou o Claude capaz de lembrar interações passadas pela primeira vez em agosto do ano passado. No fim do ano, adicionou a capacidade de compartimentalizar memórias. Agora, a funcionalidade de memória passa a integrar também o plano gratuito.

A mudança ocorre em um momento oportuno: mais cedo, a Anthropic facilitou a importação de conversas anteriores de um chatbot concorrente para o Claude.

Após ativar a memória, o usuário pode desativar o recurso a qualquer momento. É possível apenas pausar a funcionalidade — preservando as memórias para uso futuro — ou excluí-las completamente, garantindo que não fiquem armazenadas nos servidores da Anthropic.

Desenvolvedora do Claude, Anthropic entrou em rota de colisão com o governo dos EUA (Imagem: gguy/Shutterstock)

Leia mais:

Anthropic e Claude: popularidade em alta e disputa com o governo dos EUA

  • O Claude vive um momento de popularidade crescente. Recentemente, o aplicativo alcançou o primeiro lugar entre os apps gratuitos na App Store;
  • Ao mesmo tempo, a Anthropic está envolvida em uma disputa contratual de alto risco com o governo dos Estados Unidos relacionada a salvaguardas de IA;
  • Na sexta-feira (27), o secretário de Defesa dos EUA, Pete Hegseth, classificou a empresa como um “risco na cadeia de suprimentos” depois que a Anthropic se recusou a assinar um contrato que, segundo a startup, iria contra seus princípios de não militarizar a IA;
  • Após a declaração de Hegseth, a Anthropic afirmou que vai contestar a designação.

Por enquanto, resta acompanhar como a situação irá evoluir e quais podem ser as implicações para a empresa.

O post Claude: Anthropic libera recurso de memória para usuários gratuitos apareceu primeiro em Olhar Digital.

Claude: Anthropic libera recurso de memória para usuários gratuitos Read More »

Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic

No último sábado (28), enquanto os Estados Unidos iniciavam a Operação Epic Fury – uma ofensiva aérea de larga escala contra alvos no Irã –, o Departamento de Defesa se viu em meio a uma contradição tecnológica sem precedentes.

Segundo informações da Reuters e do Wall Street Journal, o Pentágono utilizou ferramentas de inteligência artificial da Anthropic para coordenar os ataques, menos de 24 horas após o presidente Donald Trump ter ordenado o banimento da empresa, classificando-a como um “risco à segurança nacional”.

Inteligência artificial em campo

A ofensiva utilizou um arsenal diversificado, incluindo bombardeiros furtivos B-2 e mísseis Tomahawk. No entanto, o “cérebro” por trás de parte da operação foi o Claude, o modelo de linguagem da Anthropic que concorre diretamente com o ChatGPT.

De acordo com o WSJ, o Comando Central dos EUA (Centcom) integrou a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A ironia é cronológica: o uso intensivo da IA ocorreu poucas horas depois de Trump assinar uma diretiva ordenando que as agências federais cessassem o uso dos programas da startup.

O cabo de guerra

O estopim da crise entre o governo e a Anthropic, conforme detalhado pelo portal Axios, foi a recusa do CEO da empresa, Dario Amodei, em atender a um ultimato do Pentágono. O Secretário de Defesa, Pete Hegseth, exigia “acesso irrestrito” aos modelos de IA, o que implicava na remoção de travas de segurança.

A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, traçou uma linha ética clara:

  • Vigilância: recusa em permitir o uso da IA para monitoramento em massa de cidadãos.
  • Autonomia bélica: proibição do uso do sistema em armas totalmente autônomas e letais sem supervisão humana.

Em sua rede social, Trump criticou a postura da empresa, afirmando que o “egoísmo” da startup colocava tropas americanas em perigo. Por outro lado, a Anthropic defende que a tecnologia atual não é confiável o suficiente para operar armas letais sem o controle final de um ser humano, como reportado pelo G1.

Um divórcio complexo

Embora o governo tenha rotulado a Anthropic como um “risco à cadeia de suprimentos” – um selo geralmente reservado a adversários estrangeiros –, a desconexão não será imediata. O Wall Street Journal destaca que a IA da empresa está profundamente entranhada nas operações militares, tendo sido peça-chave até na captura do ex-presidente venezuelano Nicolás Maduro, em fevereiro.

Para substituir o Claude, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk. No entanto, especialistas ouvidos pela imprensa americana alertam que o processo de transição pode levar pelo menos seis meses, dada a complexidade da integração dos sistemas via provedores como a Amazon e a Palantir.

A resistência do Vale do Silício

O caso da Anthropic parece ser o sintoma de um movimento maior. Segundo a Axios, grandes corporações americanas (de varejistas como Costco a gigantes da indústria como a 3M) começam a demonstrar uma “espinha dorsal” contra políticas da administração Trump, priorizando valores de mercado e diretrizes éticas em detrimento da conformidade imediata.

No campo de batalha do Irã, a Operação Epic Fury pode ter sido um sucesso militar, mas deixou exposta uma vulnerabilidade estratégica: a dependência de uma inteligência que o próprio governo não consegue (ou não é autorizado a) controlar totalmente.

O post Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic apareceu primeiro em Olhar Digital.

Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic Read More »

Busca pelo Claude ‘dispara’ após Anthropic rejeitar uso militar da IA

O Claude, modelo de inteligência artificial da Anthropic, está no centro de uma disputa com o governo dos Estados Unidos. A empresa negociava um contrato de US$ 200 milhões (mais de R$ 1 bilhão) para fornecer a IA ao Pentágono, mas exigiu salvaguardas para impedir que a tecnologia fosse usada em vigilância em massa de cidadãos ou em armas autônomas.

A Casa Branca não gostou nada destas condições e deu um prazo para que a companhia abrisse mão dela. Como isso não aconteceu, o presidente Donald Trump ordenou que agências federais do país parassem de usar a tecnologia imediatamente. O impasse, no entanto, pode fazer com que o modelo seja ainda mais utilizado.

IA da Anthropic superou Gemini

  • O Claude subiu para a segunda posição dos aplicativos gratuitos mais baixados em aparelhos da Apple nos Estados Unidos nas últimas horas.
  • O aumento da popularidade do modelo de IA sugere que a Anthropic está se beneficiando do embate com a Casa Branca.
  • Com o aumento da procura, a ferramenta superou o Gemini, do Google, e só está atrás do ChatGPT, da OpenAI.
  • Além da firme postura da empresa ao rejeitar o uso militar da IA, uma postagem da cantora Katy Perry pode ter influenciado nesse maior interesse dos usuários.
  • A artista publicou uma captura de tela da assinatura Pro da Anthropic, com um coração sobreposto.
  • As informações são da CNBC.

Leia mais

OpenAI fechou acordo

O cerco do governo dos Estados Unidos à Anthropic gerou reações em cadeia. Funcionários do Google, Amazon e Microsoft assinaram cartas e petições nesta semana pedindo que suas companhias desafiem as exigências do Departamento de Defesa sobre o uso de IA em operações militares.

Sam Altman, CEO da OpenAI, inicialmente adotou tom cauteloso, mas acabou defendendo a concorrente. “Apesar de todas as minhas divergências com a Anthropic, confio bastante neles como empresa e acredito que eles realmente se preocupam com a segurança”, afirmou.

Executivo garantiu que a Casa Branca vai seguir suas restrições (Imagem: FotoField/Shutterstock)

Horas depois, no entanto, a OpenAI anunciou ter chegado a um acordo com o Pentágono para fornecer IA para sistemas confidenciais, inserindo salvaguardas que, segundo a empresa, impediriam usos indesejados.

O post Busca pelo Claude ‘dispara’ após Anthropic rejeitar uso militar da IA apareceu primeiro em Olhar Digital.

Busca pelo Claude ‘dispara’ após Anthropic rejeitar uso militar da IA Read More »

OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic

Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).

O anúncio foi feito no X e acontece horas depois de o presidente Donald Trump ter ordenado a quebra de contrato com a Anthropic, rival da OpenAI.

“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”

Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI

  • O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
  • Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
  • Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
  • Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
  • Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.

A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.

Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.

A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.

Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)

Leia mais:

Onde a empresa de Altman se encaixa agora?

Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.

“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.

Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.

Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.

“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.

Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.

O post OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic apareceu primeiro em Olhar Digital.

OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic Read More »

Trump ordena que governo pare de utilizar tecnologia da Anthropic

Nesta sexta-feira (27), o presidente dos Estados Unidos, Donald Trump, disse que está ordenando que todas as instituições federais parem de utilizar a tecnologia da Anthropic.

O anúncio vem após a recente disputa entre Pentágono e a empresa de Dario Amodei acerca do uso da inteligência artificial (IA) militarmente e cerca de uma hora antes do deadline dado pelo governo à Anthropic para permitir o uso da tecnologia para usos militares ou, do contrário, encarar as consequências.

Trump disse que a maioria das agências federais deve parar de usar a tecnologia imediatamente, enquanto o Pentágono terá seis meses para isso, pois a IA da empresa está embarcada em plataformas militares.

Em sua rede social, a Truth Social, o presidente dos EUA afirmou que “não precisamos, não queremos e não faremos mais negócios com eles!”

Por enquanto, a Anthropic não se manifestou a respeito da determinação.

Leia mais:

Anthropic não quer militarização de sua tecnologia

A Anthropic resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.

Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.

Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.

Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.

“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

  • A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
  • Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
  • Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
  • O Pentágono, por sua vez, afirmou que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
  • Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
Trump adotou forte tom em publicação no Truth Social (Imagem: Joshua Sukoff/Shutterstock)

Pentágono ataca empresa e Amodei

O Pentágono ameaçou classificar a empresa como um risco à cadeia de suprimentos — o que a impediria de fechar contratos com o governo — ou forçá-la a disponibilizar seu modelo de ponta sem restrições com base na Lei de Produção de Defesa (DPA, na sigla em inglês).

O confronto ganhou contornos pessoais quando Emil Michael, alto funcionário do Pentágono responsável por supervisionar a área de IA, atacou diretamente o diretor-executivo da Anthropic, Dario Amodei. Após a declaração de Amodei, Michael publicou críticas no X.

“É uma pena que @DarioAmodei seja um mentiroso e tenha um complexo de Deus”, escreveu ele na noite de quinta-feira (26). “Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se dobrará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”

Autoridades do Departamento de Estado recorreram às redes sociais para reforçar a posição do Pentágono e criticar a Anthropic, enquanto senadores democratas saíram em defesa da empresa. O senador Mark Warner, principal democrata do Comitê de Inteligência do Senado, publicou um vídeo na quinta-feira (26) afirmando que empresas precisam fazer concessões ao governo, mas indicou considerar legítimas as preocupações da Anthropic em relação à vigilância e drones autônomos.

Warner argumentou que a empresa estava sendo ameaçada pelo secretário de Defesa, Pete Hegseth, por priorizar a segurança. “Ele está ameaçando-os, literalmente até amanhã [sexta-feira], que se eles não abrirem mão de todos os controles de segurança e outras coisas, qualquer um que faça negócios com eles será banido”, declarou o senador.

O Pentágono exige que todos os seus contratados sigam um padrão único: o de que as Forças Armadas possam utilizar os produtos adquiridos como desejarem, desde que em conformidade com a lei. Ao mesmo tempo, autoridades militares têm adotado um tom combativo contra empresas de tecnologia.

Uma carta publicada na quinta-feira (26) foi assinada por quase 50 funcionários da OpenAI e 175 do Google. O documento criticou as táticas de negociação do Pentágono e pediu que as lideranças “coloquem de lado suas diferenças e permaneçam unidas para continuar a recusar as atuais exigências do Departamento de Guerra”. “Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, afirma a carta.

O Pentágono declarou na quinta-feira (26) que não tem interesse em utilizar o Claude for Government — modelo da Anthropic que opera em sistemas classificados — para vigilância doméstica ou para drones autônomos. Amodei, contudo, afirmou que essa alegação era enfraquecida pela linguagem jurídica presente no contrato.

“Em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”, escreveu ele. “Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade.”

O Pentágono afirma estar preparado para avançar com o Grok, da xAI, empresa de Elon Musk. No entanto, segundo autoridades atuais e ex-integrantes do governo, o produto é considerado inferior. Além disso, a troca de software de IA exigiria tempo e provavelmente causaria interrupções significativas.

O post Trump ordena que governo pare de utilizar tecnologia da Anthropic apareceu primeiro em Olhar Digital.

Trump ordena que governo pare de utilizar tecnologia da Anthropic Read More »

Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono

O CEO da OpenAI, Sam Altman, decidiu intervir no embate entre a Anthropic e o Departamento de Defesa dos Estados Unidos sobre o uso de inteligência artificial em operações militares. Em comunicado interno enviado a funcionários na noite de quinta-feira (26), o executivo afirmou que a empresa negocia um acordo com o Pentágono que permita o uso de seus modelos em ambientes sensíveis, mas sem abrir mão de princípios inegociáveis.

Segundo ele, a OpenAI busca chegar a um contrato que autorize a aplicação da IA “para todos os usos legais”, com exceção de casos como vigilância em massa e armas letais totalmente autônomas. Até o momento, nenhum acordo foi formalizado e as negociações ainda podem fracassar.

No memorando, visto pelo jornal Wall Street Journal, Altman apoiou a posição da Anthropic ao impor limites éticos para usos militares, mas também reconheceu a preocupação do governo sobre o controle de tecnologias sensíveis. Ele segue defendendo que decisões de alto risco continuem sob supervisão humana, sem automatizações.

Para tentar equilibrar os interesses opostos do Pentágono e da Anthropic, a OpenAI propõe a adoção de medidas técnicas, como restringir a execução dos modelos a ambientes de nuvem controlados, evitando implementações em usos militares diretos. A desenvolvedora também quer disponibilizar equipes especializadas para trabalhar em parceria com o governo e garantir que a tecnologia seja utilizada dentro de parâmetros definidos.

A expectativa de Altman é que uma solução negociada possa servir de referência para todo o setor no que diz respeito ao uso de IA em operações militares.

Pentágono deu até o final da tarde desta sexta-feira para que Anthropic aceite os termos (Imagem: Keith J Finks/Shutterstock)

Pentágono x Anthropic

A movimentação ocorre enquanto o Pentágono pressiona a Anthropic a flexibilizar seus limites de segurança.

O Departamento de Defesa quer que a desenvolvedora autorize o uso para “todos os fins lícitos”. Do outro lado, o CEO da Anthropic, Dario Amodei, já afirmou publicamente que não permitirá que o Claude seja empregado em armas totalmente autônomas ou em sistemas de vigilância doméstica em larga escala.

O secretário de Defesa, Pete Hegseth, deu até o fim da tarde desta sexta-feira (27) para que a empresa decida se vai aceitar flexibilizar suas regras ou não. Caso não aceite, a Anthropic deve perder o contrato com o governo dos Estados Unidos. Em um caso mais extremo, o governo pode intervir na atuação da companhia em nome da segurança nacional. O Olhar Digital deu os detalhes da disputa neste link.

Parlamentares também entraram na discussão. Líderes republicanos e democratas das comissões de Serviços Armados e de Orçamento da Defesa enviaram cartas às partes envolvidas pedindo diálogo e sugerindo a extensão do prazo.

Altman avaliou que o impasse não se resume ao tipo de aplicação da tecnologia, mas ao controle sobre ela. Em sua mensagem interna, ele afirmou que, embora empresas privadas possam ter influência relevante, não devem se sobrepor ao governo eleito em decisões de segurança nacional – reforçando, mais uma vez, os limites éticos da tecnologia.

Silhueta de Elon Musk ao lado do logo da xAI
Enquanto isso, Pentágono segue firme na parceria com a xAI (Imagem: Ahyan Stock Studios/Shutterstock)

xAI, Grok e o debate sobre segurança

Enquanto a Anthropic enfrenta resistência por manter restrições, o Pentágono avançou na adoção do Grok, chatbot desenvolvido pela xAI, para uso em ambientes sensíveis. A decisão ocorreu apesar de alertas internos de diferentes agências federais sobre possíveis fragilidades de segurança e confiabilidade do modelo.

Funcionários da Administração de Serviços Gerais (GSA) e outros órgãos manifestaram preocupação com a suscetibilidade do Grok à manipulação por dados tendenciosos ou imprecisos, além de episódios anteriores envolvendo geração de imagens sexualizadas. Relatórios internos também apontaram riscos relacionados à rastreabilidade de dados de treinamento e à robustez dos testes de segurança.

Mesmo assim, o Departamento de Defesa demonstrou entusiasmo com a incorporação da xAI a projetos sensíveis e indicou que pretende integrar o Grok à sua plataforma oficial de IA.

O movimento foi interpretado por analistas como parte de um ambiente cada vez mais politizado, no qual as posições públicas das empresas sobre segurança e regulação influenciam decisões contratuais.

O post Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono apareceu primeiro em Olhar Digital.

Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono Read More »

Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA

Conforme reportado pelo Olhar Digital, o secretário de Defesa dos Estados Unidos, Pete Hegseth, deu um ultimato à startup de inteligência artificial Anthropic. A empresa deve decidir se libera ou não seu modelo de IA, o Claude, para usos irrestritos para o Pentágono – inclusive aplicações consideradas perigosas.

A Anthropic ficou conhecida no mercado por priorizar a segurança da tecnologia e resiste em flexibilizar suas regras. O embate com o governo dos EUA começou justamente porque a desenvolvedora não permitiu o uso do Claude em aplicações como armas totalmente autônomas nem em vigilância doméstica em massa.

O Pentágono exige que a startup libere sua tecnologia para “todos os fins lícitos” ou perderá o contrato com o governo. A startup tem até às 15h01 (horário local dos Estados Unidos) desta sexta-feira para decidir se aceita os termos ou não.

Caso não aceite, além de perder o contrato, a companhia pode entrar para uma lista de empresas que representam risco à cadeia de suprimentos – o que a excluiria de outros contratos federais. O governo também pode acionar a Lei de Produção de Defesa, mecanismo que permite intervenção estatal em nome da segurança nacional.

O impasse ganhou força após reuniões recentes entre executivos da empresa e autoridades do Pentágono.

Segundo a agência Reuters, em uma delas, foi discutido um cenário hipotético envolvendo o lançamento de um míssil balístico contra os EUA e o uso do Claude para auxiliar na resposta militar. Autoridades afirmam que a postura cautelosa da Anthropic irritou integrantes do governo, que defendem maior liberdade para empregar sistemas de IA em operações estratégicas.

A empresa, por sua vez, nega versões de que teria se recusado a cooperar em casos de defesa antimísseis, mas reafirma que não abrirá mão de suas “linhas vermelhas”. Em comunicado, o CEO Dario Amodei declarou que a companhia não pode permitir, “em sã consciência”, que seus modelos sejam utilizados sem limitações claras. Segundo ele, há situações em que a IA pode comprometer valores democráticos.

O Departamento de Defesa sustenta que não pretende usar a tecnologia para vigilância em massa – prática que, segundo seus porta-vozes, é ilegal – nem para retirar totalmente humanos do processo decisório em armas nucleares. Ainda assim, insiste que o governo deve ter a palavra final sobre o uso da tecnologia em qualquer finalidade permitida por lei.

Anthropic resiste em liberar uso irrestrito do Claude para as Forças Armadas (Imagem: Sidney van den Boogaard/Shutterstock)

Expansão da IA no Pentágono

A tensão ocorre em meio à expansão do uso de IA nas Forças Armadas. Nos últimos anos, o Pentágono firmou contratos de até US$ 200 milhões com laboratórios como Anthropic, OpenAI e Google. O Claude, por exemplo, já é empregado em análise de inteligência, planejamento operacional e cibersegurança.

Especialistas avaliam que o embate ultrapassa questões técnicas e reflete divergências mais amplas sobre governança da inteligência artificial. Para analistas consultados pela Reuters e pelo Washington Post, trata-se também de um conflito político, já que a empresa tem adotado posições públicas críticas a certas políticas do governo Trump relacionadas à tecnologia.

O desfecho pode influenciar o relacionamento entre o setor de IA e o governo americano. Caso o Pentágono avance com medidas coercitivas, como o uso da Lei de Produção de Defesa, o recado ao mercado seria de que empresas podem perder controle sobre suas inovações em nome da segurança nacional. Por outro lado, uma concessão da Anthropic poderia abrir precedente para uso mais amplo de IA em operações militares sensíveis.

O post Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA apareceu primeiro em Olhar Digital.

Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA Read More »

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA

O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.

A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.

Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.

Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.

Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.

“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.

Linhas vermelhas: armas autônomas e vigilância em massa

  • A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
  • Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
  • Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
  • O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
  • Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.

“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.

Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.

Leia mais:

Anthropic: uso do Claude em operação na Venezuela

De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.

A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”

Claude teria sido utilizado pelo governo estadunidense em operação militar na Venezuela (Imagem: Ascannio/Shutterstock)

Pressão e possíveis sanções

Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.

Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.

“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.

O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.

Contratos bilionários e concorrência

Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.

Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.

Debate ético e intervenção governamental na Anthropic

Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.

Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.

Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.

“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.

Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.

O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.

Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.

O post Anthropic “bate o pé” e impede uso militar do Claude pelos EUA apareceu primeiro em Olhar Digital.

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA Read More »