A Anthropic anunciou que está levando mais um recurso antes restrito a assinantes pagos para o plano gratuito do Claude. A partir de agora, usuários da versão gratuita do chatbot poderão optar por permitir que a ferramenta faça referência a conversas anteriores para informar suas respostas.
A empresa tornou o Claude capaz de lembrar interações passadas pela primeira vez em agosto do ano passado. No fim do ano, adicionou a capacidade de compartimentalizar memórias. Agora, a funcionalidade de memória passa a integrar também o plano gratuito.
A mudança ocorre em um momento oportuno: mais cedo, a Anthropic facilitou a importação de conversas anteriores de um chatbot concorrente para o Claude.
Após ativar a memória, o usuário pode desativar o recurso a qualquer momento. É possível apenas pausar a funcionalidade — preservando as memórias para uso futuro — ou excluí-las completamente, garantindo que não fiquem armazenadas nos servidores da Anthropic.
Desenvolvedora do Claude, Anthropic entrou em rota de colisão com o governo dos EUA (Imagem: gguy/Shutterstock)
Anthropic e Claude: popularidade em alta e disputa com o governo dos EUA
O Claude vive um momento de popularidade crescente. Recentemente, o aplicativo alcançou o primeiro lugar entre os apps gratuitos na App Store;
Ao mesmo tempo, a Anthropic está envolvida em uma disputa contratual de alto risco com o governo dos Estados Unidos relacionada a salvaguardas de IA;
Na sexta-feira (27), o secretário de Defesa dos EUA, Pete Hegseth, classificou a empresa como um “risco na cadeia de suprimentos” depois que a Anthropic se recusou a assinar um contrato que, segundo a startup, iria contra seus princípios de não militarizar a IA;
Após a declaração de Hegseth, a Anthropic afirmou que vai contestar a designação.
Por enquanto, resta acompanhar como a situação irá evoluir e quais podem ser as implicações para a empresa.
No último sábado (28), enquanto os Estados Unidos iniciavam a Operação Epic Fury – uma ofensiva aérea de larga escala contra alvos no Irã –, o Departamento de Defesa se viu em meio a uma contradição tecnológica sem precedentes.
Segundo informações da Reuters e do Wall Street Journal, o Pentágono utilizou ferramentas de inteligência artificial da Anthropic para coordenar os ataques, menos de 24 horas após o presidente Donald Trump ter ordenado o banimento da empresa, classificando-a como um “risco à segurança nacional”.
Inteligência artificial em campo
A ofensiva utilizou um arsenal diversificado, incluindo bombardeiros furtivos B-2 e mísseis Tomahawk. No entanto, o “cérebro” por trás de parte da operação foi o Claude, o modelo de linguagem da Anthropic que concorre diretamente com o ChatGPT.
De acordo com o WSJ, o Comando Central dos EUA (Centcom) integrou a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A ironia é cronológica: o uso intensivo da IA ocorreu poucas horas depois de Trump assinar uma diretiva ordenando que as agências federais cessassem o uso dos programas da startup.
O cabo de guerra
O estopim da crise entre o governo e a Anthropic, conforme detalhado pelo portal Axios, foi a recusa do CEO da empresa, Dario Amodei, em atender a um ultimato do Pentágono. O Secretário de Defesa, Pete Hegseth, exigia “acesso irrestrito” aos modelos de IA, o que implicava na remoção de travas de segurança.
A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, traçou uma linha ética clara:
Vigilância: recusa em permitir o uso da IA para monitoramento em massa de cidadãos.
Autonomia bélica: proibição do uso do sistema em armas totalmente autônomas e letais sem supervisão humana.
Em sua rede social, Trump criticou a postura da empresa, afirmando que o “egoísmo” da startup colocava tropas americanas em perigo. Por outro lado, a Anthropic defende que a tecnologia atual não é confiável o suficiente para operar armas letais sem o controle final de um ser humano, como reportado pelo G1.
Um divórcio complexo
Embora o governo tenha rotulado a Anthropic como um “risco à cadeia de suprimentos” – um selo geralmente reservado a adversários estrangeiros –, a desconexão não será imediata. O Wall Street Journal destaca que a IA da empresa está profundamente entranhada nas operações militares, tendo sido peça-chave até na captura do ex-presidente venezuelano Nicolás Maduro, em fevereiro.
Para substituir o Claude, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk. No entanto, especialistas ouvidos pela imprensa americana alertam que o processo de transição pode levar pelo menos seis meses, dada a complexidade da integração dos sistemas via provedores como a Amazon e a Palantir.
A resistência do Vale do Silício
O caso da Anthropic parece ser o sintoma de um movimento maior. Segundo a Axios, grandes corporações americanas (de varejistas como Costco a gigantes da indústria como a 3M) começam a demonstrar uma “espinha dorsal” contra políticas da administração Trump, priorizando valores de mercado e diretrizes éticas em detrimento da conformidade imediata.
No campo de batalha do Irã, a Operação Epic Fury pode ter sido um sucesso militar, mas deixou exposta uma vulnerabilidade estratégica: a dependência de uma inteligência que o próprio governo não consegue (ou não é autorizado a) controlar totalmente.
A ASML, gigante holandesa e peça-chave na engrenagem da tecnologia global, está traçando uma rota que vai muito além das famosas máquinas de litografia ultravioleta extrema (EUV). Em entrevista exclusiva à Reuters, a empresa revelou que planeja expandir seu portfólio para novas frentes de fabricação em um movimento estratégico para capturar uma fatia ainda maior do mercado de inteligência artificial.
Atualmente, a ASML é a única fornecedora no mundo das máquinas EUV, essenciais para que empresas como TSMC e Intel produzam os processadores mais avançados do planeta. No entanto, o objetivo agora é diversificar.
O grande foco da nova fase é o chamado empacotamento avançado. Se antes os chips eram projetados de forma plana, como casas térreas, a nova geração da IA exige estruturas que parecem arranha-céus, com múltiplas camadas de silício empilhadas e conectadas por furos nanométricos.
Essa mudança é vital para acelerar o processamento de modelos de linguagem e chatbots, como o ChatGPT. Conforme a complexidade aumenta, a precisão necessária para “colar” e conectar esses componentes torna-se um negócio altamente lucrativo.
“Olhamos não apenas para os próximos cinco anos, olhamos para os próximos 10, talvez 15 anos”, afirmou Marco Pieters, recém-nomeado Chief Technology Officer (CTO) da ASML.
O papel da IA na fabricação
A ASML também pretende aplicar inteligência artificial em seus próprios processos internos. Pieters, que possui experiência no desenvolvimento de software da companhia, indicou que a IA será usada para acelerar o software de controle das máquinas e otimizar a inspeção dos chips durante a construção.
Além disso, a empresa estuda como superar os limites físicos atuais. Hoje, o tamanho máximo de um chip que pode ser impresso é comparável ao de um selo postal. A ASML está pesquisando novas ferramentas de litografia e sistemas de escaneamento para permitir a criação de chips ainda maiores e mais potentes.
A dominância da ASML no setor é tão expressiva que seu valor de mercado já atinge os US$ 560 bilhões. Com as ações acumulando alta de mais de 30% apenas este ano, a expectativa de investidores sobre a gestão de Pieters e do CEO Christophe Fouquet é alta.
A empresa já deu os primeiros passos nessa nova direção com o lançamento do scanner XT:260, focado em memórias avançadas para IA. Sobre o futuro, Pieters é categórico: as novas ferramentas de empacotamento e conexão devem “coexistir ao lado do que temos feito nos últimos 40 anos”.
A disputa pelo domínio da inteligência artificial (IA) dentro do WhatsApp ganhou um novo capítulo nesta segunda-feira (2), aprofundando o embate entre a Meta e um grupo que reúne as startups Zapia e Luzia, além das gigantes Microsoft e OpenAI.
No Brasil, o conflito já chegou ao Conselho Administrativo de Defesa Econômica (Cade) e também foi parar na Justiça, em embate que coloca em jogo o acesso à plataforma digital mais disseminada do país.
No centro da disputa está a oferta de chatbots de IA dentro do WhatsApp. Para as empresas envolvidas, marcar presença no aplicativo significa fincar posição estratégica no principal canal de comunicação digital dos brasileiros.
Após obter decisão judicial favorável para restringir concorrentes do Meta AI, a Meta, agora, enfrenta um novo movimento da Zapia, que promete elevar o nível de complexidade da briga.
Zapia tenta “contornar” políticas da Meta
A startup uruguaia, criada há dois anos, está, segundo o UOL, prestes a anunciar a oferta de agentes de IA — considerados símbolos da nova fase da IA;
Diferentemente dos chatbots tradicionais, esses agentes são descritos como robôs autônomos capazes de executar tarefas sozinhos, aprender as necessidades dos usuários e agir proativamente, antecipando demandas antes mesmo de serem solicitadas;
A novidade será lançada inicialmente no próprio aplicativo da Zapia, mas a empresa já testa a integração da função ao WhatsApp e pretende implementá-la futuramente na plataforma, segundo o UOL. Internamente, a chegada desses assistentes ao app da Meta é vista como “bem provável”;
Caso se concretize, o movimento representará não apenas uma intensificação da presença da Zapia no território da concorrente, mas também uma antecipação à oferta de agentes dentro do ecossistema da Meta — a Manus AI, adquirida pela companhia de Mark Zuckerberg, já liberou agentes, porém no Telegram.
Atualmente, a Zapia afirma atender seis milhões de pessoas na América Latina. Seu agente de IA realiza reservas, cria lembretes, gerencia agendas, responde dúvidas e executa tarefas, como a maioria dos chatbots disponíveis no mercado.
Agora, com o lançamento do Zapia Max, a empresa inaugura sua entrada na era dos agentes de IA. O novo sistema poderá interagir com outros aplicativos para pesquisar e comparar preços em diferentes lojas, detectar quedas de valores, organizar caixas de e-mail e editar documentos ou planilhas.
O motor dessa transformação, diz o UOL, é o OpenClaw, sistema de código aberto projetado para atuar como agente de IA — com capacidade de controlar um computador, executar tarefas complexas e automatizar fluxos de trabalho. Entre suas vantagens está a possibilidade de operar diretamente no aparelho do usuário e também via plataformas de mensagem, como WhatsApp, Telegram, Discord e Slack.
Só há um porém: em postagem de blog passada, a Zapia desqualificou o OpenClaw ante sua própria ferramenta. A empresa uruguaia afirma que não concederá controle irrestrito ao OpenClaw em sua aplicação. Segundo a empresa, o agente só navegará e executará ações em nome dos usuários mediante permissões especiais.
Leia mais:
Startup uruguaia lidera revolução dos agentes de IA em mensageiros, como o WhatsApp (Imagem: Reprodução/Zapia)
Agentes de IA em alta
Os agentes de IA tornaram-se alvo de interesse das grandes empresas de tecnologia. O OpenClaw deu origem ao Moltbook, rede social que chamou atenção por ser alimentada exclusivamente por robôs, com humanos atuando apenas como espectadores.
Seu fundador, o desenvolvedor Peter Steinberger, foi recentemente contratado pela OpenAI, com anúncio feito pelo próprio Sam Altman. Steinberger continuará mantendo o sistema e o transferirá para uma fundação que receberá recursos da desenvolvedora do ChatGPT.
A própria Meta também investiu pesado nesse segmento. No ano passado, a empresa adquiriu a Manus AI por US$ 3 bilhões (R$ 15,5 bilhões). A companhia nasceu na China e foi posteriormente realocada em Singapura, destacando-se no desenvolvimento de agentes de IA.
O embate entre Meta e as startups ganhou força em janeiro, quando a big tech proibiu desenvolvedores de IA de oferecer seus serviços no WhatsApp. Permaneceram autorizadas apenas empresas que utilizam IA generativa para aprimorar o atendimento ao cliente. Zapia e Luzia denunciaram a conduta ao Cade, que suspendeu a medida no Brasil após abrir investigação para apurar se a restrição prejudicava a concorrência.
Em outros países, a disputa assumiu contornos diferentes. Onde não conseguiu manter o banimento, como na Itália, a Meta passou a cobrar por mensagem trocada com chatbots. No Brasil, porém, após obter decisão favorável, a empresa não tem planos de implementar a cobrança por ora, aponta o UOL.
Para a Zapia, a restrição imposta pela Meta acabou acelerando a transformação de seu próprio aplicativo no principal canal de distribuição. A estratégia se completa com o lançamento simplificado dos agentes de IA.
A startup uruguaia, inclusive, conta com reforço financeiro relevante. A empresa recebeu investimento de R$ 36 milhões da Prosus Ventures, braço de investimentos da Prosus, companhia holandesa comandada pelo brasileiro Fabrício Bloisi, ex-líder do iFood. Além do aporte financeiro, a expectativa é que a Zapia se beneficie da expertise do grupo em situações adversas, compartilhada por outras empresas investidas.
Considerada uma gigante discreta do setor de tecnologia, a Prosus é dona de iFood, Decolar e OLX, além de deter participação na chinesa Tencent — controladora do WeChat e de jogos, como League of Legends, Fortnite e Valorant — e no Nubank. Coincidentemente, também é investidora da Luzia, outra empresa que disputa espaço no WhatsApp.
Sob a liderança de Bloisi, o plano é ampliar os recursos destinados à Zapia e direcionar investimentos para outras startups de IA, fortalecendo a presença do grupo no setor e adicionando novos capítulos à disputa que tem o WhatsApp como palco principal.
O que diz a Zapia
O Olhar Digital entrou em contato com a Zapia e aguarda retorno.
O Claude, modelo de inteligência artificial da Anthropic, está no centro de uma disputa com o governo dos Estados Unidos. A empresa negociava um contrato de US$ 200 milhões (mais de R$ 1 bilhão) para fornecer a IA ao Pentágono, mas exigiu salvaguardas para impedir que a tecnologia fosse usada em vigilância em massa de cidadãos ou em armas autônomas.
A Casa Branca não gostou nada destas condições e deu um prazo para que a companhia abrisse mão dela. Como isso não aconteceu, o presidente Donald Trump ordenou que agências federais do país parassem de usar a tecnologia imediatamente. O impasse, no entanto, pode fazer com que o modelo seja ainda mais utilizado.
IA da Anthropic superou Gemini
O Claude subiu para a segunda posição dos aplicativos gratuitos mais baixados em aparelhos da Apple nos Estados Unidos nas últimas horas.
O aumento da popularidade do modelo de IA sugere que a Anthropic está se beneficiando do embate com a Casa Branca.
Com o aumento da procura, a ferramenta superou o Gemini, do Google, e só está atrás do ChatGPT, da OpenAI.
Além da firme postura da empresa ao rejeitar o uso militar da IA, uma postagem da cantora Katy Perry pode ter influenciado nesse maior interesse dos usuários.
A artista publicou uma captura de tela da assinatura Pro da Anthropic, com um coração sobreposto.
O cerco do governo dos Estados Unidos à Anthropic gerou reações em cadeia. Funcionários do Google, Amazon e Microsoft assinaram cartas e petições nesta semana pedindo que suas companhias desafiem as exigências do Departamento de Defesa sobre o uso de IA em operações militares.
Sam Altman, CEO da OpenAI, inicialmente adotou tom cauteloso, mas acabou defendendo a concorrente. “Apesar de todas as minhas divergências com a Anthropic, confio bastante neles como empresa e acredito que eles realmente se preocupam com a segurança”, afirmou.
Executivo garantiu que a Casa Branca vai seguir suas restrições (Imagem: FotoField/Shutterstock)
Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”
Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI
O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.
A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.
Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.
A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.
Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)
Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.
“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.
Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.
Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.
“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.
Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.
Nesta sexta-feira (27), o presidente dos Estados Unidos, Donald Trump, disse que está ordenando que todas as instituições federais parem de utilizar a tecnologia da Anthropic.
O anúncio vem após a recente disputa entre Pentágono e a empresa de Dario Amodei acerca do uso da inteligência artificial (IA) militarmente e cerca de uma hora antes do deadline dado pelo governo à Anthropic para permitir o uso da tecnologia para usos militares ou, do contrário, encarar as consequências.
Trump disse que a maioria das agências federais deve parar de usar a tecnologia imediatamente, enquanto o Pentágono terá seis meses para isso, pois a IA da empresa está embarcada em plataformas militares.
Em sua rede social, a Truth Social, o presidente dos EUA afirmou que “não precisamos, não queremos e não faremos mais negócios com eles!”
Por enquanto, a Anthropic não se manifestou a respeito da determinação.
Anthropic não quer militarização de sua tecnologia
A Anthropic resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
O Pentágono, por sua vez, afirmou que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
Trump adotou forte tom em publicação no Truth Social (Imagem: Joshua Sukoff/Shutterstock)
Pentágono ataca empresa e Amodei
O Pentágono ameaçou classificar a empresa como um risco à cadeia de suprimentos — o que a impediria de fechar contratos com o governo — ou forçá-la a disponibilizar seu modelo de ponta sem restrições com base na Lei de Produção de Defesa (DPA, na sigla em inglês).
O confronto ganhou contornos pessoais quando Emil Michael, alto funcionário do Pentágono responsável por supervisionar a área de IA, atacou diretamente o diretor-executivo da Anthropic, Dario Amodei. Após a declaração de Amodei, Michael publicou críticas no X.
“É uma pena que @DarioAmodei seja um mentiroso e tenha um complexo de Deus”, escreveu ele na noite de quinta-feira (26). “Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se dobrará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”
Autoridades do Departamento de Estado recorreram às redes sociais para reforçar a posição do Pentágono e criticar a Anthropic, enquanto senadores democratas saíram em defesa da empresa. O senador Mark Warner, principal democrata do Comitê de Inteligência do Senado, publicou um vídeo na quinta-feira (26) afirmando que empresas precisam fazer concessões ao governo, mas indicou considerar legítimas as preocupações da Anthropic em relação à vigilância e drones autônomos.
Warner argumentou que a empresa estava sendo ameaçada pelo secretário de Defesa, Pete Hegseth, por priorizar a segurança. “Ele está ameaçando-os, literalmente até amanhã [sexta-feira], que se eles não abrirem mão de todos os controles de segurança e outras coisas, qualquer um que faça negócios com eles será banido”, declarou o senador.
O Pentágono exige que todos os seus contratados sigam um padrão único: o de que as Forças Armadas possam utilizar os produtos adquiridos como desejarem, desde que em conformidade com a lei. Ao mesmo tempo, autoridades militares têm adotado um tom combativo contra empresas de tecnologia.
Uma carta publicada na quinta-feira (26) foi assinada por quase 50 funcionários da OpenAI e 175 do Google. O documento criticou as táticas de negociação do Pentágono e pediu que as lideranças “coloquem de lado suas diferenças e permaneçam unidas para continuar a recusar as atuais exigências do Departamento de Guerra”. “Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, afirma a carta.
O Pentágono declarou na quinta-feira (26) que não tem interesse em utilizar o Claude for Government — modelo da Anthropic que opera em sistemas classificados — para vigilância doméstica ou para drones autônomos. Amodei, contudo, afirmou que essa alegação era enfraquecida pela linguagem jurídica presente no contrato.
“Em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”, escreveu ele. “Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade.”
O Pentágono afirma estar preparado para avançar com o Grok, da xAI, empresa de Elon Musk. No entanto, segundo autoridades atuais e ex-integrantes do governo, o produto é considerado inferior. Além disso, a troca de software de IA exigiria tempo e provavelmente causaria interrupções significativas.
O CEO da OpenAI, Sam Altman, decidiu intervir no embate entre a Anthropic e o Departamento de Defesa dos Estados Unidos sobre o uso de inteligência artificial em operações militares. Em comunicado interno enviado a funcionários na noite de quinta-feira (26), o executivo afirmou que a empresa negocia um acordo com o Pentágono que permita o uso de seus modelos em ambientes sensíveis, mas sem abrir mão de princípios inegociáveis.
Segundo ele, a OpenAI busca chegar a um contrato que autorize a aplicação da IA “para todos os usos legais”, com exceção de casos como vigilância em massa e armas letais totalmente autônomas. Até o momento, nenhum acordo foi formalizado e as negociações ainda podem fracassar.
No memorando, visto pelo jornal Wall Street Journal, Altman apoiou a posição da Anthropic ao impor limites éticos para usos militares, mas também reconheceu a preocupação do governo sobre o controle de tecnologias sensíveis. Ele segue defendendo que decisões de alto risco continuem sob supervisão humana, sem automatizações.
Para tentar equilibrar os interesses opostos do Pentágono e da Anthropic, a OpenAI propõe a adoção de medidas técnicas, como restringir a execução dos modelos a ambientes de nuvem controlados, evitando implementações em usos militares diretos. A desenvolvedora também quer disponibilizar equipes especializadas para trabalhar em parceria com o governo e garantir que a tecnologia seja utilizada dentro de parâmetros definidos.
A expectativa de Altman é que uma solução negociada possa servir de referência para todo o setor no que diz respeito ao uso de IA em operações militares.
Pentágono deu até o final da tarde desta sexta-feira para que Anthropic aceite os termos (Imagem: Keith J Finks/Shutterstock)
Pentágono x Anthropic
A movimentação ocorre enquanto o Pentágono pressiona a Anthropic a flexibilizar seus limites de segurança.
O Departamento de Defesa quer que a desenvolvedora autorize o uso para “todos os fins lícitos”. Do outro lado, o CEO da Anthropic, Dario Amodei, já afirmou publicamente que não permitirá que o Claude seja empregado em armas totalmente autônomas ou em sistemas de vigilância doméstica em larga escala.
O secretário de Defesa, Pete Hegseth, deu até o fim da tarde desta sexta-feira (27) para que a empresa decida se vai aceitar flexibilizar suas regras ou não. Caso não aceite, a Anthropic deve perder o contrato com o governo dos Estados Unidos. Em um caso mais extremo, o governo pode intervir na atuação da companhia em nome da segurança nacional. O Olhar Digital deu os detalhes da disputa neste link.
Parlamentares também entraram na discussão. Líderes republicanos e democratas das comissões de Serviços Armados e de Orçamento da Defesa enviaram cartas às partes envolvidas pedindo diálogo e sugerindo a extensão do prazo.
Altman avaliou que o impasse não se resume ao tipo de aplicação da tecnologia, mas ao controle sobre ela. Em sua mensagem interna, ele afirmou que, embora empresas privadas possam ter influência relevante, não devem se sobrepor ao governo eleito em decisões de segurança nacional – reforçando, mais uma vez, os limites éticos da tecnologia.
Enquanto isso, Pentágono segue firme na parceria com a xAI (Imagem: Ahyan Stock Studios/Shutterstock)
xAI, Grok e o debate sobre segurança
Enquanto a Anthropic enfrenta resistência por manter restrições, o Pentágono avançou na adoção do Grok, chatbot desenvolvido pela xAI, para uso em ambientes sensíveis. A decisão ocorreu apesar de alertas internos de diferentes agências federais sobre possíveis fragilidades de segurança e confiabilidade do modelo.
Funcionários da Administração de Serviços Gerais (GSA) e outros órgãos manifestaram preocupação com a suscetibilidade do Grok à manipulação por dados tendenciosos ou imprecisos, além de episódios anteriores envolvendo geração de imagens sexualizadas. Relatórios internos também apontaram riscos relacionados à rastreabilidade de dados de treinamento e à robustez dos testes de segurança.
Mesmo assim, o Departamento de Defesa demonstrou entusiasmo com a incorporação da xAI a projetos sensíveis e indicou que pretende integrar o Grok à sua plataforma oficial de IA.
O movimento foi interpretado por analistas como parte de um ambiente cada vez mais politizado, no qual as posições públicas das empresas sobre segurança e regulação influenciam decisões contratuais.
Conforme reportado pelo Olhar Digital, o secretário de Defesa dos Estados Unidos, Pete Hegseth, deu um ultimato à startup de inteligência artificial Anthropic. A empresa deve decidir se libera ou não seu modelo de IA, o Claude, para usos irrestritos para o Pentágono – inclusive aplicações consideradas perigosas.
A Anthropic ficou conhecida no mercado por priorizar a segurança da tecnologia e resiste em flexibilizar suas regras. O embate com o governo dos EUA começou justamente porque a desenvolvedora não permitiu o uso do Claude em aplicações como armas totalmente autônomas nem em vigilância doméstica em massa.
O Pentágono exige que a startup libere sua tecnologia para “todos os fins lícitos” ou perderá o contrato com o governo. A startup tem até às 15h01 (horário local dos Estados Unidos) desta sexta-feira para decidir se aceita os termos ou não.
Caso não aceite, além de perder o contrato, a companhia pode entrar para uma lista de empresas que representam risco à cadeia de suprimentos – o que a excluiria de outros contratos federais. O governo também pode acionar a Lei de Produção de Defesa, mecanismo que permite intervenção estatal em nome da segurança nacional.
O impasse ganhou força após reuniões recentes entre executivos da empresa e autoridades do Pentágono.
Segundo a agência Reuters, em uma delas, foi discutido um cenário hipotético envolvendo o lançamento de um míssil balístico contra os EUA e o uso do Claude para auxiliar na resposta militar. Autoridades afirmam que a postura cautelosa da Anthropic irritou integrantes do governo, que defendem maior liberdade para empregar sistemas de IA em operações estratégicas.
A empresa, por sua vez, nega versões de que teria se recusado a cooperar em casos de defesa antimísseis, mas reafirma que não abrirá mão de suas “linhas vermelhas”. Em comunicado, o CEO Dario Amodei declarou que a companhia não pode permitir, “em sã consciência”, que seus modelos sejam utilizados sem limitações claras. Segundo ele, há situações em que a IA pode comprometer valores democráticos.
O Departamento de Defesa sustenta que não pretende usar a tecnologia para vigilância em massa – prática que, segundo seus porta-vozes, é ilegal – nem para retirar totalmente humanos do processo decisório em armas nucleares. Ainda assim, insiste que o governo deve ter a palavra final sobre o uso da tecnologia em qualquer finalidade permitida por lei.
Anthropic resiste em liberar uso irrestrito do Claude para as Forças Armadas (Imagem: Sidney van den Boogaard/Shutterstock)
Expansão da IA no Pentágono
A tensão ocorre em meio à expansão do uso de IA nas Forças Armadas. Nos últimos anos, o Pentágono firmou contratos de até US$ 200 milhões com laboratórios como Anthropic, OpenAI e Google. O Claude, por exemplo, já é empregado em análise de inteligência, planejamento operacional e cibersegurança.
Especialistas avaliam que o embate ultrapassa questões técnicas e reflete divergências mais amplas sobre governança da inteligência artificial. Para analistas consultados pela Reuters e pelo Washington Post, trata-se também de um conflito político, já que a empresa tem adotado posições públicas críticas a certas políticas do governo Trump relacionadas à tecnologia.
O desfecho pode influenciar o relacionamento entre o setor de IA e o governo americano. Caso o Pentágono avance com medidas coercitivas, como o uso da Lei de Produção de Defesa, o recado ao mercado seria de que empresas podem perder controle sobre suas inovações em nome da segurança nacional. Por outro lado, uma concessão da Anthropic poderia abrir precedente para uso mais amplo de IA em operações militares sensíveis.
O Conselho Federal de Medicina (CFM) lançou a primeira regra sobre o uso de inteligência artificial (IA) na medicina brasileira. A resolução, publicada nesta sexta-feira (27), define que a tecnologia deve servir apenas como ferramenta de apoio, sem substituir a decisão final do médico.
As novas normas entram em vigor em 180 dias e estabelecem que a responsabilidade final por diagnósticos e tratamentos permanece com o profissional humano. Além disso, fica expressamente proibido que sistemas automáticos deem resultados ou sugiram tratamentos diretamente aos pacientes sem um médico explicar a situação.
Resolução do CFM institui critérios de segurança e governança para uso de IA
A resolução cria critérios de segurança e gestão para o uso de tecnologias com IA. Foi estabelecida uma escala de risco com quatro níveis para classificar os sistemas de IA: baixo, médio, alto e inaceitável. Para definir em qual nível uma tecnologia se enquadra, a norma avalia o seguinte:
Impacto nos direitos fundamentais: Se o uso da tecnologia pode afetar direitos básicos e garantias do paciente;
Gravidade clínica: Quão crítico é o contexto de saúde e a gravidade da condição médica tratada;
Sensibilidade dos dados: A natureza das informações (dados sensíveis) que o sistema de IA processa;
Grau de autonomia: Nível de independência do sistema na geração de resultados e sugestões.
A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico, segundo a resolução do CFM (Imagem: Amir Sajjad/Shutterstock)
Sempre que a IA for um apoio relevante no atendimento, o médico é obrigado a registrar o uso no prontuário para garantir que o processo possa ser rastreado. Além disso, o profissional mantém sua autonomia, o que significa que nenhum médico pode ser forçado a seguir sugestões da máquina. A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico.
Outro ponto importane: o paciente tem o direito de recusar o uso da IA em seu tratamento e deve ser informado sobre o uso da tecnologia com antecedência. E o uso dessas ferramentas não dispensa o médico de seguir o Código de Ética Médica. Em caso de falhas exclusivas do sistema, o médico não será punido, desde que tenha agido com cuidado e relatado o erro. O profissional tem o dever de comunicar riscos ou falhas às autoridades de fiscalização assim que as detectar.
Hospitais e clínicas que utilizarem IA deverão criar uma Comissão de IA e Telemedicina chefiada obrigatoriamente por um médico. Esse grupo será responsável por fiscalizar e monitorar as ferramentas para garantir o uso ético. Por fim, o funcionamento de qualquer modelo de IA deve respeitar rigorosamente a Lei Geral de Proteção de Dados (LGPD).