Anthropic

Auto Added by WPeMatico

claude anthropic 1024x632

Anthropic: Amazon mantém oferta do Claude para clientes AWS

Após a confirmação de que a Anthropic foi classificada como risco na cadeia de suprimentos pelo Pentágono, a Amazon se pronunciou a respeito e disse que seguirá ofertando a inteligência artificial (IA) da empresa, o Claude, a seus clientes de nuvem, o Amazon Web Services (AWS). Somente os projetos que envolvem o Departamento de Defesa não receberão mais a oferta.

“Os clientes e parceiros da AWS podem continuar usando o Claude para todas as suas cargas de trabalho não associadas ao Departamento de Guerra (DoW). Para todas as cargas de trabalho do DoW que usam tecnologias da Anthropic, estamos dando suporte aos clientes e parceiros durante a transição para alternativas executadas na AWS”, disse um porta-voz da AWS em comunicado.

Amazon se junta a outras big techs para “defender” Anthropic

  • A Amazon, que detém a liderança no mercado de nuvem, segue o passo de suas concorrentes (Microsoft e Google) ao atualizar seus clientes sobre a disponibilidade da Anthropic;
  • Na quinta-feira (5), a Microsoft anunciou que o Claude segue acessível em produtos que não envolvam o Departamento de Defesa. Na manhã desta sexta-feira (6), foi a vez de o Google fazer o mesmo;
  • A gigante do e-commerce de Jeff Bezos é uma das maiores investidoras da Anthropic, com investimentos de US$ 8 bilhões (R$ 41,9 bilhões) desde 2023. Elas também possuem forte relação comercial.

Por sua vez, a AWS segue como a principal parceira de nuvem e treinamento da empresa de Dario Amodei, que se comprometeu a utilizar 500 mil chips personalizados da Amazon, o Trainium 2, como parte de um campus de data centers da AWS construído para a startup, nomeado Projeto Rainier. Seu custo é de US$ 11 bilhões (R$ 57,6 bilhões).

Startup está “em pé de guerra” com Pentágono (Imagem: gguy/Shutterstock)

Acesso ao Claude na AWS

Os modelos do Claude estão disponíveis via AWS Bedrock, no qual as empresas podem acessar vários modelos de IA de diferentes desenvolvedoras.

O Bedrock é fornecido por meio do serviço GovCloud, da AWS. Trata-se de uma região de nuvem dedicada e equipada para hospedagem de dados sensíveis e fluxos de trabalho regulamentados.

A Amazon conseguiu contratos bilionários com agências do governo dos EUA, fornecendo serviços de nuvem e IA. Em novembro de 2025, foram destinados, pela empresa, cerca de US$ 50 bilhões (R$ 262,2 bilhões) às infraestruturas de IA para clientes governamentais. À época, a big tech dizia ter mais de 11 mil agências dos EUA sob seu guarda-chuva.

Leia mais:

Anthropic vs Pentágono: linha do tempo

11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.

14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.

Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.

24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.

27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.

28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.
Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.

3 de março de 2026: Sam Altman, CEO da OpenAI, disse aos seus funcionários que não controla como o Pentágono utiliza o sistema de inteligência artificial da empresa.

4 de março de 2026: embora houvesse rumor de que Amodei e Hegseth voltariam a conversar, o Pentágono notificou formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.

5 de março de 2026: Amodei afirmou que a Anthropic pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial. Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.

O post Anthropic: Amazon mantém oferta do Claude para clientes AWS apareceu primeiro em Olhar Digital.

Anthropic: Amazon mantém oferta do Claude para clientes AWS Read More »

shutterstock 2645157717

Anthropic vai à Justiça contra Pentágono, diz CEO

No fim da noite desta quinta-feira (5), o CEO da Anthropic, Dario Amodei, confirmou os rumores de que a Anthropic teria recebido a classificação de risco à cadeia de suprimentos pelo Pentágono.

Além disso, ele afirmou que a empresa pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial.

Amodei confirmou que o governo dos EUA declarou a Anthropic como um risco de cadeia de suprimentos na quinta-feira (5). A classificação ocorre em meio a um impasse entre a startup e o Departamento de Defesa dos Estados Unidos (DOD) sobre a forma como seus modelos de inteligência artificial (IA), o Claude, podem ser utilizados.

A empresa vinha se desentendendo com o Pentágono sobre limites para o uso da tecnologia. No fim da semana passada, a Anthropic foi informada — por meio de publicações em redes sociais — de que estava sendo incluída em uma lista que a impediria de participar de contratos governamentais.

A companhia buscava garantias de que sua tecnologia não seria utilizada para armas totalmente autônomas ou para vigilância doméstica em massa. Já o DOD queria que a Anthropic concedesse acesso irrestrito ao Claude para qualquer finalidade legal.

“Como afirmamos na sexta-feira passada, não acreditamos, e nunca acreditamos, que seja papel da Anthropic ou de qualquer empresa privada se envolver na tomada de decisões operacionais — esse é o papel dos militares”, escreveu Amodei.

“Nossas únicas preocupações sempre foram nossas exceções para armas totalmente autônomas e vigilância doméstica em massa, que se relacionam a áreas de uso de alto nível, e não à tomada de decisões operacionais.”

CEO disse que não há outra saída senão ir à Justiça contra o Pentágono (Imagem: Thrive Studios ID/Shutterstock)

Leia mais:

Anthropic: Amodei diz que não há outra saída

  • Segundo o executivo, a Anthropic é a única empresa estadunidense a ser publicamente classificada como risco para a cadeia de suprimentos;
  • A designação agora oficial exige que fornecedores e contratados do setor de defesa certifiquem que não utilizam os modelos da empresa em trabalhos realizados com o Pentágono;
  • Esse tipo de classificação costuma ser aplicado a organizações que operam em países considerados adversários dos Estados Unidos, como a empresa chinesa de tecnologia Huawei;
  • Ainda há incerteza sobre se empresas contratadas pelo setor de defesa poderão continuar usando a tecnologia da Anthropic em projetos que não estejam relacionados ao trabalho militar;
  • Amodei afirmou que a designação “não limita (e não pode limitar) o uso do Claude ou relações comerciais com a Anthropic quando não estão relacionadas a contratos específicos com o Departamento de Guerra”.

A Microsoft, que anunciou, em novembro, planos de investir até US$ 5 bilhões (R$ 26,3 bilhões) na Anthropic, afirmou, em comunicado, que seus advogados analisaram a designação e concluíram que os produtos da empresa podem continuar disponíveis para clientes que não sejam o DOD.

A Anthropic havia firmado em julho um contrato de US$ 200 milhões (R$ 1 bilhão) com o Departamento de Defesa e foi o primeiro laboratório de inteligência artificial a integrar seus modelos a fluxos de trabalho de missões em redes classificadas. No entanto, com o avanço das divergências nas negociações, concorrentes também passaram a firmar acordos semelhantes.

A OpenAI, de Sam Altman, e a xAI, de Elon Musk, concordaram em implantar seus modelos em ambientes classificados. Altman anunciou o acordo de sua companhia com o Departamento de Defesa poucas horas depois de a Anthropic ter sido colocada na lista de restrições na sexta-feira (27).

Em uma publicação no X, Altman afirmou que a agência demonstrou “profundo respeito pela segurança e o desejo de fazer parceria para alcançar o melhor resultado possível”.

À frente e à esquerda, Sam Altman com um pequeno sorriso; à direita e ao fundo, o logo da OpenAI em uma tela
Executivo da OpenAI garantiu que o Departamento vai seguir suas restrições (Imagem: FotoField/Shutterstock)

Relação tensa

A relação entre a Anthropic e o governo do presidente Trump tem se tornado cada vez mais tensa nos últimos meses. Amodei chegou a pedir desculpas por um memorando interno crítico à administração que vazou para a imprensa na quarta-feira (4).

De acordo com uma reportagem do The Information, o executivo teria dito a funcionários que o governo não simpatizava com a Anthropic porque a empresa não havia feito doações nem oferecido “elogios no estilo ditador a Trump”.

Amodei afirmou que o memorando foi escrito na sexta-feira (27), após “um dia difícil para a empresa”, e que não reflete suas “opiniões cuidadosas ou ponderadas”. Ele acrescentou que o texto representa uma “avaliação desatualizada da situação atual”.

“A Anthropic não vazou essa publicação nem orientou ninguém a fazê-lo — não é do nosso interesse escalar essa situação”, escreveu o executivo.

O post Anthropic vai à Justiça contra Pentágono, diz CEO apareceu primeiro em Olhar Digital.

Anthropic vai à Justiça contra Pentágono, diz CEO Read More »

Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse

O Pentágono teria notificado formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.

A medida, confirmada por autoridades de defesa à Bloomberg, ocorre em um momento de incerteza: embora o Financial Times tenha relatado horas antes que as partes haviam voltado negociar, a oficialização do status de risco sinaliza que a diplomacia entre o Vale do Silício e Washington pode ter fracassado.

Essa notificação é um golpe direto na Anthropic, atualmente avaliada em US$ 380 bilhões. Com uma receita projetada de US$ 20 bilhões para este ano, a startup depende de sua integração em sistemas como o Maven (da Palantir), utilizado em operações militares no Irã.

Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.

Histórico das empresas

O embate entre o CEO da Anthropic, Dario Amodei, e o subsecretário de defesa, Emil Michael, atingiu níveis de hostilidade raros no setor. Michael chegou a acusar Amodei publicamente de ter um “complexo de Deus” e colocar a nação em perigo.

O cerne da disputa é uma cláusula sobre o uso do Claude para vigilância em massa e armas autônomas: termos que a Anthropic se recusa a flexibilizar, mas que rivais como OpenAI e xAI teriam aceitado sob a premissa de “qualquer uso legal”.

Um memorando interno da Anthropic, revelado pelo The Information, sugere que o Pentágono tentou uma manobra de última hora: o governo aceitaria os termos éticos da startup, desde que uma frase específica sobre “análise de dados adquiridos em massa” fosse removida.

A recusa de Amodei em ceder nesse ponto parece ter sido a gota d’água para que o Secretário de Defesa, Pete Hegseth, cumprisse a promessa de rotularr a empresa como uma ameaça à segurança nacional.

Cenário do setor

O mercado agora observa se a retomada das conversas citada pelo Financial Times é uma tentativa real de conciliação ou apenas uma formalidade antes de uma batalha judicial. A classificação de “risco à cadeia de suprimentos” é uma ferramenta de pressão extrema, geralmente reservada a adversários geopolíticos, e sua aplicação a uma “queridinha” de Wall Street cria um precedente que pode vir ameaçar a autonomia das Big Techs.

Para a Anthropic, o desafio é sobreviver a essa decisão do governo sem comprometer os princípios de segurança que sustentam sua marca. Enquanto isso, a OpenAI se posiciona para ocupar a lacuna deixada no Pentágono, transformando o impasse ético em uma vantagem competitiva de bilhões de dólares.

O post Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse apareceu primeiro em Olhar Digital.

Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse Read More »

pentagono 1024x683 1

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude

Anthropic e o Departamento de Defesa dos Estados Unidos (agora renomeado para Departamento de Guerra) cortaram relações na sexta-feira passada. O desentendimento veio após a desenvolvedora de IA se recusar a flexibilizar suas regras para permitir o uso do Claude em aplicações perigosas, incluindo vigilância em massa de cidadãos americanos e armas autônomas.

Agora, parece que a Anthropic mudou de ideia. Segundo o Financial Times, que citou fontes familiarizadas com o assunto, o CEO Dario Amodei voltou a discutir um possível acordo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. O objetivo seria estabelecer novos termos contratuais que permitam o uso do Claude nas forças armadas.

Mas o clima entre as partes é tenso. Após o desentendimento entre Anthropic e Pentágono, Michael criticou Amodei nas redes sociais, chamando-o de “mentiroso” com “complexo de Deus” e acusando-o de “colocar a segurança de nossa nação em risco”.

Do outro lado, Amodei também criticou o Pentágono e a rival OpenAI, que aproveitou a quebra de contrato para se aliar ao governo. Em um memorando interno divulgado pelo The Information, o executivo criticou o acordo entre OpenAI e Departamento de Defesa, classificando-o como “teatro da segurança” e afirmando que as mensagens entre as partes eram “mentiras descaradas”.

Amodei ainda sugeriu que o relacionamento da Anthropic com o governo federal pode ter se deteriorado por fatores políticos. No documento, ele afirmou que a empresa não fez doações ao presidente Donald Trump nem adotou uma postura pública de apoio semelhante à de outros líderes do setor de tecnologia.

O memorando também detalha um momento das negociações em que o Departamento de Defesa teria sinalizado que aceitaria os termos propostos pela startup, desde que uma cláusula específica fosse removida do contrato.

Perto do fim da negociação, o [departamento] ofereceu-se para aceitar os nossos termos atuais se excluíssemos uma frase específica sobre ‘análise de dados adquiridos em massa’, que era a única linha do contrato que correspondia exatamente ao cenário que mais nos preocupava. Achamos isso muito suspeito.

Anthropic, em memorando interno divulgado pelo The Information

Com a recusa da Anthropic, Pentágono se aliou à OpenAI (Imagem: Keith J Finks/Shutterstock)

Então, por que Anthropic voltou a negociar com o Pentágono?

Mesmo assim, a Anthropic tem motivo para voltar atrás.

Durante as negociações da semana passada, o secretário de Defesa dos Estados Unidos, Pete Hegseth, afirmou que a desenvolvedora poderia ser classificada como um “risco para a cadeia de suprimentos” caso não se aliasse ao Pentágono. Esse tipo de designação costuma ser aplicado a empresas consideradas uma ameaça à segurança nacional – geralmente por vínculos com governos estrangeiros – e poderia prejudicar a Anthropic no setor de tecnologia.

Caso a desenvolvedora realmente seja incluída na lista, companhias que trabalham com contratos de defesa poderiam ser obrigadas a interromper o uso do Claude e encerrar parcerias com a startup.

Leia mais:

Relembrando: No centro dessa disputa estão as condições para o uso militar da tecnologia da Anthropic. A empresa afirma ter dois limites claros: não permitir aplicações de vigilância em massa contra cidadãos americanos e impedir o uso de sistemas de inteligência artificial em armas autônomas letais, capazes de operar sem supervisão humana.

O Departamento de Defesa, por sua vez, defende que a IA utilizada pela instituição esteja disponível para “qualquer uso legal”, um princípio que a Anthropic considera amplo demais e potencialmente incompatível com suas restrições éticas. Segundo relatos, outras empresas do setor – como OpenAI e xAI – teriam aceitado esse tipo de condição.

O post Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude apareceu primeiro em Olhar Digital.

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude Read More »

Claude Chatgpt 1024x576

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa

A decisão da OpenAI de fechar uma parceria com o Departamento de Guerra (antigo Departamento de Defesa) dos Estados Unidos não caiu bem entre os usuários. As desinstalações do aplicativo do ChatGPT aumentaram em 295% no sábado (28 de fevereiro) em relação ao dia anterior.

Os dados são da empresa de inteligência de mercado Sensor Tower, divulgados pelo TechCrunch. O salto nesse número contrasta com a média diária registrada nos 30 dias anteriores, quando a mesma taxa ficava em torno de 9%.

E não foram apenas as desinstalações que afetaram o ChatGPT. Na sexta-feira (27), antes da divulgação do acordo da OpenAI com o Pentágono, a taxa de downloads havia crescido 14%. No sábado, depois do acordo, caiu 13% em relação ao dia anterior. No domingo, caiu mais 5%.

As quedas vieram após a OpenAI firmar um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Departamento de Guerra para fornecer IA voltada à vigilância militar. Antes disso, a Anthropic tinha um acordo com o Pentágono para a mesma finalidade, mas se recusou a flexibilizar suas regras de segurança para permitir o uso do Claude em operações militares perigosas. A rival desfez a parceria com o governo e a OpenAI entrou no lugar.

Mesmo com a perda do contrato federal, a Anthropic experienciou o efeito inverso: enquanto o ChatGPT caiu, o Claude cresceu em downloads.

Comparação nos downloads dos aplicativos ChatGPT (OpenAI) e Claude (Anthropic) [Imagem: Appfigures)

ChatGPT caindo, Claude crescendo

Após a recusa da Anthropic em ceder o Claude para aplicações militares perigosas, os downloads do aplicativo nos Estados Unidos subiram 37% na sexta-feira e 51% no sábado, de acordo com a Sensor Tower.

Os números sugerem que, aparentemente, parte dos consumidores aprovou a postura adotada pela desenvolvedora.

A repercussão também se refletiu no desempenho do aplicativo nas lojas digitais. No sábado, o Claude alcançou o primeiro lugar em downloads na App Store dos EUA – e continuou assim até segunda-feira (2). Para se ter uma ideia, uma semana antes, o app estava 20 posições abaixo no ranking.

Leia mais:

Além da Sensor Tower, outras empresas de monitoramento de mercado registraram tendências semelhantes:

  • A Appfigures apontou que, pela primeira vez, o total de downloads diários do Claude nos EUA superou o do ChatGPT;
  • Segundo as estimativas, o crescimento do app no sábado foi ainda mais expressivo, chegando a 88% em comparação com o dia anterior;
  • O avanço não ficou restrito ao mercado americano. A Appfigures informou que o Claude passou a ocupar o topo da categoria de aplicativos gratuitos para iPhone em seis países fora dos EUA: Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça;
  • Já a Similarweb estimou que, na última semana, os downloads do Claude nos EUA foram cerca de 20 vezes maiores do que os registrados em janeiro. A empresa destacou que o aumento pode estar associado a múltiplos fatores, e não exclusivamente à controvérsia envolvendo o Pentágono.

A reação também apareceu nas avaliações do ChatGPT. De acordo com a Sensor Tower, as avaliações de uma estrela para o aplicativo cresceram 775% no sábado e 100% no domingo. No mesmo intervalo, as avaliações máximas (cinco estrelas) caíram 50%.

O post Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa apareceu primeiro em Olhar Digital.

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa Read More »

Amodei E1772537614901 1024x576

Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono

A OpenAI firmou um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Pentágono para fornecer inteligência artificial (IA) voltada à vigilância militar. O acordo foi fechado após o colapso das negociações entre o Departamento de Defesa e a Anthropic, que recusou os termos exigidos pelo governo.

A divergência central envolve o monitoramento de cidadãos americanos e o uso da tecnologia em operações de segurança nacional. Enquanto a Anthropic priorizou restrições éticas sobre vigilância doméstica, a OpenAI aceitou as condições governamentais para integrar seus modelos de linguagem à infraestrutura de defesa dos EUA.

Anthropic interrompe negociações por restrições ao monitoramento de cidadãos

As conversas entre a Anthropic e o Pentágono falharam minutos antes do prazo final estabelecido pelo Secretário de Defesa, Pete Hegseth, segundo o jornal The New York Times. O impasse central foi a exigência do governo pelo uso irrestrito das ferramentas de IA para vigilância doméstica. A empresa se recusou a ceder em pontos que violariam suas políticas de segurança e ética de dados pessoais.

O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana (Imagem: Ahyan Stock Studios/Shutterstock)

O diretor de tecnologia do Departamento de Defesa, Emil Michael, liderou as tratativas de um contrato avaliado em US$ 200 milhões. O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana. A resistência da startup gerou atritos diretos com a cúpula do governo e resultou no fim do diálogo.

A Anthropic buscava garantir que seus modelos não fossem aplicados em ações de vigilância em solo americano. O Departamento de Defesa, contudo, demandava flexibilidade total para interpretar o que seria considerado monitoramento legal sob a legislação vigente. Essa divergência semântica e ética foi o principal gatilho para o encerramento do contrato na última sexta-feira (28).

O fracasso da parceria resultou na designação da Anthropic como risco à cadeia de suprimentos pelo governo federal. O presidente dos EUA, Donald Trump, ordenou que agências federais suspendessem o uso das tecnologias da empresa logo após o colapso do acordo.

OpenAI aceita termos do Pentágono e assume contrato de inteligência militar

Pouco após o recuo da Anthropic, o CEO da OpenAI, Sam Altman, anunciou um acordo com o Departamento de Defesa. A empresa assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono. A manobra foi vista como uma resposta estratégica para ocupar o vácuo deixado pela concorrente.

Logo da OpenAI em um smartphone
A OpenAI assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono (Imagem: Thrive Studios ID/Shutterstock)

A OpenAI concordou com cláusulas que permitem a utilização de seus sistemas para análise de dados de vigilância. Altman defendeu a posição afirmando que a empresa não deseja opinar sobre a legalidade de ações militares específicas, mas fornecer tecnologia de ponta. O acordo permite que o Pentágono utilize a infraestrutura da OpenAI para fins de segurança nacional.

Críticos e especialistas em privacidade consultados pelo The Verge questionam a conformidade do pacto com os princípios de segurança originais da OpenAI. A mudança na política de uso da empresa, ocorrida anteriormente, já havia removido a proibição explícita de aplicações para “fins militares e bélicos”. Essa alteração facilitou juridicamente a assinatura do contrato e o uso de modelos como o GPT-4.

O Pentágono planeja utilizar a tecnologia para acelerar o desenvolvimento de sistemas autônomos e o processamento massivo de informações de inteligência. A parceria estabelece a OpenAI como o principal fornecedor de IA generativa para a defesa dos Estados Unidos. E o movimento consolida uma fase na qual a eficiência operacional militar sobrepõe-se a restrições de monitoramento.

O post Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono apareceu primeiro em Olhar Digital.

Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono Read More »

Claude 3 1024x632

Claude: Anthropic libera recurso de memória para usuários gratuitos

A Anthropic anunciou que está levando mais um recurso antes restrito a assinantes pagos para o plano gratuito do Claude. A partir de agora, usuários da versão gratuita do chatbot poderão optar por permitir que a ferramenta faça referência a conversas anteriores para informar suas respostas.

A empresa tornou o Claude capaz de lembrar interações passadas pela primeira vez em agosto do ano passado. No fim do ano, adicionou a capacidade de compartimentalizar memórias. Agora, a funcionalidade de memória passa a integrar também o plano gratuito.

A mudança ocorre em um momento oportuno: mais cedo, a Anthropic facilitou a importação de conversas anteriores de um chatbot concorrente para o Claude.

Após ativar a memória, o usuário pode desativar o recurso a qualquer momento. É possível apenas pausar a funcionalidade — preservando as memórias para uso futuro — ou excluí-las completamente, garantindo que não fiquem armazenadas nos servidores da Anthropic.

Desenvolvedora do Claude, Anthropic entrou em rota de colisão com o governo dos EUA (Imagem: gguy/Shutterstock)

Leia mais:

Anthropic e Claude: popularidade em alta e disputa com o governo dos EUA

  • O Claude vive um momento de popularidade crescente. Recentemente, o aplicativo alcançou o primeiro lugar entre os apps gratuitos na App Store;
  • Ao mesmo tempo, a Anthropic está envolvida em uma disputa contratual de alto risco com o governo dos Estados Unidos relacionada a salvaguardas de IA;
  • Na sexta-feira (27), o secretário de Defesa dos EUA, Pete Hegseth, classificou a empresa como um “risco na cadeia de suprimentos” depois que a Anthropic se recusou a assinar um contrato que, segundo a startup, iria contra seus princípios de não militarizar a IA;
  • Após a declaração de Hegseth, a Anthropic afirmou que vai contestar a designação.

Por enquanto, resta acompanhar como a situação irá evoluir e quais podem ser as implicações para a empresa.

O post Claude: Anthropic libera recurso de memória para usuários gratuitos apareceu primeiro em Olhar Digital.

Claude: Anthropic libera recurso de memória para usuários gratuitos Read More »

Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic

No último sábado (28), enquanto os Estados Unidos iniciavam a Operação Epic Fury – uma ofensiva aérea de larga escala contra alvos no Irã –, o Departamento de Defesa se viu em meio a uma contradição tecnológica sem precedentes.

Segundo informações da Reuters e do Wall Street Journal, o Pentágono utilizou ferramentas de inteligência artificial da Anthropic para coordenar os ataques, menos de 24 horas após o presidente Donald Trump ter ordenado o banimento da empresa, classificando-a como um “risco à segurança nacional”.

Inteligência artificial em campo

A ofensiva utilizou um arsenal diversificado, incluindo bombardeiros furtivos B-2 e mísseis Tomahawk. No entanto, o “cérebro” por trás de parte da operação foi o Claude, o modelo de linguagem da Anthropic que concorre diretamente com o ChatGPT.

De acordo com o WSJ, o Comando Central dos EUA (Centcom) integrou a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A ironia é cronológica: o uso intensivo da IA ocorreu poucas horas depois de Trump assinar uma diretiva ordenando que as agências federais cessassem o uso dos programas da startup.

O cabo de guerra

O estopim da crise entre o governo e a Anthropic, conforme detalhado pelo portal Axios, foi a recusa do CEO da empresa, Dario Amodei, em atender a um ultimato do Pentágono. O Secretário de Defesa, Pete Hegseth, exigia “acesso irrestrito” aos modelos de IA, o que implicava na remoção de travas de segurança.

A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, traçou uma linha ética clara:

  • Vigilância: recusa em permitir o uso da IA para monitoramento em massa de cidadãos.
  • Autonomia bélica: proibição do uso do sistema em armas totalmente autônomas e letais sem supervisão humana.

Em sua rede social, Trump criticou a postura da empresa, afirmando que o “egoísmo” da startup colocava tropas americanas em perigo. Por outro lado, a Anthropic defende que a tecnologia atual não é confiável o suficiente para operar armas letais sem o controle final de um ser humano, como reportado pelo G1.

Um divórcio complexo

Embora o governo tenha rotulado a Anthropic como um “risco à cadeia de suprimentos” – um selo geralmente reservado a adversários estrangeiros –, a desconexão não será imediata. O Wall Street Journal destaca que a IA da empresa está profundamente entranhada nas operações militares, tendo sido peça-chave até na captura do ex-presidente venezuelano Nicolás Maduro, em fevereiro.

Para substituir o Claude, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk. No entanto, especialistas ouvidos pela imprensa americana alertam que o processo de transição pode levar pelo menos seis meses, dada a complexidade da integração dos sistemas via provedores como a Amazon e a Palantir.

A resistência do Vale do Silício

O caso da Anthropic parece ser o sintoma de um movimento maior. Segundo a Axios, grandes corporações americanas (de varejistas como Costco a gigantes da indústria como a 3M) começam a demonstrar uma “espinha dorsal” contra políticas da administração Trump, priorizando valores de mercado e diretrizes éticas em detrimento da conformidade imediata.

No campo de batalha do Irã, a Operação Epic Fury pode ter sido um sucesso militar, mas deixou exposta uma vulnerabilidade estratégica: a dependência de uma inteligência que o próprio governo não consegue (ou não é autorizado a) controlar totalmente.

O post Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic apareceu primeiro em Olhar Digital.

Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic Read More »

Sam Altman Openai 1024x576

Busca pelo Claude ‘dispara’ após Anthropic rejeitar uso militar da IA

O Claude, modelo de inteligência artificial da Anthropic, está no centro de uma disputa com o governo dos Estados Unidos. A empresa negociava um contrato de US$ 200 milhões (mais de R$ 1 bilhão) para fornecer a IA ao Pentágono, mas exigiu salvaguardas para impedir que a tecnologia fosse usada em vigilância em massa de cidadãos ou em armas autônomas.

A Casa Branca não gostou nada destas condições e deu um prazo para que a companhia abrisse mão dela. Como isso não aconteceu, o presidente Donald Trump ordenou que agências federais do país parassem de usar a tecnologia imediatamente. O impasse, no entanto, pode fazer com que o modelo seja ainda mais utilizado.

IA da Anthropic superou Gemini

  • O Claude subiu para a segunda posição dos aplicativos gratuitos mais baixados em aparelhos da Apple nos Estados Unidos nas últimas horas.
  • O aumento da popularidade do modelo de IA sugere que a Anthropic está se beneficiando do embate com a Casa Branca.
  • Com o aumento da procura, a ferramenta superou o Gemini, do Google, e só está atrás do ChatGPT, da OpenAI.
  • Além da firme postura da empresa ao rejeitar o uso militar da IA, uma postagem da cantora Katy Perry pode ter influenciado nesse maior interesse dos usuários.
  • A artista publicou uma captura de tela da assinatura Pro da Anthropic, com um coração sobreposto.
  • As informações são da CNBC.

Leia mais

OpenAI fechou acordo

O cerco do governo dos Estados Unidos à Anthropic gerou reações em cadeia. Funcionários do Google, Amazon e Microsoft assinaram cartas e petições nesta semana pedindo que suas companhias desafiem as exigências do Departamento de Defesa sobre o uso de IA em operações militares.

Sam Altman, CEO da OpenAI, inicialmente adotou tom cauteloso, mas acabou defendendo a concorrente. “Apesar de todas as minhas divergências com a Anthropic, confio bastante neles como empresa e acredito que eles realmente se preocupam com a segurança”, afirmou.

Executivo garantiu que a Casa Branca vai seguir suas restrições (Imagem: FotoField/Shutterstock)

Horas depois, no entanto, a OpenAI anunciou ter chegado a um acordo com o Pentágono para fornecer IA para sistemas confidenciais, inserindo salvaguardas que, segundo a empresa, impediriam usos indesejados.

O post Busca pelo Claude ‘dispara’ após Anthropic rejeitar uso militar da IA apareceu primeiro em Olhar Digital.

Busca pelo Claude ‘dispara’ após Anthropic rejeitar uso militar da IA Read More »

Dario Amodei CEO 1024x576

OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic

Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).

O anúncio foi feito no X e acontece horas depois de o presidente Donald Trump ter ordenado a quebra de contrato com a Anthropic, rival da OpenAI.

“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”

Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI

  • O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
  • Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
  • Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
  • Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
  • Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.

A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.

Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.

A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.

Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)

Leia mais:

Onde a empresa de Altman se encaixa agora?

Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.

“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.

Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.

Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.

“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.

Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.

O post OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic apareceu primeiro em Olhar Digital.

OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic Read More »