Claude

Auto Added by WPeMatico

claude opus 1024x682

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado

A empresa de inteligência artificial (IA) Anthropic confirmou que está desenvolvendo e já iniciou testes com um novo modelo de IA mais avançado do que qualquer versão anterior, após um vazamento de dados revelar sua existência.

Segundo a companhia, o sistema representa “uma mudança de patamar” em desempenho e é “o mais capaz que já construímos até hoje”.

De acordo com um porta-voz, o modelo já está sendo testado por um grupo restrito de clientes com acesso antecipado. A confirmação veio depois que descrições do sistema foram encontradas acidentalmente em um cache de dados público, analisado pela revista Fortune.

Vazamento expõe novo modelo e estratégia da Anthropic

  • O material vazado incluía um rascunho de postagem de blog, disponível em um repositório público e não protegido até a noite de quinta-feira (26), no qual o modelo era identificado como Claude Mythos. No documento, a empresa afirmava que o sistema poderia representar riscos inéditos de segurança cibernética;
  • O mesmo conjunto de arquivos também revelou detalhes sobre um encontro exclusivo de CEOs na Europa, parte da estratégia da Anthropic para comercializar seus modelos de IA a grandes empresas;
  • Os documentos foram encontrados em um vazamento de dados público e desprotegido, segundo análise de Roy Paz, pesquisador sênior de segurança em IA da LayerX Security, e Alexandre Pauwels, pesquisador da Universidade de Cambridge;
  • Ao todo, cerca de três mil ativos ligados ao blog da empresa — que não haviam sido publicados oficialmente — estavam acessíveis, segundo Pauwels.

Após ser informada pela Fortune, a Anthropic desativou o acesso público ao repositório. Em nota, a empresa atribuiu o incidente a um “erro humano” na configuração de seu sistema de gerenciamento de conteúdo (CMS, na sigla em inglês), classificando os arquivos como “rascunhos iniciais de conteúdo considerados para publicação”.

Novo nível de modelos: Capybara

Além do nome Mythos, o rascunho também descrevia uma nova categoria de modelos chamada Capybara. Segundo o documento, “‘Capybara’ é um novo nome para uma nova camada de modelo: maior e mais inteligente do que nossos modelos Opus — que, até agora, eram os mais poderosos”.

A Anthropic atualmente organiza seus modelos em três níveis: Opus (mais avançados), Sonnet (intermediários) e Haiku (mais leves e rápidos). O Capybara surgiria como uma camada superior ao Opus, com maior capacidade — e também custo mais elevado.

“Comparado ao nosso melhor modelo anterior, Claude Opus 4.6, o Capybara alcança pontuações dramaticamente mais altas em testes de programação, raciocínio acadêmico e cibersegurança, entre outros”, diz o texto.

O documento afirma ainda que o treinamento do Claude Mythos já foi concluído e o descreve como, “de longe, o modelo de IA mais poderoso que já desenvolvemos”.

Questionada pela Fortune, a empresa confirmou o desenvolvimento do novo sistema: “Estamos desenvolvendo um modelo de propósito geral com avanços significativos em raciocínio, programação e cibersegurança”, disse o porta-voz. “Dada a força de suas capacidades, estamos analisando como lançá-lo.”

O material analisado indica que o lançamento será gradual, começando com um grupo restrito de usuários, devido ao alto custo operacional e ao fato de o modelo ainda não estar pronto para uso amplo.

Leia mais:

Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)

Riscos inéditos em cibersegurança

Um dos principais pontos destacados no rascunho é o potencial de risco do modelo na área de segurança digital. “Ao nos prepararmos para lançar o Claude Capybara, queremos agir com cautela extra e entender os riscos que ele apresenta — inclusive, além do que aprendemos em nossos próprios testes”, afirma o documento.

A empresa demonstra preocupação específica com o uso malicioso da tecnologia: o sistema estaria “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas” e “prenuncia uma onda de modelos capazes de explorar vulnerabilidades muito mais rapidamente do que os esforços de defesa”.

Na prática, isso significa que hackers poderiam utilizar o modelo para realizar ataques cibernéticos em larga escala. Por esse motivo, a estratégia inicial de lançamento prioriza defensores de segurança digital. “Estamos liberando o acesso antecipado para organizações, dando a elas uma vantagem inicial na melhoria da robustez de seus sistemas contra a onda iminente de exploits impulsionados por IA”, diz o texto.

A Anthropic não é a única a alertar para esse tipo de risco. Modelos recentes também têm ultrapassado limites considerados críticos em cibersegurança. Em fevereiro, a OpenAI classificou seu GPT-5.3-Codex como de “alta capacidade” para tarefas relacionadas à área.

A própria Anthropic já havia enfrentado desafios semelhantes com o Opus 4.6, capaz de identificar vulnerabilidades desconhecidas em códigos — uma característica de uso duplo, que pode tanto fortalecer defesas quanto facilitar ataques.

A empresa também revelou que grupos hackers, incluindo organizações ligadas ao governo chinês, já tentaram explorar seus sistemas.

Em um caso documentado, um grupo patrocinado pelo Estado chinês utilizou o Claude Code para infiltrar cerca de 30 organizações, incluindo empresas de tecnologia, instituições financeiras e agências governamentais. Após detectar a operação, a Anthropic investigou o caso por dez dias, baniu as contas envolvidas e notificou as vítimas.

Especialistas apontam que o vazamento ocorreu devido à configuração padrão do CMS utilizado pela empresa, que torna os arquivos públicos automaticamente, a menos que o usuário altere manualmente as permissões.

A Anthropic confirmou que “um problema com uma de nossas ferramentas externas de CMS levou ao acesso a conteúdo em rascunho”, novamente atribuindo a falha a erro humano. Embora muitos arquivos fossem materiais descartados — como imagens e banners —, alguns pareciam documentos internos, incluindo registros relacionados a benefícios de funcionários.

Entre os arquivos, também havia um PDF com detalhes de um retiro exclusivo para CEOs europeus, que será realizado no Reino Unido e contará com a presença do CEO da empresa, Dario Amodei.

O evento de dois dias é descrito como um encontro “íntimo”, voltado a “conversas reflexivas” em uma mansão do século XVIII transformada em hotel e spa. Os participantes, não identificados nominalmente, são descritos como alguns dos líderes empresariais mais influentes da Europa.

Segundo a empresa, o encontro faz parte de uma série de eventos organizados ao longo do último ano. “Esperamos receber líderes empresariais europeus para discutir o futuro da IA”, afirmou o porta-voz.

O post Anthropic, dona do Claude, trabalha em modelo de IA mais avançado apareceu primeiro em Olhar Digital.

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado Read More »

69c0acb66ca028e43998d824 cowork dispatch blog permissions 1024x576

Claude agora usa seu computador para executar tarefas

A Anthropic anunciou uma nova funcionalidade que permite enviar comandos ao Claude pelo smartphone para que o assistente execute tarefas diretamente no computador do usuário. A novidade foi apresentada na segunda-feira (23) e faz parte da estratégia da empresa de avançar no desenvolvimento de agentes de IA.

Segundo a companhia, após receber um comando, o Claude consegue abrir aplicativos, navegar em um navegador e preencher planilhas. Em um vídeo divulgado, um usuário pede que o sistema exporte uma apresentação em PDF e a anexe a um convite de reunião, tarefa que é realizada pelo assistente.

OpenClaw como referência no avanço dos agentes

A atualização reforça o movimento do setor em direção a agentes capazes de executar tarefas de forma autônoma. Esse tipo de tecnologia ganhou destaque após o lançamento do OpenClaw, que se tornou viral.

O OpenClaw se conecta a modelos da OpenAI e da própria Anthropic, permitindo que usuários enviem comandos por aplicativos como WhatsApp e Telegram. Assim como o novo recurso do Claude, ele roda localmente no dispositivo, o que possibilita acesso a arquivos.

O CEO da Nvidia, Jensen Huang, afirmou à CNBC na semana passada que o OpenClaw é “definitivamente o próximo ChatGPT”. A empresa também anunciou o NemoClaw, uma versão corporativa do sistema.

Já a OpenAI contratou, no mês passado, Peter Steinberger, criador do OpenClaw, com o objetivo de “impulsionar a próxima geração de agentes pessoais”.

Funcionalidades e limitações técnicas

A Anthropic afirma que o uso do computador ainda está em estágio inicial, especialmente quando comparado à capacidade do Claude de programar ou interagir com texto.

“O Claude pode cometer erros e, embora continuemos aprimorando nossas salvaguardas, as ameaças estão em constante evolução”, informou a empresa.

A companhia diz ter desenvolvido o recurso com salvaguardas para minimizar riscos. O sistema também solicita permissão antes de acessar novos aplicativos.

Sistema solicita permissão antes de acessar novos aplicativos (Imagem: Divulgação / Anthropic)

Ferramentas adicionais e uso contínuo

Os usuários também podem recorrer ao Dispatch, recurso lançado na semana passada dentro do Claude Cowork. A ferramenta permite manter uma conversa contínua com o assistente pelo celular ou desktop, além de atribuir tarefas ao agente.

dispatch
Dispatch também é uma opção para usuários do Claude (Imagem: Divulgação / Anthropic)

Leia mais:

Movimento das empresas por agentes de IA

A iniciativa da Anthropic ocorre em meio a uma disputa mais ampla entre empresas de tecnologia para desenvolver agentes capazes de executar tarefas em nome dos usuários ao longo do dia.

Esses sistemas buscam ampliar as capacidades dos assistentes de IA ao permitir que realizem ações diretamente em dispositivos e aplicativos, em vez de apenas responder comandos em texto.

O post Claude agora usa seu computador para executar tarefas apareceu primeiro em Olhar Digital.

Claude agora usa seu computador para executar tarefas Read More »

pete hegseth 1024x682

Pentágono quer banir Claude, mas militares resistem à troca

Funcionários do Departamento de Defesa dos Estados Unidos, ex-servidores e contratados de TI que atuam junto às Forças Armadas afirmam que não querem abrir mão das ferramentas de inteligência artificial (IA) da Anthropic, que consideram superiores às alternativas disponíveis. Isso ocorre mesmo depois de o secretário de Defesa, Pete Hegseth, ter classificado a empresa como um risco à cadeia de suprimentos no início de março, proibindo seu uso no Pentágono e entre contratados após um prazo de seis meses.

A decisão surgiu de um desentendimento entre a Anthropic e o Departamento de Defesa sobre os limites de uso das ferramentas de IA militares. Apesar da ordem formal, parte do pessoal está descumprindo o prazo de transição, e alguns já planejam retomar o uso da plataforma caso o impasse seja resolvido. O movimento indica que a retirada do Claude das redes militares será um processo lento e custoso.

Pete Hegseth, secretário de Defesa dos Estados Unidos, classificou o Claude como risco à cadeia de suprimentos militares (Imagem: Joshua Sukoff / Shutterstock.com)

Profissionais de TI frustrados com a ordem

A resistência interna é palpável. “As pessoas de carreira em TI no Departamento de Defesa odeiam essa decisão porque finalmente tinham conseguido que os operadores se sentissem confortáveis usando IA”, afirmou um contratado ouvido pela Reuters, que disse considerar o modelo Claude “o melhor”, enquanto o Grok, da xAI, frequentemente apresentava respostas inconsistentes para uma mesma consulta.

As ferramentas de IA tornaram-se essenciais para as Forças Armadas dos EUA, sendo usadas em tarefas que vão desde o direcionamento de armamentos e planejamento de operações até o manuseio de material classificado e a análise de informações. A Anthropic firmou um contrato de US$ 200 milhões com o Departamento de Defesa em julho de 2025 e se integrou rapidamente ao fluxo de trabalho militar. O Claude foi o primeiro modelo de IA aprovado para operar em redes militares classificadas, e seu nível de adoção era considerado elevado.

Celular com chatbot de IA Claude aberto com o fundo da Anthropic
Apesar de proibição do Pentágono, militares insistem em não abrir mão do Claude (Imagem: gguy / Shutterstock.com)

Recertificação pode levar até 18 meses

Substituir sistemas que utilizam os produtos da Anthropic não é tarefa simples. Joe Saunders, CEO da empresa contratada RunSafe Security, que ajudou as Forças Armadas a incorporar chatbots de IA, explicou que a recertificação de um sistema já existente para uma nova plataforma pode levar de 12 a 18 meses. “Não é só caro, é uma perda de produtividade”, afirmou.

Um funcionário do Pentágono disse que tarefas antes realizadas pelo Claude, como consultas a grandes volumes de dados, passaram a ser feitas manualmente com ferramentas como o Microsoft Excel. O Claude Code, ferramenta da Anthropic usada para escrever código, era amplamente utilizado internamente. Sua ausência deixou desenvolvedores frustrados, segundo relatos de servidores seniores.

Leia mais:

Sistema da Palantir também afetado

A retirada tem implicações que vão além do uso direto. O Maven Smart System, da Palantir — plataforma de análise de inteligência e direcionamento de armamentos usada por militares — foi construído com fluxos de trabalho e prompts desenvolvidos com o Claude Code, segundo fontes da Reuters. A Palantir, que mantém contratos relacionados ao Maven com o Departamento de Defesa e outras agências de segurança nacional com valor potencial acima de US$ 1 bilhão, terá de substituir o Claude por outro modelo e reconstruir partes do software.

palantir
A Palantir, muito utilizada no setor militar dos Estados Unidos, construiu sua plataforma Maven Smart System com base nos códigos do Claude (Imagem: Hiroshi-Mori-Stock / Shutterstock.com)

Alguns desenvolvedores estão “empurrando com a barriga” a substituição, pois ainda usam o Claude para criar fluxos de trabalho automatizados. Um diretor de informação de uma agência federal afirmou que planeja adiar o processo, apostando que o governo do país e a Anthropic chegarão a um acordo antes do prazo de seis meses. O Pentágono usou ferramentas do Claude para apoiar operações militares durante o conflito com o Irã, e fontes da Reuters disseram que a tecnologia continua em uso apesar do bloqueio.

“O que estamos vendo aqui é a tensão da adoção, tanto dentro do Pentágono quanto no nível político”, afirmou Roger Zakheim, diretor da Ronald Reagan Presidential Foundation and Institute.

O post Pentágono quer banir Claude, mas militares resistem à troca apareceu primeiro em Olhar Digital.

Pentágono quer banir Claude, mas militares resistem à troca Read More »

Claude vai revisar códigos e encontrar bugs por você

A codificação por engenheiro no Claude cresceu 200% no último ano, segundo a Anthropic. Mas, com o aumento da produtividade, os desenvolvedores não estão conseguindo revisar seus próprios códigos. Pensando nisso, a empresa anunciou o Code Review, um novo recurso de IA que ajuda os profissionais a identificar bugs em softwares antes que eles sejam incorporadas ao código final.

A ferramenta foi integrada ao Claude Code e utiliza múltiplos agentes de IA para revisar automaticamente alterações em projetos de programação.

Segundo a Anthropic, o lançamento responde a um problema crescente no desenvolvimento moderno: o aumento acelerado da produção de código, que levou ao desafio de manter o ritmo de revisão. Em vários casos, as solicitações recebem apenas uma análise rápida, o que aumenta o risco de bugs passarem despercebidos.

O Claude Review busca reduzir esse problema ao realizar revisões automatizadas mais profundas, capazes de detectar falhas que revisores humanos podem deixar escapar.

Por enquanto, a funcionalidade está disponível em versão prévia para clientes dos planos Team e Enterprise.

Como funciona o Code Review

O sistema foi projetado para analisar pull requests – mecanismo usado por desenvolvedores para submeter mudanças de código para revisão antes da integração ao software.

Quando um pull request é aberto, o sistema envia automaticamente uma equipe de agentes de IA para examinar o código. Esses agentes trabalham em paralelo, analisando o projeto sob diferentes perspectivas.

Depois dessa etapa, os resultados são consolidados em um relatório único. O sistema gera:

  • Um comentário geral com uma visão de alto nível da revisão;
  • Anotações diretamente nas linhas de código, apontando possíveis problemas.

Os erros encontrados são classificados por gravidade para ajudar os desenvolvedores a priorizar correções.

As revisões também se adaptam à complexidade das mudanças. Alterações maiores ou mais críticas recebem mais agentes e uma análise mais detalhada, enquanto modificações menores passam por revisões mais rápidas. De acordo com testes da empresa, uma revisão completa costuma levar cerca de 20 minutos.

A Anthropic afirma que já utiliza o sistema internamente em grande parte de seus projetos. Antes da adoção da ferramenta, apenas 16% dos pull requests recebiam comentários substanciais de revisão. Após a implementação do Code Review, esse índice subiu para 54%.

Leia mais:

Os testes também mostram que mudanças maiores tendem a apresentar mais problemas. Em solicitações com mais de 1.000 linhas de código alteradas, cerca de 84% continham falhas. Já em alterações menores, com menos de 50 linhas, o índice cai para 31%.

Em um dos casos citados pela empresa, uma mudança aparentemente simples de apenas uma linha poderia ter quebrado o sistema de autenticação de um serviço em produção. O bug foi detectado pela ferramenta antes que a alteração fosse incorporada ao projeto.

O post Claude vai revisar códigos e encontrar bugs por você apareceu primeiro em Olhar Digital.

Claude vai revisar códigos e encontrar bugs por você Read More »

claude anthropic 1024x632

Anthropic: Amazon mantém oferta do Claude para clientes AWS

Após a confirmação de que a Anthropic foi classificada como risco na cadeia de suprimentos pelo Pentágono, a Amazon se pronunciou a respeito e disse que seguirá ofertando a inteligência artificial (IA) da empresa, o Claude, a seus clientes de nuvem, o Amazon Web Services (AWS). Somente os projetos que envolvem o Departamento de Defesa não receberão mais a oferta.

“Os clientes e parceiros da AWS podem continuar usando o Claude para todas as suas cargas de trabalho não associadas ao Departamento de Guerra (DoW). Para todas as cargas de trabalho do DoW que usam tecnologias da Anthropic, estamos dando suporte aos clientes e parceiros durante a transição para alternativas executadas na AWS”, disse um porta-voz da AWS em comunicado.

Amazon se junta a outras big techs para “defender” Anthropic

  • A Amazon, que detém a liderança no mercado de nuvem, segue o passo de suas concorrentes (Microsoft e Google) ao atualizar seus clientes sobre a disponibilidade da Anthropic;
  • Na quinta-feira (5), a Microsoft anunciou que o Claude segue acessível em produtos que não envolvam o Departamento de Defesa. Na manhã desta sexta-feira (6), foi a vez de o Google fazer o mesmo;
  • A gigante do e-commerce de Jeff Bezos é uma das maiores investidoras da Anthropic, com investimentos de US$ 8 bilhões (R$ 41,9 bilhões) desde 2023. Elas também possuem forte relação comercial.

Por sua vez, a AWS segue como a principal parceira de nuvem e treinamento da empresa de Dario Amodei, que se comprometeu a utilizar 500 mil chips personalizados da Amazon, o Trainium 2, como parte de um campus de data centers da AWS construído para a startup, nomeado Projeto Rainier. Seu custo é de US$ 11 bilhões (R$ 57,6 bilhões).

Startup está “em pé de guerra” com Pentágono (Imagem: gguy/Shutterstock)

Acesso ao Claude na AWS

Os modelos do Claude estão disponíveis via AWS Bedrock, no qual as empresas podem acessar vários modelos de IA de diferentes desenvolvedoras.

O Bedrock é fornecido por meio do serviço GovCloud, da AWS. Trata-se de uma região de nuvem dedicada e equipada para hospedagem de dados sensíveis e fluxos de trabalho regulamentados.

A Amazon conseguiu contratos bilionários com agências do governo dos EUA, fornecendo serviços de nuvem e IA. Em novembro de 2025, foram destinados, pela empresa, cerca de US$ 50 bilhões (R$ 262,2 bilhões) às infraestruturas de IA para clientes governamentais. À época, a big tech dizia ter mais de 11 mil agências dos EUA sob seu guarda-chuva.

Leia mais:

Anthropic vs Pentágono: linha do tempo

11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.

14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.

Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.

24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.

27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.

28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.
Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.

3 de março de 2026: Sam Altman, CEO da OpenAI, disse aos seus funcionários que não controla como o Pentágono utiliza o sistema de inteligência artificial da empresa.

4 de março de 2026: embora houvesse rumor de que Amodei e Hegseth voltariam a conversar, o Pentágono notificou formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.

5 de março de 2026: Amodei afirmou que a Anthropic pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial. Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.

O post Anthropic: Amazon mantém oferta do Claude para clientes AWS apareceu primeiro em Olhar Digital.

Anthropic: Amazon mantém oferta do Claude para clientes AWS Read More »

Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse

O Pentágono teria notificado formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.

A medida, confirmada por autoridades de defesa à Bloomberg, ocorre em um momento de incerteza: embora o Financial Times tenha relatado horas antes que as partes haviam voltado negociar, a oficialização do status de risco sinaliza que a diplomacia entre o Vale do Silício e Washington pode ter fracassado.

Essa notificação é um golpe direto na Anthropic, atualmente avaliada em US$ 380 bilhões. Com uma receita projetada de US$ 20 bilhões para este ano, a startup depende de sua integração em sistemas como o Maven (da Palantir), utilizado em operações militares no Irã.

Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.

Histórico das empresas

O embate entre o CEO da Anthropic, Dario Amodei, e o subsecretário de defesa, Emil Michael, atingiu níveis de hostilidade raros no setor. Michael chegou a acusar Amodei publicamente de ter um “complexo de Deus” e colocar a nação em perigo.

O cerne da disputa é uma cláusula sobre o uso do Claude para vigilância em massa e armas autônomas: termos que a Anthropic se recusa a flexibilizar, mas que rivais como OpenAI e xAI teriam aceitado sob a premissa de “qualquer uso legal”.

Um memorando interno da Anthropic, revelado pelo The Information, sugere que o Pentágono tentou uma manobra de última hora: o governo aceitaria os termos éticos da startup, desde que uma frase específica sobre “análise de dados adquiridos em massa” fosse removida.

A recusa de Amodei em ceder nesse ponto parece ter sido a gota d’água para que o Secretário de Defesa, Pete Hegseth, cumprisse a promessa de rotularr a empresa como uma ameaça à segurança nacional.

Cenário do setor

O mercado agora observa se a retomada das conversas citada pelo Financial Times é uma tentativa real de conciliação ou apenas uma formalidade antes de uma batalha judicial. A classificação de “risco à cadeia de suprimentos” é uma ferramenta de pressão extrema, geralmente reservada a adversários geopolíticos, e sua aplicação a uma “queridinha” de Wall Street cria um precedente que pode vir ameaçar a autonomia das Big Techs.

Para a Anthropic, o desafio é sobreviver a essa decisão do governo sem comprometer os princípios de segurança que sustentam sua marca. Enquanto isso, a OpenAI se posiciona para ocupar a lacuna deixada no Pentágono, transformando o impasse ético em uma vantagem competitiva de bilhões de dólares.

O post Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse apareceu primeiro em Olhar Digital.

Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse Read More »

pentagono 1024x683 1

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude

Anthropic e o Departamento de Defesa dos Estados Unidos (agora renomeado para Departamento de Guerra) cortaram relações na sexta-feira passada. O desentendimento veio após a desenvolvedora de IA se recusar a flexibilizar suas regras para permitir o uso do Claude em aplicações perigosas, incluindo vigilância em massa de cidadãos americanos e armas autônomas.

Agora, parece que a Anthropic mudou de ideia. Segundo o Financial Times, que citou fontes familiarizadas com o assunto, o CEO Dario Amodei voltou a discutir um possível acordo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. O objetivo seria estabelecer novos termos contratuais que permitam o uso do Claude nas forças armadas.

Mas o clima entre as partes é tenso. Após o desentendimento entre Anthropic e Pentágono, Michael criticou Amodei nas redes sociais, chamando-o de “mentiroso” com “complexo de Deus” e acusando-o de “colocar a segurança de nossa nação em risco”.

Do outro lado, Amodei também criticou o Pentágono e a rival OpenAI, que aproveitou a quebra de contrato para se aliar ao governo. Em um memorando interno divulgado pelo The Information, o executivo criticou o acordo entre OpenAI e Departamento de Defesa, classificando-o como “teatro da segurança” e afirmando que as mensagens entre as partes eram “mentiras descaradas”.

Amodei ainda sugeriu que o relacionamento da Anthropic com o governo federal pode ter se deteriorado por fatores políticos. No documento, ele afirmou que a empresa não fez doações ao presidente Donald Trump nem adotou uma postura pública de apoio semelhante à de outros líderes do setor de tecnologia.

O memorando também detalha um momento das negociações em que o Departamento de Defesa teria sinalizado que aceitaria os termos propostos pela startup, desde que uma cláusula específica fosse removida do contrato.

Perto do fim da negociação, o [departamento] ofereceu-se para aceitar os nossos termos atuais se excluíssemos uma frase específica sobre ‘análise de dados adquiridos em massa’, que era a única linha do contrato que correspondia exatamente ao cenário que mais nos preocupava. Achamos isso muito suspeito.

Anthropic, em memorando interno divulgado pelo The Information

Com a recusa da Anthropic, Pentágono se aliou à OpenAI (Imagem: Keith J Finks/Shutterstock)

Então, por que Anthropic voltou a negociar com o Pentágono?

Mesmo assim, a Anthropic tem motivo para voltar atrás.

Durante as negociações da semana passada, o secretário de Defesa dos Estados Unidos, Pete Hegseth, afirmou que a desenvolvedora poderia ser classificada como um “risco para a cadeia de suprimentos” caso não se aliasse ao Pentágono. Esse tipo de designação costuma ser aplicado a empresas consideradas uma ameaça à segurança nacional – geralmente por vínculos com governos estrangeiros – e poderia prejudicar a Anthropic no setor de tecnologia.

Caso a desenvolvedora realmente seja incluída na lista, companhias que trabalham com contratos de defesa poderiam ser obrigadas a interromper o uso do Claude e encerrar parcerias com a startup.

Leia mais:

Relembrando: No centro dessa disputa estão as condições para o uso militar da tecnologia da Anthropic. A empresa afirma ter dois limites claros: não permitir aplicações de vigilância em massa contra cidadãos americanos e impedir o uso de sistemas de inteligência artificial em armas autônomas letais, capazes de operar sem supervisão humana.

O Departamento de Defesa, por sua vez, defende que a IA utilizada pela instituição esteja disponível para “qualquer uso legal”, um princípio que a Anthropic considera amplo demais e potencialmente incompatível com suas restrições éticas. Segundo relatos, outras empresas do setor – como OpenAI e xAI – teriam aceitado esse tipo de condição.

O post Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude apareceu primeiro em Olhar Digital.

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude Read More »

Destaque OpenAI E Estados Unidos 1024x576

Vale trocar de chatbot? Veja o que muda entre ChatGPT, Claude e Gemini

A disputa entre ChatGPT, Claude e Gemini ganhou novos contornos após um acordo firmado pela OpenAI com o Departamento de Guerra dos Estados Unidos. O movimento ocorreu em meio a um embate em Washington envolvendo a Anthropic e o Pentágono e acabou influenciando parte dos usuários a reconsiderar qual chatbot utilizar.

Depois que a OpenAI fechou seu próprio acordo, houve uma reação de apoio à Anthropic, levando o Claude ao primeiro lugar na App Store durante o fim de semana, enquanto o ChatGPT vem sofrendo desinstalações em massa. A mudança reacendeu o debate sobre quais recursos cada plataforma oferece — e o que o usuário pode ganhar ou perder ao trocar de aplicativo.

Acordo da OpenAI com o Departamento de Guerra dos Estados Unidos gerou insatisfação entre uma parte dos usuários (Imagem: jackpress/Shutterstock)

Recursos disponíveis nas versões gratuitas

Nas versões gratuitas mais atualizadas, ChatGPT, Claude e Gemini oferecem conversas por texto e áudio, além de geração de código e análise de fotos. Esses são os pontos em comum entre os três serviços.

As diferenças aparecem nas funções multimídia. A geração de imagens por IA está disponível no ChatGPT e no Gemini, mas não no Claude. Já a geração de vídeo surge de forma limitada no ChatGPT, não aparece no Claude e é oferecida pelo Gemini. Embora não seja possível solicitar vídeos diretamente na interface do ChatGPT, o aplicativo de geração de vídeo Sora, da OpenAI, está gratuito no momento.

Claude Anthropic
Claude não conta com geração de imagens e vídeos (Imagem: gguy / Shutterstock.com)

O Gemini também inclui geração de música, recurso ausente nos outros dois, e é o único indicado como tendo a maior janela de contexto na comparação.

Leia mais:

Integrações e diferenciais

No campo das integrações, o Claude permite conexão com ferramentas como Figma, Slack e Canva, algo que não está presente no ChatGPT e Gemini.

Em relação a anúncios, Claude e Gemini aparecem por enquanto sem anúncios, enquanto o ChatGPT já conta com anúncios na versão gratuita. No recurso de Deep Research, ChatGPT e Gemini oferecem a funcionalidade nas versões gratuitas mais recentes, enquanto no Claude ela está restrita a planos pagos.

O aplicativo Google Gemini aparece na tela. Gemini é uma aplicação de inteligência artificial produzida pela Google. Nova York, EUA 14.05.2025
Integração do Gemini com o Google é nativa (Imagem: miss.cabul / Shutterstock.com)

Os três contam com integração com o Google, sendo que no Gemini ela é nativa. Já funcionalidades como análise de vídeo e câmera ao vivo estão disponíveis no ChatGPT e no Gemini, mas não no Claude.

O post Vale trocar de chatbot? Veja o que muda entre ChatGPT, Claude e Gemini apareceu primeiro em Olhar Digital.

Vale trocar de chatbot? Veja o que muda entre ChatGPT, Claude e Gemini Read More »

Claude Chatgpt 1024x576

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa

A decisão da OpenAI de fechar uma parceria com o Departamento de Guerra (antigo Departamento de Defesa) dos Estados Unidos não caiu bem entre os usuários. As desinstalações do aplicativo do ChatGPT aumentaram em 295% no sábado (28 de fevereiro) em relação ao dia anterior.

Os dados são da empresa de inteligência de mercado Sensor Tower, divulgados pelo TechCrunch. O salto nesse número contrasta com a média diária registrada nos 30 dias anteriores, quando a mesma taxa ficava em torno de 9%.

E não foram apenas as desinstalações que afetaram o ChatGPT. Na sexta-feira (27), antes da divulgação do acordo da OpenAI com o Pentágono, a taxa de downloads havia crescido 14%. No sábado, depois do acordo, caiu 13% em relação ao dia anterior. No domingo, caiu mais 5%.

As quedas vieram após a OpenAI firmar um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Departamento de Guerra para fornecer IA voltada à vigilância militar. Antes disso, a Anthropic tinha um acordo com o Pentágono para a mesma finalidade, mas se recusou a flexibilizar suas regras de segurança para permitir o uso do Claude em operações militares perigosas. A rival desfez a parceria com o governo e a OpenAI entrou no lugar.

Mesmo com a perda do contrato federal, a Anthropic experienciou o efeito inverso: enquanto o ChatGPT caiu, o Claude cresceu em downloads.

Comparação nos downloads dos aplicativos ChatGPT (OpenAI) e Claude (Anthropic) [Imagem: Appfigures)

ChatGPT caindo, Claude crescendo

Após a recusa da Anthropic em ceder o Claude para aplicações militares perigosas, os downloads do aplicativo nos Estados Unidos subiram 37% na sexta-feira e 51% no sábado, de acordo com a Sensor Tower.

Os números sugerem que, aparentemente, parte dos consumidores aprovou a postura adotada pela desenvolvedora.

A repercussão também se refletiu no desempenho do aplicativo nas lojas digitais. No sábado, o Claude alcançou o primeiro lugar em downloads na App Store dos EUA – e continuou assim até segunda-feira (2). Para se ter uma ideia, uma semana antes, o app estava 20 posições abaixo no ranking.

Leia mais:

Além da Sensor Tower, outras empresas de monitoramento de mercado registraram tendências semelhantes:

  • A Appfigures apontou que, pela primeira vez, o total de downloads diários do Claude nos EUA superou o do ChatGPT;
  • Segundo as estimativas, o crescimento do app no sábado foi ainda mais expressivo, chegando a 88% em comparação com o dia anterior;
  • O avanço não ficou restrito ao mercado americano. A Appfigures informou que o Claude passou a ocupar o topo da categoria de aplicativos gratuitos para iPhone em seis países fora dos EUA: Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça;
  • Já a Similarweb estimou que, na última semana, os downloads do Claude nos EUA foram cerca de 20 vezes maiores do que os registrados em janeiro. A empresa destacou que o aumento pode estar associado a múltiplos fatores, e não exclusivamente à controvérsia envolvendo o Pentágono.

A reação também apareceu nas avaliações do ChatGPT. De acordo com a Sensor Tower, as avaliações de uma estrela para o aplicativo cresceram 775% no sábado e 100% no domingo. No mesmo intervalo, as avaliações máximas (cinco estrelas) caíram 50%.

O post Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa apareceu primeiro em Olhar Digital.

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa Read More »

Claude 3 1024x632

Claude: Anthropic libera recurso de memória para usuários gratuitos

A Anthropic anunciou que está levando mais um recurso antes restrito a assinantes pagos para o plano gratuito do Claude. A partir de agora, usuários da versão gratuita do chatbot poderão optar por permitir que a ferramenta faça referência a conversas anteriores para informar suas respostas.

A empresa tornou o Claude capaz de lembrar interações passadas pela primeira vez em agosto do ano passado. No fim do ano, adicionou a capacidade de compartimentalizar memórias. Agora, a funcionalidade de memória passa a integrar também o plano gratuito.

A mudança ocorre em um momento oportuno: mais cedo, a Anthropic facilitou a importação de conversas anteriores de um chatbot concorrente para o Claude.

Após ativar a memória, o usuário pode desativar o recurso a qualquer momento. É possível apenas pausar a funcionalidade — preservando as memórias para uso futuro — ou excluí-las completamente, garantindo que não fiquem armazenadas nos servidores da Anthropic.

Desenvolvedora do Claude, Anthropic entrou em rota de colisão com o governo dos EUA (Imagem: gguy/Shutterstock)

Leia mais:

Anthropic e Claude: popularidade em alta e disputa com o governo dos EUA

  • O Claude vive um momento de popularidade crescente. Recentemente, o aplicativo alcançou o primeiro lugar entre os apps gratuitos na App Store;
  • Ao mesmo tempo, a Anthropic está envolvida em uma disputa contratual de alto risco com o governo dos Estados Unidos relacionada a salvaguardas de IA;
  • Na sexta-feira (27), o secretário de Defesa dos EUA, Pete Hegseth, classificou a empresa como um “risco na cadeia de suprimentos” depois que a Anthropic se recusou a assinar um contrato que, segundo a startup, iria contra seus princípios de não militarizar a IA;
  • Após a declaração de Hegseth, a Anthropic afirmou que vai contestar a designação.

Por enquanto, resta acompanhar como a situação irá evoluir e quais podem ser as implicações para a empresa.

O post Claude: Anthropic libera recurso de memória para usuários gratuitos apareceu primeiro em Olhar Digital.

Claude: Anthropic libera recurso de memória para usuários gratuitos Read More »