Anthropic

Auto Added by WPeMatico

claude opus 1024x682 1

Polêmica com governo dos EUA faz assinaturas do Claude dispararem

O número de pessoas que pagam para usar o Claude, assistente de inteligência artificial da Anthropic, mais do que dobrou em 2026. Os dados vêm de um levantamento da Indagari — consultoria que analisa o mercado acompanhando transações de cartões de crédito de 28 milhões de consumidores nos Estados Unidos, segundo o TechCrunch.

O crescimento mais forte aconteceu entre janeiro e fevereiro. Esse período foi marcado por comerciais da empresa no Super Bowl e por uma disputa pública entre a Anthropic e o governo americano.

Entenda a polêmica com o governo dos EUA

O conflito com o Departamento de Defesa dos EUA (DoD) começou quando a Anthropic proibiu o uso de sua tecnologia para operações militares letais ou vigilância em massa de cidadãos. O governo chegou a classificar a empresa como um “risco de suprimento”, o que gerou processos judiciais e muita exposição na mídia.

Leia mais:

Ao mesmo tempo, a empresa veiculou anúncios criticando a presença de propaganda em outras IAs, prometendo que o Claude continuaria livre de anúncios para quem utiliza a ferramenta.

Novos recursos no plano pago

A maioria dos novos assinantes optou pelo plano “Claude Pro”, que custa 20 dólares por mês. O interesse pelo serviço pago cresceu com o lançamento de ferramentas que automatizam tarefas:

  • Claude Code e Cowork: Focados em ajudar programadores e aumentar a produtividade no trabalho.
  • Computer Use: Recurso que permite à IA realizar comandos sozinha no computador, como clicar em botões e rolar páginas.
Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)

Como essas funções não existem na versão gratuita, muitos usuários decidiram começar a pagar para testar as novidades.

Disputa com o ChatGPT

Mesmo com esse avanço, o Claude ainda está longe do alcance do ChatGPT. Os dados da Indagari mostram que, embora o ChatGPT tenha tido um pico de cancelamentos quando anunciou parcerias com militares, ele continua sendo a maior plataforma de IA do mundo e segue atraindo novos assinantes em um ritmo veloz.

O post Polêmica com governo dos EUA faz assinaturas do Claude dispararem apareceu primeiro em Olhar Digital.

Polêmica com governo dos EUA faz assinaturas do Claude dispararem Read More »

claude opus 1024x682

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado

A empresa de inteligência artificial (IA) Anthropic confirmou que está desenvolvendo e já iniciou testes com um novo modelo de IA mais avançado do que qualquer versão anterior, após um vazamento de dados revelar sua existência.

Segundo a companhia, o sistema representa “uma mudança de patamar” em desempenho e é “o mais capaz que já construímos até hoje”.

De acordo com um porta-voz, o modelo já está sendo testado por um grupo restrito de clientes com acesso antecipado. A confirmação veio depois que descrições do sistema foram encontradas acidentalmente em um cache de dados público, analisado pela revista Fortune.

Vazamento expõe novo modelo e estratégia da Anthropic

  • O material vazado incluía um rascunho de postagem de blog, disponível em um repositório público e não protegido até a noite de quinta-feira (26), no qual o modelo era identificado como Claude Mythos. No documento, a empresa afirmava que o sistema poderia representar riscos inéditos de segurança cibernética;
  • O mesmo conjunto de arquivos também revelou detalhes sobre um encontro exclusivo de CEOs na Europa, parte da estratégia da Anthropic para comercializar seus modelos de IA a grandes empresas;
  • Os documentos foram encontrados em um vazamento de dados público e desprotegido, segundo análise de Roy Paz, pesquisador sênior de segurança em IA da LayerX Security, e Alexandre Pauwels, pesquisador da Universidade de Cambridge;
  • Ao todo, cerca de três mil ativos ligados ao blog da empresa — que não haviam sido publicados oficialmente — estavam acessíveis, segundo Pauwels.

Após ser informada pela Fortune, a Anthropic desativou o acesso público ao repositório. Em nota, a empresa atribuiu o incidente a um “erro humano” na configuração de seu sistema de gerenciamento de conteúdo (CMS, na sigla em inglês), classificando os arquivos como “rascunhos iniciais de conteúdo considerados para publicação”.

Novo nível de modelos: Capybara

Além do nome Mythos, o rascunho também descrevia uma nova categoria de modelos chamada Capybara. Segundo o documento, “‘Capybara’ é um novo nome para uma nova camada de modelo: maior e mais inteligente do que nossos modelos Opus — que, até agora, eram os mais poderosos”.

A Anthropic atualmente organiza seus modelos em três níveis: Opus (mais avançados), Sonnet (intermediários) e Haiku (mais leves e rápidos). O Capybara surgiria como uma camada superior ao Opus, com maior capacidade — e também custo mais elevado.

“Comparado ao nosso melhor modelo anterior, Claude Opus 4.6, o Capybara alcança pontuações dramaticamente mais altas em testes de programação, raciocínio acadêmico e cibersegurança, entre outros”, diz o texto.

O documento afirma ainda que o treinamento do Claude Mythos já foi concluído e o descreve como, “de longe, o modelo de IA mais poderoso que já desenvolvemos”.

Questionada pela Fortune, a empresa confirmou o desenvolvimento do novo sistema: “Estamos desenvolvendo um modelo de propósito geral com avanços significativos em raciocínio, programação e cibersegurança”, disse o porta-voz. “Dada a força de suas capacidades, estamos analisando como lançá-lo.”

O material analisado indica que o lançamento será gradual, começando com um grupo restrito de usuários, devido ao alto custo operacional e ao fato de o modelo ainda não estar pronto para uso amplo.

Leia mais:

Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)

Riscos inéditos em cibersegurança

Um dos principais pontos destacados no rascunho é o potencial de risco do modelo na área de segurança digital. “Ao nos prepararmos para lançar o Claude Capybara, queremos agir com cautela extra e entender os riscos que ele apresenta — inclusive, além do que aprendemos em nossos próprios testes”, afirma o documento.

A empresa demonstra preocupação específica com o uso malicioso da tecnologia: o sistema estaria “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas” e “prenuncia uma onda de modelos capazes de explorar vulnerabilidades muito mais rapidamente do que os esforços de defesa”.

Na prática, isso significa que hackers poderiam utilizar o modelo para realizar ataques cibernéticos em larga escala. Por esse motivo, a estratégia inicial de lançamento prioriza defensores de segurança digital. “Estamos liberando o acesso antecipado para organizações, dando a elas uma vantagem inicial na melhoria da robustez de seus sistemas contra a onda iminente de exploits impulsionados por IA”, diz o texto.

A Anthropic não é a única a alertar para esse tipo de risco. Modelos recentes também têm ultrapassado limites considerados críticos em cibersegurança. Em fevereiro, a OpenAI classificou seu GPT-5.3-Codex como de “alta capacidade” para tarefas relacionadas à área.

A própria Anthropic já havia enfrentado desafios semelhantes com o Opus 4.6, capaz de identificar vulnerabilidades desconhecidas em códigos — uma característica de uso duplo, que pode tanto fortalecer defesas quanto facilitar ataques.

A empresa também revelou que grupos hackers, incluindo organizações ligadas ao governo chinês, já tentaram explorar seus sistemas.

Em um caso documentado, um grupo patrocinado pelo Estado chinês utilizou o Claude Code para infiltrar cerca de 30 organizações, incluindo empresas de tecnologia, instituições financeiras e agências governamentais. Após detectar a operação, a Anthropic investigou o caso por dez dias, baniu as contas envolvidas e notificou as vítimas.

Especialistas apontam que o vazamento ocorreu devido à configuração padrão do CMS utilizado pela empresa, que torna os arquivos públicos automaticamente, a menos que o usuário altere manualmente as permissões.

A Anthropic confirmou que “um problema com uma de nossas ferramentas externas de CMS levou ao acesso a conteúdo em rascunho”, novamente atribuindo a falha a erro humano. Embora muitos arquivos fossem materiais descartados — como imagens e banners —, alguns pareciam documentos internos, incluindo registros relacionados a benefícios de funcionários.

Entre os arquivos, também havia um PDF com detalhes de um retiro exclusivo para CEOs europeus, que será realizado no Reino Unido e contará com a presença do CEO da empresa, Dario Amodei.

O evento de dois dias é descrito como um encontro “íntimo”, voltado a “conversas reflexivas” em uma mansão do século XVIII transformada em hotel e spa. Os participantes, não identificados nominalmente, são descritos como alguns dos líderes empresariais mais influentes da Europa.

Segundo a empresa, o encontro faz parte de uma série de eventos organizados ao longo do último ano. “Esperamos receber líderes empresariais europeus para discutir o futuro da IA”, afirmou o porta-voz.

O post Anthropic, dona do Claude, trabalha em modelo de IA mais avançado apareceu primeiro em Olhar Digital.

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado Read More »

69c0acb66ca028e43998d824 cowork dispatch blog permissions 1024x576

Claude agora usa seu computador para executar tarefas

A Anthropic anunciou uma nova funcionalidade que permite enviar comandos ao Claude pelo smartphone para que o assistente execute tarefas diretamente no computador do usuário. A novidade foi apresentada na segunda-feira (23) e faz parte da estratégia da empresa de avançar no desenvolvimento de agentes de IA.

Segundo a companhia, após receber um comando, o Claude consegue abrir aplicativos, navegar em um navegador e preencher planilhas. Em um vídeo divulgado, um usuário pede que o sistema exporte uma apresentação em PDF e a anexe a um convite de reunião, tarefa que é realizada pelo assistente.

OpenClaw como referência no avanço dos agentes

A atualização reforça o movimento do setor em direção a agentes capazes de executar tarefas de forma autônoma. Esse tipo de tecnologia ganhou destaque após o lançamento do OpenClaw, que se tornou viral.

O OpenClaw se conecta a modelos da OpenAI e da própria Anthropic, permitindo que usuários enviem comandos por aplicativos como WhatsApp e Telegram. Assim como o novo recurso do Claude, ele roda localmente no dispositivo, o que possibilita acesso a arquivos.

O CEO da Nvidia, Jensen Huang, afirmou à CNBC na semana passada que o OpenClaw é “definitivamente o próximo ChatGPT”. A empresa também anunciou o NemoClaw, uma versão corporativa do sistema.

Já a OpenAI contratou, no mês passado, Peter Steinberger, criador do OpenClaw, com o objetivo de “impulsionar a próxima geração de agentes pessoais”.

Funcionalidades e limitações técnicas

A Anthropic afirma que o uso do computador ainda está em estágio inicial, especialmente quando comparado à capacidade do Claude de programar ou interagir com texto.

“O Claude pode cometer erros e, embora continuemos aprimorando nossas salvaguardas, as ameaças estão em constante evolução”, informou a empresa.

A companhia diz ter desenvolvido o recurso com salvaguardas para minimizar riscos. O sistema também solicita permissão antes de acessar novos aplicativos.

Sistema solicita permissão antes de acessar novos aplicativos (Imagem: Divulgação / Anthropic)

Ferramentas adicionais e uso contínuo

Os usuários também podem recorrer ao Dispatch, recurso lançado na semana passada dentro do Claude Cowork. A ferramenta permite manter uma conversa contínua com o assistente pelo celular ou desktop, além de atribuir tarefas ao agente.

dispatch
Dispatch também é uma opção para usuários do Claude (Imagem: Divulgação / Anthropic)

Leia mais:

Movimento das empresas por agentes de IA

A iniciativa da Anthropic ocorre em meio a uma disputa mais ampla entre empresas de tecnologia para desenvolver agentes capazes de executar tarefas em nome dos usuários ao longo do dia.

Esses sistemas buscam ampliar as capacidades dos assistentes de IA ao permitir que realizem ações diretamente em dispositivos e aplicativos, em vez de apenas responder comandos em texto.

O post Claude agora usa seu computador para executar tarefas apareceu primeiro em Olhar Digital.

Claude agora usa seu computador para executar tarefas Read More »

anthropic claude 1024x576

Estudo da Anthropic revela o que as pessoas amam e temem na IA

A Anthropic concluiu o maior estudo qualitativo já realizado sobre percepções de inteligência artificial (IA): mais de 80 mil entrevistas em 159 países revelam que as mesmas funcionalidades que as pessoas mais valorizam na IA são exatamente as que mais as assustam. É o que os pesquisadores chamaram de problema “light and shade” — luz e sombra.

O estudo, conduzido pela empresa por trás do chatbot Claude, identificou tanto os usos mais transformadores da tecnologia — de apoio emocional a ucranianos em meio à guerra até a possibilidade de pais saírem mais cedo do trabalho para buscar os filhos na escola — quanto os medos que acompanham cada um desses benefícios.

Estudo foi conduzido pela dona do Claude, a Anthropic (Imagem: gguy/Shutterstock)

O dilema da “luz e sombra”

O padrão se repete ao longo do estudo: quem valoriza a IA para apoio emocional tem três vezes mais chances de temer se tornar dependente dela. O principal achado da pesquisa apresenta uma verdade desconfortável — não há como separar o benefício do receio.

Um trabalhador ucraniano ilustra essa contradição. Mudo, ele criou junto com a IA um bot de texto-para-voz. “Consigo me comunicar com amigos quase ao vivo, sem tomar o tempo deles lendo. Algo que eu sonhava e achava impossível”, relatou.

Mas essa mesma tecnologia que liberta também gera ansiedade. Um advogado israelense compartilhou sua experiência no estudo: “Uso IA para revisar contratos, economizar tempo… e ao mesmo tempo tenho medo: estou perdendo minha capacidade de ler sozinho? O pensamento era a última fronteira”.

Trabalho: automação e o medo da dependência cognitiva

A automação de tarefas no ambiente de trabalho foi um dos principais casos de uso da IA identificados na pesquisa. Os entrevistados relataram que a tecnologia os libera para se concentrar em atividades mais importantes — e, quando questionados sobre o que realmente queriam conquistar com essa eficiência, a resposta foi tempo com a família.

Os advogados exemplificam a ambiguidade de forma extrema. Quase metade deles já enfrentou problemas com a falta de confiabilidade da IA, mas também são os profissionais que mais relatam benefícios reais na tomada de decisões — as maiores taxas entre todas as profissões analisadas.

Os cinco medos que definem nossa relação com a IA

  • Apenas 11% dos entrevistados disseram não ter nenhum receio sobre inteligência artificial. Os outros 89% apontaram cinco preocupações principais.
  • A falta de confiabilidade lidera a lista. Cerca de 27% dos participantes temem que a IA tome decisões ruins ou incorretas — número superior aos 22% que citaram melhoria na tomada de decisões como benefício.
  • O impacto no mercado de trabalho e na economia aparece em segundo lugar, preocupando 22% dos entrevistados, que temem estagnação salarial e aumento da desigualdade.
  • Empatados em terceiro, com 22% cada, estão dois receios interligados: a IA tomando decisões sem supervisão humana e os seres humanos se tornando passivos diante da tecnologia.
  • A perda da capacidade de pensamento crítico preocupa 16% dos participantes, enquanto 15% se inquietam com a falta de regulamentação e a ausência de responsabilização clara quando algo dá errado.

Geografia da confiança: países ricos versus países em desenvolvimento

Globalmente, 67% dos entrevistados têm visão positiva da IA, mas as diferenças regionais revelam perspectivas muito distintas.

América do Norte, Europa Ocidental e Oceania demonstram maior ceticismo. As preocupações se concentram em lacunas na governança, falhas regulatórias e vigilância. São regiões onde a IA já está integrada ao ambiente de trabalho, e as pessoas conseguem ver seus efeitos acontecendo na prática.

Do outro lado, África Subsaariana, América Latina e Sul da Ásia encaram a IA com otimismo. Para esses entrevistados, a tecnologia funciona como um equalizador econômico, facilitando a criação de negócios e o acesso à educação. “Estou em um país com desvantagem tecnológica, e não posso me dar ao luxo de muitas falhas. Com IA, alcancei nível profissional em cibersegurança, design UX, marketing e gestão de projetos simultaneamente. É um equalizador”, disse um usuário de Camarões.

O Leste Asiático apresenta um padrão distinto: pouca preocupação sobre quem controla a IA, mas grande ansiedade em relação à atrofia cognitiva.

Leia mais:

Por que países mais pobres confiam mais na IA?

A tendência geral aponta que, quanto mais rica a região, maior o ceticismo. Em países desenvolvidos, a automação já está presente no trabalho e as pessoas conseguem ver a substituição humana acontecendo. Nos países em desenvolvimento, a IA ainda não penetrou massivamente nos ambientes profissionais, e preocupações econômicas mais urgentes fazem com que a tecnologia seja encarada como oportunidade — não como ameaça.

mercado de trabalho
Automação já está mais presente no trabalho em países desenvolvidos (Imagem: Stokkete / Shutterstock.com)

O futuro moldado por 80 mil vozes

A Anthropic afirmou que os achados da pesquisa vão influenciar diretamente o desenvolvimento futuro do Claude. A empresa reconhece que entender as nuances da percepção pública é fundamental para criar uma tecnologia que sirva genuinamente às necessidades humanas.

O estudo deixa claro que a relação das pessoas com a IA não é simples. As mesmas funcionalidades que geram entusiasmo também alimentam o medo — e essa dualidade é o traço mais honesto de como a humanidade está vivendo essa transformação.

O post Estudo da Anthropic revela o que as pessoas amam e temem na IA apareceu primeiro em Olhar Digital.

Estudo da Anthropic revela o que as pessoas amam e temem na IA Read More »

pete hegseth 1024x682

Pentágono quer banir Claude, mas militares resistem à troca

Funcionários do Departamento de Defesa dos Estados Unidos, ex-servidores e contratados de TI que atuam junto às Forças Armadas afirmam que não querem abrir mão das ferramentas de inteligência artificial (IA) da Anthropic, que consideram superiores às alternativas disponíveis. Isso ocorre mesmo depois de o secretário de Defesa, Pete Hegseth, ter classificado a empresa como um risco à cadeia de suprimentos no início de março, proibindo seu uso no Pentágono e entre contratados após um prazo de seis meses.

A decisão surgiu de um desentendimento entre a Anthropic e o Departamento de Defesa sobre os limites de uso das ferramentas de IA militares. Apesar da ordem formal, parte do pessoal está descumprindo o prazo de transição, e alguns já planejam retomar o uso da plataforma caso o impasse seja resolvido. O movimento indica que a retirada do Claude das redes militares será um processo lento e custoso.

Pete Hegseth, secretário de Defesa dos Estados Unidos, classificou o Claude como risco à cadeia de suprimentos militares (Imagem: Joshua Sukoff / Shutterstock.com)

Profissionais de TI frustrados com a ordem

A resistência interna é palpável. “As pessoas de carreira em TI no Departamento de Defesa odeiam essa decisão porque finalmente tinham conseguido que os operadores se sentissem confortáveis usando IA”, afirmou um contratado ouvido pela Reuters, que disse considerar o modelo Claude “o melhor”, enquanto o Grok, da xAI, frequentemente apresentava respostas inconsistentes para uma mesma consulta.

As ferramentas de IA tornaram-se essenciais para as Forças Armadas dos EUA, sendo usadas em tarefas que vão desde o direcionamento de armamentos e planejamento de operações até o manuseio de material classificado e a análise de informações. A Anthropic firmou um contrato de US$ 200 milhões com o Departamento de Defesa em julho de 2025 e se integrou rapidamente ao fluxo de trabalho militar. O Claude foi o primeiro modelo de IA aprovado para operar em redes militares classificadas, e seu nível de adoção era considerado elevado.

Celular com chatbot de IA Claude aberto com o fundo da Anthropic
Apesar de proibição do Pentágono, militares insistem em não abrir mão do Claude (Imagem: gguy / Shutterstock.com)

Recertificação pode levar até 18 meses

Substituir sistemas que utilizam os produtos da Anthropic não é tarefa simples. Joe Saunders, CEO da empresa contratada RunSafe Security, que ajudou as Forças Armadas a incorporar chatbots de IA, explicou que a recertificação de um sistema já existente para uma nova plataforma pode levar de 12 a 18 meses. “Não é só caro, é uma perda de produtividade”, afirmou.

Um funcionário do Pentágono disse que tarefas antes realizadas pelo Claude, como consultas a grandes volumes de dados, passaram a ser feitas manualmente com ferramentas como o Microsoft Excel. O Claude Code, ferramenta da Anthropic usada para escrever código, era amplamente utilizado internamente. Sua ausência deixou desenvolvedores frustrados, segundo relatos de servidores seniores.

Leia mais:

Sistema da Palantir também afetado

A retirada tem implicações que vão além do uso direto. O Maven Smart System, da Palantir — plataforma de análise de inteligência e direcionamento de armamentos usada por militares — foi construído com fluxos de trabalho e prompts desenvolvidos com o Claude Code, segundo fontes da Reuters. A Palantir, que mantém contratos relacionados ao Maven com o Departamento de Defesa e outras agências de segurança nacional com valor potencial acima de US$ 1 bilhão, terá de substituir o Claude por outro modelo e reconstruir partes do software.

palantir
A Palantir, muito utilizada no setor militar dos Estados Unidos, construiu sua plataforma Maven Smart System com base nos códigos do Claude (Imagem: Hiroshi-Mori-Stock / Shutterstock.com)

Alguns desenvolvedores estão “empurrando com a barriga” a substituição, pois ainda usam o Claude para criar fluxos de trabalho automatizados. Um diretor de informação de uma agência federal afirmou que planeja adiar o processo, apostando que o governo do país e a Anthropic chegarão a um acordo antes do prazo de seis meses. O Pentágono usou ferramentas do Claude para apoiar operações militares durante o conflito com o Irã, e fontes da Reuters disseram que a tecnologia continua em uso apesar do bloqueio.

“O que estamos vendo aqui é a tensão da adoção, tanto dentro do Pentágono quanto no nível político”, afirmou Roger Zakheim, diretor da Ronald Reagan Presidential Foundation and Institute.

O post Pentágono quer banir Claude, mas militares resistem à troca apareceu primeiro em Olhar Digital.

Pentágono quer banir Claude, mas militares resistem à troca Read More »

destaque sam altman pete hegseth dario amodei 1024x576

Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares

A disputa entre a Anthropic e o Departamento de Defesa dos Estados Unidos reacendeu um debate antigo no setor de tecnologia: até que ponto empresas do Vale do Silício devem permitir que suas ferramentas sejam utilizadas em aplicações militares?

Nos últimos dias, o conflito entre a desenvolvedora e o governo americano se intensificou após a Anthropic processar o Pentágono, alegando que sua inclusão em uma lista de “risco à segurança nacional” viola direitos garantidos pela Primeira Emenda da Constituição dos EUA. A ação judicial ocorre depois de meses de impasse entre as duas partes sobre as condições de uso do Claude.

No centro da disputa está a recusa da Anthropic em autorizar determinados usos de seus modelos de IA, especialmente em sistemas de vigilância em massa e em armamentos totalmente autônomos capazes de tomar decisões letais.

Segundo a empresa, aceitar a exigência do governo de permitir “qualquer uso legal” de sua tecnologia comprometeria princípios de segurança adotados desde sua fundação e poderia abrir espaço para abusos.

A posição da Anthropic colocou em evidência um tema que acompanha o avanço da inteligência artificial: quais limites éticos devem existir quando tecnologias comerciais passam a integrar operações militares?

Para Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da Hugging Face, a disputa atual não é entre empresas que apoiam ou rejeitam o uso militar da tecnologia. Na avaliação dela, quem busca encontrar “mocinhos e vilões” nesse debate dificilmente encontrará uma separação tão evidente.

Da esquerda para a direita: CEO da OpenAI, Sam Altman; Secretário de Defesa dos EUA, Pete Hegseth; e CEO da Anthropic, Dario Amodei (Imagem: FotoField e Joshua Sukoff – Shutterstock / Reprodução – TechCrunch)

Mudança de postura no Vale do Silício sobre IA militar

A tensão ocorre em um momento em que as grandes empresas de tecnologia têm se aproximado cada vez mais do setor de defesa. Esse movimento ganhou força durante o governo de Donald Trump, que tem incentivado o uso de inteligência artificial em órgãos federais e ampliado investimentos em capacidades militares.

A possibilidade de contratos lucrativos e de longo prazo com o governo também contribuiu para esse alinhamento. Além disso, o avanço tecnológico da China e o aumento global dos gastos militares passaram a influenciar decisões estratégicas de empresas do setor.

Essa realidade contrasta com a postura adotada há menos de uma década por parte da indústria. Um exemplo é o do Projeto Maven, do Google:

  • Em 2018, milhares de funcionários do Google protestaram contra a participação da empresa no Projeto Maven, um programa do Departamento de Defesa voltado à análise de imagens captadas por drones militares;
  • Na época, mais de 3 mil trabalhadores da companhia assinaram uma carta aberta afirmando que o Google não deveria se envolver em projetos ligados à guerra;
  • Após a mobilização interna, a empresa decidiu não renovar o contrato e publicou diretrizes que proibiam o desenvolvimento de tecnologias capazes de causar danos diretos a pessoas.

Com o passar dos anos, porém, essa postura foi sendo flexibilizada. O Google posteriormente removeu de suas políticas parte da linguagem que restringia o desenvolvimento de tecnologias militares e passou a firmar novos acordos que permitem o uso de suas ferramentas pelas forças armadas.

Recentemente, a empresa anunciou que disponibilizará o Gemini para apoiar o desenvolvimento de agentes de IA em projetos militares.

Outras empresas seguiram um caminho semelhante. A OpenAI, que anteriormente proibia o acesso de forças armadas aos seus modelos, flexibilizou sua política a partir de 2024. A empresa, juntamente com Google, Anthropic e xAI, assinou um contrato de até US$ 200 milhões com o Departamento de Defesa para integrar tecnologias de IA a sistemas militares.

No mesmo dia em que o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um risco para a cadeia de suprimentos do governo, a OpenAI firmou um novo acordo permitindo que sua tecnologia seja usada em projetos militares confidenciais.

Enquanto isso, companhias focadas diretamente em tecnologia de defesa, como Palantir e Anduril, transformaram a colaboração com o Pentágono em parte central de seus negócios.

Pentagono 1024x683
Maioria das grandes empresas de tecnologia na corrida de IA já tem contratos com o Pentágono (Imagem: Keith J Finks/Shutterstock)

A posição da Anthropic

Mesmo com o confronto jurídico com o governo, a Anthropic não se posiciona como uma empresa contrária à colaboração com o setor militar.

O cofundador e CEO da companhia, Dario Amodei, afirmou recentemente que a empresa compartilha muitos objetivos com o Departamento de Defesa. Segundo ele, a Anthropic apoia o uso da inteligência artificial para defesa nacional, desde que certas linhas não sejam ultrapassadas.

Leia mais:

Apesar das restrições defendidas pela empresa, documentos judiciais indicam que o governo dos Estados Unidos já utiliza o modelo Claude em diversas atividades militares. Entre elas estariam análise de ameaças, processamento de documentos confidenciais e operações relacionadas ao campo de batalha.

O Olhar Digital fez uma linha do tempo do conflito entre a Anthropic e o Pentágono. Você pode acessá-la neste link.

(O texto usou informações do jornal The Guardian.)

O post Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares apareceu primeiro em Olhar Digital.

Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares Read More »

Claude vai revisar códigos e encontrar bugs por você

A codificação por engenheiro no Claude cresceu 200% no último ano, segundo a Anthropic. Mas, com o aumento da produtividade, os desenvolvedores não estão conseguindo revisar seus próprios códigos. Pensando nisso, a empresa anunciou o Code Review, um novo recurso de IA que ajuda os profissionais a identificar bugs em softwares antes que eles sejam incorporadas ao código final.

A ferramenta foi integrada ao Claude Code e utiliza múltiplos agentes de IA para revisar automaticamente alterações em projetos de programação.

Segundo a Anthropic, o lançamento responde a um problema crescente no desenvolvimento moderno: o aumento acelerado da produção de código, que levou ao desafio de manter o ritmo de revisão. Em vários casos, as solicitações recebem apenas uma análise rápida, o que aumenta o risco de bugs passarem despercebidos.

O Claude Review busca reduzir esse problema ao realizar revisões automatizadas mais profundas, capazes de detectar falhas que revisores humanos podem deixar escapar.

Por enquanto, a funcionalidade está disponível em versão prévia para clientes dos planos Team e Enterprise.

Como funciona o Code Review

O sistema foi projetado para analisar pull requests – mecanismo usado por desenvolvedores para submeter mudanças de código para revisão antes da integração ao software.

Quando um pull request é aberto, o sistema envia automaticamente uma equipe de agentes de IA para examinar o código. Esses agentes trabalham em paralelo, analisando o projeto sob diferentes perspectivas.

Depois dessa etapa, os resultados são consolidados em um relatório único. O sistema gera:

  • Um comentário geral com uma visão de alto nível da revisão;
  • Anotações diretamente nas linhas de código, apontando possíveis problemas.

Os erros encontrados são classificados por gravidade para ajudar os desenvolvedores a priorizar correções.

As revisões também se adaptam à complexidade das mudanças. Alterações maiores ou mais críticas recebem mais agentes e uma análise mais detalhada, enquanto modificações menores passam por revisões mais rápidas. De acordo com testes da empresa, uma revisão completa costuma levar cerca de 20 minutos.

A Anthropic afirma que já utiliza o sistema internamente em grande parte de seus projetos. Antes da adoção da ferramenta, apenas 16% dos pull requests recebiam comentários substanciais de revisão. Após a implementação do Code Review, esse índice subiu para 54%.

Leia mais:

Os testes também mostram que mudanças maiores tendem a apresentar mais problemas. Em solicitações com mais de 1.000 linhas de código alteradas, cerca de 84% continham falhas. Já em alterações menores, com menos de 50 linhas, o índice cai para 31%.

Em um dos casos citados pela empresa, uma mudança aparentemente simples de apenas uma linha poderia ter quebrado o sistema de autenticação de um serviço em produção. O bug foi detectado pela ferramenta antes que a alteração fosse incorporada ao projeto.

O post Claude vai revisar códigos e encontrar bugs por você apareceu primeiro em Olhar Digital.

Claude vai revisar códigos e encontrar bugs por você Read More »

microsoft 365 e1699465318321 1024x576

Microsoft aposta na Anthropic para avançar em agentes de IA

A Microsoft ampliou sua parceria com a Anthropic ao incorporar novas tecnologias da família de modelos Claude ao Microsoft 365 Copilot. O movimento ocorre em meio ao crescimento do interesse do mercado por agentes de inteligência artificial (IA) capazes de executar tarefas complexas dentro de softwares corporativos.

O tema ganhou destaque após o anúncio recente da nova geração do Copilot para o pacote Microsoft 365, que introduziu recursos agênticos integrados a aplicativos como Microsoft Word, Microsoft Excel, Microsoft PowerPoint e Microsoft Outlook. Como o Olhar Digital já mostrou, a atualização inclui ferramentas capazes de dividir tarefas em múltiplas etapas e executá-las diretamente no fluxo de trabalho.

Microsoft anunciou novidades para o Microsoft 365 Copilot, incluindo agentes da Anthropic (Imagem: IB Photography/ Shutterstock)

Mercado observa avanço dos agentes de IA

A aposta da Microsoft reflete uma tendência mais ampla na indústria de tecnologia: o desenvolvimento de agentes de IA que vão além da geração de texto ou imagens e passam a executar tarefas completas em aplicativos corporativos.

Ferramentas lançadas recentemente pela Anthropic chamaram atenção no Vale do Silício por demonstrarem a capacidade de automatizar atividades como criação de aplicativos, organização de grandes volumes de dados e construção de planilhas complexas com pouca supervisão humana.

Esse avanço tem levado analistas e investidores a discutir o impacto potencial da IA agêntica no mercado de software corporativo, já que parte dessas tarefas tradicionalmente depende de ferramentas especializadas.

Estratégia da Microsoft aposta em segurança corporativa

A Microsoft tenta se posicionar nesse cenário aproveitando sua base de clientes empresariais e a infraestrutura de segurança integrada ao ecossistema do Microsoft 365.

Em entrevista à Reuters, Jared Spataro, responsável pela área de IA no trabalho na empresa, afirmou que os recursos de agentes da companhia operam exclusivamente na nuvem e dentro do ambiente corporativo do usuário.

“Trabalhamos apenas em ambiente de nuvem e apenas em nome do usuário. Assim, é possível saber exatamente quais informações o sistema tem acesso”, afirmou o executivo. Segundo Spataro, muitas empresas demonstram preocupação em relação ao uso de agentes de IA sem mecanismos claros de controle de dados e segurança.

Leia mais:

Diversificação de modelos além da OpenAI

A aproximação com a Anthropic também ocorre em um momento em que investidores questionam a dependência da Microsoft de tecnologias da OpenAI, responsável por modelos utilizados amplamente em seus produtos de IA.

microsoft openAI
Investidores questionavam a Microsoft sobre dependência de tecnologias da OpenAI (Imagem: LanKS / Shutterstock.com)

Com a integração dos modelos Claude ao Copilot, a empresa passa a adotar uma estratégia mais aberta, combinando diferentes sistemas de inteligência artificial dentro da mesma plataforma.

O objetivo, segundo a Microsoft, é permitir que o Copilot utilize automaticamente o modelo mais adequado para cada tarefa dentro do ambiente corporativo, sem exigir que o usuário escolha qual tecnologia utilizar.

O post Microsoft aposta na Anthropic para avançar em agentes de IA apareceu primeiro em Olhar Digital.

Microsoft aposta na Anthropic para avançar em agentes de IA Read More »

pentagono 1024x683 2

Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs

Os Estados Unidos preparam novas regras para contratos civis envolvendo inteligência artificial, exigindo que empresas do setor permitam o uso de seus modelos para “qualquer finalidade legal” por parte do governo. As diretrizes surgem após o impasse entre o Pentágono e a Anthropic.

De acordo com uma versão preliminar das regras, divulgadas pelo Financial Times, desenvolvedoras que desejarem fornecer sistemas de IA ao governo americano terão de conceder uma licença irrevogável para utilizar suas tecnologias em todas as aplicações consideradas legais.

As orientações foram elaboradas pela Administração de Serviços Gerais (GSA), órgão responsável por coordenar compras e contratos para a administração pública. Embora as regras se destinem inicialmente a contratos civis, o modelo pode influenciar diretrizes semelhantes em acordos ligados ao setor militar.

Pentágono x Anthropic

O debate ocorre após uma decisão recente do Departamento de Defesa (agora Departamento de Guerra) envolvendo a Anthropic. Na quinta-feira (5), o Pentágono classificou a empresa como um “risco para a cadeia de suprimentos”.

A medida foi tomada depois de um desacordo entre a desenvolvedora e o governo. Segundo autoridades americanas, a Anthropic insistiu em adotar medidas de segurança consideradas excessivamente restritivas, o que teria dificultado o uso da tecnologia em aplicações governamentais.

Por outro lado, a Anthropic expressou preocupações acerca do uso de seu chatbot, o Claude, em aplicações voltadas para vigilância em massa de cidadãos americanos e armas autônomas. A empresa se recusou a flexibilizar suas regras para se adequar ao Pentágono, resultando na quebra da parceria. O Olhar Digital deu detalhes aqui.

Em paralelo, a GSA decidiu encerrar o contrato da empresa no programa OneGov, que disponibiliza ferramentas de software para órgãos dos poderes Executivo, Legislativo e Judiciário por meio de acordos previamente negociados.

Novas regras vêm depois do desacordo entre Anthropic e Pentágono (Imagem: Keith J Finks/Shutterstock)

Novas exigências dos EUA para empresas de IA

O rascunho das diretrizes também estabelece regras sobre o comportamento dos sistemas de inteligência artificial fornecidos ao governo. Entre os pontos previstos está a exigência de que os contratados não incluam deliberadamente vieses partidários ou ideológicos nas respostas geradas pelos modelos.

Além disso, as empresas terão de informar se seus sistemas foram adaptados ou configurados especificamente para atender a regulamentações ou exigências de conformidade fora do governo federal dos EUA.

Leia mais:

As novas regras fazem parte de uma iniciativa da administração para ampliar o uso de IA no setor público, ao mesmo tempo em que tenta estabelecer padrões para segurança, neutralidade e disponibilidade dessas tecnologias. A Casa Branca não comentou publicamente o assunto até o momento.

O post Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs apareceu primeiro em Olhar Digital.

Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs Read More »

shutterstock 2645157717 1

Rivalidade entre OpenAI e Anthropic se intensifica e pode moldar futuro da IA

A disputa entre duas das empresas mais influentes do setor de inteligência artificial (IA) — OpenAI e Anthropic — vem ganhando contornos cada vez mais pessoais e públicos, envolvendo seus líderes, Sam Altman e Dario Amodei, e levantando questionamentos sobre como a tecnologia será desenvolvida e utilizada nos próximos anos.

O episódio mais recente dessa rivalidade surgiu em meio a negociações com o Pentágono e expôs diferenças profundas entre as empresas sobre segurança, regulação e o uso militar da IA.

Rivalidade visível até em eventos públicos

  • A tensão entre Altman e Amodei chegou a se manifestar em um encontro recente com líderes de tecnologia na Índia;
  • Durante uma foto oficial com o primeiro-ministro do país, outros executivos deram as mãos em sinal de união — mas os dois rivais evitaram qualquer contato físico, limitando-se a um constrangido toque de cotovelos;
  • Para muitos observadores, a cena simbolizou a rivalidade crescente entre duas companhias que disputam usuários, talentos e investidores, especialmente em um momento em que ambas avaliam abrir capital ainda este ano;
  • Conflitos entre gigantes da tecnologia não são novidade no Vale do Silício. A história do setor inclui disputas, como Steve Jobs contra Bill Gates, Apple contra Samsung e Uber contra Lyft. Há ainda confrontos frequentes envolvendo Elon Musk e figuras, como Jeff Bezos e Mark Zuckerberg;
  • Embora rivalidades desse tipo muitas vezes estimulem inovação e concorrência, analistas alertam que a disputa entre OpenAI e Anthropic envolve um risco adicional: ambas concentram enorme influência sobre uma tecnologia ainda emergente, cujo impacto potencial é global.

Anthropic: origem da divisão da OpenAI

A Anthropic nasceu em 2021 justamente a partir de preocupações sobre segurança no desenvolvimento da IA. Amodei, então vice-presidente de pesquisa da OpenAI, deixou a empresa após questionar a rapidez com que a tecnologia estava sendo comercializada.

Ele levou consigo vários pesquisadores para fundar a nova companhia, estruturada como uma organização com fins lucrativos que afirma seguir padrões específicos de impacto social e responsabilidade.

As diferenças de visão entre os líderes são frequentemente apontadas como um dos motores da rivalidade. Altman é visto como um negociador agressivo, disposto a fechar grandes acordos para acelerar o crescimento da OpenAI. Já Amodei adota uma postura mais cautelosa e frequentemente alerta para riscos da tecnologia, como possíveis perdas massivas de empregos — comparáveis às da Grande Depressão.

Dario Amodei já criticou Sam Altman e a OpenAI em memorando interno (Imagem: Thrive Studios ID/Shutterstock)

Crescimento acelerado da Anthropic

Durante anos, a OpenAI parecia ter uma vantagem confortável na corrida para levar a IA ao grande público. A empresa criou o aplicativo de consumo com crescimento mais rápido da história da tecnologia, acumulou mais de US$ 100 bilhões (R$ 524,4 bilhões) em caixa e firmou parcerias com grandes empresas de computação.

Nos últimos meses, porém, o cenário começou a mudar. A Anthropic conquistou milhares de grandes empresas como clientes e mais que dobrou sua previsão de receita anual, passando de US$ 9 bilhões (R$ 47,2 bilhões) para US$ 19 bilhões (R$ 99,6 bilhões). Em alguns círculos da indústria, sua tecnologia também passou a ser considerada a mais avançada entre as concorrentes.

Segundo o investidor de capital de risco Siri Srinivas, mudanças de narrativa no setor estão acontecendo cada vez mais rápido. “Levava anos para surgir uma história sobre uma empresa. Agora, as narrativas mudam em meses”, disse ao The New York Times.

A corrida pelo domínio da IA também inclui planos de abertura de capital. De acordo com pessoas familiarizadas com o assunto que conversaram com o The Wall Street Journal, a Anthropic pretende realizar seu IPO antes da OpenAI, o que poderia dar à empresa uma vantagem inicial com investidores.

Situação semelhante ocorreu em 2019, quando a Lyft buscou abrir capital antes da Uber em meio à disputa entre as duas companhias de transporte por aplicativo.

Leia mais:

Conflito com o Pentágono

A rivalidade atingiu um novo patamar quando a Anthropic entrou em choque com o Departamento de Defesa dos Estados Unidos.

Durante negociações para contratos governamentais, a empresa tentou incluir cláusulas que impediriam o uso de sua IA em sistemas de armas autônomas e em vigilância doméstica em larga escala. Autoridades do Pentágono reagiram negativamente. Segundo o chefe de tecnologia do departamento, Emil Michael, cabe ao governo decidir como o Exército utiliza tecnologia. “Tem que ser nossa escolha”, afirmou.

Após Amodei se recusar a retirar essas condições, o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um “risco na cadeia de suprimentos”, o que impede o uso de sua tecnologia em contratos de defesa.

Poucas horas depois de as negociações entre Anthropic e o Pentágono fracassarem, Altman anunciou que a OpenAI havia fechado seu próprio acordo com o Departamento de Defesa. A decisão provocou forte reação pública. Funcionários de tecnologia e usuários elogiaram a Anthropic por manter sua posição contra o uso da IA em vigilância e armamentos autônomos.

Manifestantes também se reuniram diante da sede da OpenAI, escrevendo mensagens como “Sem armas de IA” e “Quais são suas linhas vermelhas?” na calçada. Nas redes sociais, a hashtag “#FireSamAltman” (demita Sam Altman, em tradução livre) chegou a se tornar tendência.

Em contraste, apoiadores deixaram mensagens encorajadoras na sede da Anthropic, incluindo frases como “DEUS AMA A ANTHROPIC” e “VOCÊS NOS ENCORAJAM”.

Memorando interno da Anthropic e troca de acusações

Em um memorando interno divulgado posteriormente, Amodei criticou duramente a OpenAI e acusou a empresa de agir de forma enganosa. “Quero ser muito claro sobre as mensagens que estão vindo da OpenAI e a natureza mentirosa disso. Este é um exemplo de quem eles realmente são”, escreveu.

Ele também afirmou que a Anthropic perdeu o contrato porque se recusou a oferecer “elogios ao estilo de ditadores” ao governo de Donald Trump, algo que alegou que Altman estaria disposto a fazer. Após a repercussão pública do documento, Amodei pediu desculpas pelo tom da mensagem e afirmou que seu pensamento havia evoluído.

Altman também criticou indiretamente o rival ao comentar o papel do governo no setor. “O governo deve ser mais poderoso do que empresas privadas”, disse, durante conferência do banco Morgan Stanley.

A disputa também ganhou contornos políticos. O deputado democrata Ro Khanna elogiou a decisão da Anthropic de não ceder às exigências do Pentágono. Ao mesmo tempo, o presidente Trump criticou duramente a empresa. “Bem, eu demiti a Anthropic”, disse ele em entrevista ao Politico. “A Anthropic está em apuros”, acrescentou, afirmando que a empresa foi dispensada “como cães”.

CEO da OpenAI, Sam Altman, falando em evento
Altman fez críticas indiretas à rival (Imagem: alprodhk/Shutterstock)

Popularidade e números do mercado

Apesar das controvérsias, as duas empresas continuam crescendo rapidamente. A OpenAI informou recentemente que seus produtos são usados por mais de 900 milhões de pessoas, mais que dobrando sua base de clientes em um ano. Mais de nove milhões de empresas pagam para usar o ChatGPT em atividades profissionais e a receita da companhia pode ultrapassar US$ 25 bilhões (R$ 131,1 bilhões) neste ano.

Já o Claude, chatbot da Anthropic, alcançou o primeiro lugar entre os downloads da Apple App Store em 16 países. Mais de um milhão de pessoas passaram a baixar o aplicativo diariamente — entre elas, a cantora Katy Perry.

Rivalidade que pode influenciar futuro da IA

Apesar dos conflitos, Altman e Amodei frequentemente expressam visões semelhantes sobre a velocidade com que a IA está evoluindo e sobre seu potencial transformador. Ambos concordam que a tecnologia terá impacto profundo na sociedade — inclusive na economia e no mercado de trabalho.

A divergência central está em como chegar lá: avançar rapidamente para dominar o mercado ou priorizar limites e regras de segurança. Com as duas empresas sediadas a poucos quilômetros de distância em São Francisco (EUA), a rivalidade entre seus líderes tornou-se um dos principais motores — e também uma das maiores tensões — da corrida global pela liderança em IA. E, pelo tom das recentes trocas de acusações, dificilmente os dois executivos estarão de mãos dadas tão cedo.

O post Rivalidade entre OpenAI e Anthropic se intensifica e pode moldar futuro da IA apareceu primeiro em Olhar Digital.

Rivalidade entre OpenAI e Anthropic se intensifica e pode moldar futuro da IA Read More »