Anthropic

Auto Added by WPeMatico

Trump E1768308396521 1024x577

Trump ordena que governo pare de utilizar tecnologia da Anthropic

Nesta sexta-feira (27), o presidente dos Estados Unidos, Donald Trump, disse que está ordenando que todas as instituições federais parem de utilizar a tecnologia da Anthropic.

O anúncio vem após a recente disputa entre Pentágono e a empresa de Dario Amodei acerca do uso da inteligência artificial (IA) militarmente e cerca de uma hora antes do deadline dado pelo governo à Anthropic para permitir o uso da tecnologia para usos militares ou, do contrário, encarar as consequências.

Trump disse que a maioria das agências federais deve parar de usar a tecnologia imediatamente, enquanto o Pentágono terá seis meses para isso, pois a IA da empresa está embarcada em plataformas militares.

Em sua rede social, a Truth Social, o presidente dos EUA afirmou que “não precisamos, não queremos e não faremos mais negócios com eles!”

Por enquanto, a Anthropic não se manifestou a respeito da determinação.

Leia mais:

Anthropic não quer militarização de sua tecnologia

A Anthropic resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.

Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.

Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.

Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.

“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

  • A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
  • Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
  • Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
  • O Pentágono, por sua vez, afirmou que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
  • Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
Trump adotou forte tom em publicação no Truth Social (Imagem: Joshua Sukoff/Shutterstock)

Pentágono ataca empresa e Amodei

O Pentágono ameaçou classificar a empresa como um risco à cadeia de suprimentos — o que a impediria de fechar contratos com o governo — ou forçá-la a disponibilizar seu modelo de ponta sem restrições com base na Lei de Produção de Defesa (DPA, na sigla em inglês).

O confronto ganhou contornos pessoais quando Emil Michael, alto funcionário do Pentágono responsável por supervisionar a área de IA, atacou diretamente o diretor-executivo da Anthropic, Dario Amodei. Após a declaração de Amodei, Michael publicou críticas no X.

“É uma pena que @DarioAmodei seja um mentiroso e tenha um complexo de Deus”, escreveu ele na noite de quinta-feira (26). “Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se dobrará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”

Autoridades do Departamento de Estado recorreram às redes sociais para reforçar a posição do Pentágono e criticar a Anthropic, enquanto senadores democratas saíram em defesa da empresa. O senador Mark Warner, principal democrata do Comitê de Inteligência do Senado, publicou um vídeo na quinta-feira (26) afirmando que empresas precisam fazer concessões ao governo, mas indicou considerar legítimas as preocupações da Anthropic em relação à vigilância e drones autônomos.

Warner argumentou que a empresa estava sendo ameaçada pelo secretário de Defesa, Pete Hegseth, por priorizar a segurança. “Ele está ameaçando-os, literalmente até amanhã [sexta-feira], que se eles não abrirem mão de todos os controles de segurança e outras coisas, qualquer um que faça negócios com eles será banido”, declarou o senador.

O Pentágono exige que todos os seus contratados sigam um padrão único: o de que as Forças Armadas possam utilizar os produtos adquiridos como desejarem, desde que em conformidade com a lei. Ao mesmo tempo, autoridades militares têm adotado um tom combativo contra empresas de tecnologia.

Uma carta publicada na quinta-feira (26) foi assinada por quase 50 funcionários da OpenAI e 175 do Google. O documento criticou as táticas de negociação do Pentágono e pediu que as lideranças “coloquem de lado suas diferenças e permaneçam unidas para continuar a recusar as atuais exigências do Departamento de Guerra”. “Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, afirma a carta.

O Pentágono declarou na quinta-feira (26) que não tem interesse em utilizar o Claude for Government — modelo da Anthropic que opera em sistemas classificados — para vigilância doméstica ou para drones autônomos. Amodei, contudo, afirmou que essa alegação era enfraquecida pela linguagem jurídica presente no contrato.

“Em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”, escreveu ele. “Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade.”

O Pentágono afirma estar preparado para avançar com o Grok, da xAI, empresa de Elon Musk. No entanto, segundo autoridades atuais e ex-integrantes do governo, o produto é considerado inferior. Além disso, a troca de software de IA exigiria tempo e provavelmente causaria interrupções significativas.

O post Trump ordena que governo pare de utilizar tecnologia da Anthropic apareceu primeiro em Olhar Digital.

Trump ordena que governo pare de utilizar tecnologia da Anthropic Read More »

Pentagono 1024x683

Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono

O CEO da OpenAI, Sam Altman, decidiu intervir no embate entre a Anthropic e o Departamento de Defesa dos Estados Unidos sobre o uso de inteligência artificial em operações militares. Em comunicado interno enviado a funcionários na noite de quinta-feira (26), o executivo afirmou que a empresa negocia um acordo com o Pentágono que permita o uso de seus modelos em ambientes sensíveis, mas sem abrir mão de princípios inegociáveis.

Segundo ele, a OpenAI busca chegar a um contrato que autorize a aplicação da IA “para todos os usos legais”, com exceção de casos como vigilância em massa e armas letais totalmente autônomas. Até o momento, nenhum acordo foi formalizado e as negociações ainda podem fracassar.

No memorando, visto pelo jornal Wall Street Journal, Altman apoiou a posição da Anthropic ao impor limites éticos para usos militares, mas também reconheceu a preocupação do governo sobre o controle de tecnologias sensíveis. Ele segue defendendo que decisões de alto risco continuem sob supervisão humana, sem automatizações.

Para tentar equilibrar os interesses opostos do Pentágono e da Anthropic, a OpenAI propõe a adoção de medidas técnicas, como restringir a execução dos modelos a ambientes de nuvem controlados, evitando implementações em usos militares diretos. A desenvolvedora também quer disponibilizar equipes especializadas para trabalhar em parceria com o governo e garantir que a tecnologia seja utilizada dentro de parâmetros definidos.

A expectativa de Altman é que uma solução negociada possa servir de referência para todo o setor no que diz respeito ao uso de IA em operações militares.

Pentágono deu até o final da tarde desta sexta-feira para que Anthropic aceite os termos (Imagem: Keith J Finks/Shutterstock)

Pentágono x Anthropic

A movimentação ocorre enquanto o Pentágono pressiona a Anthropic a flexibilizar seus limites de segurança.

O Departamento de Defesa quer que a desenvolvedora autorize o uso para “todos os fins lícitos”. Do outro lado, o CEO da Anthropic, Dario Amodei, já afirmou publicamente que não permitirá que o Claude seja empregado em armas totalmente autônomas ou em sistemas de vigilância doméstica em larga escala.

O secretário de Defesa, Pete Hegseth, deu até o fim da tarde desta sexta-feira (27) para que a empresa decida se vai aceitar flexibilizar suas regras ou não. Caso não aceite, a Anthropic deve perder o contrato com o governo dos Estados Unidos. Em um caso mais extremo, o governo pode intervir na atuação da companhia em nome da segurança nacional. O Olhar Digital deu os detalhes da disputa neste link.

Parlamentares também entraram na discussão. Líderes republicanos e democratas das comissões de Serviços Armados e de Orçamento da Defesa enviaram cartas às partes envolvidas pedindo diálogo e sugerindo a extensão do prazo.

Altman avaliou que o impasse não se resume ao tipo de aplicação da tecnologia, mas ao controle sobre ela. Em sua mensagem interna, ele afirmou que, embora empresas privadas possam ter influência relevante, não devem se sobrepor ao governo eleito em decisões de segurança nacional – reforçando, mais uma vez, os limites éticos da tecnologia.

Silhueta de Elon Musk ao lado do logo da xAI
Enquanto isso, Pentágono segue firme na parceria com a xAI (Imagem: Ahyan Stock Studios/Shutterstock)

xAI, Grok e o debate sobre segurança

Enquanto a Anthropic enfrenta resistência por manter restrições, o Pentágono avançou na adoção do Grok, chatbot desenvolvido pela xAI, para uso em ambientes sensíveis. A decisão ocorreu apesar de alertas internos de diferentes agências federais sobre possíveis fragilidades de segurança e confiabilidade do modelo.

Funcionários da Administração de Serviços Gerais (GSA) e outros órgãos manifestaram preocupação com a suscetibilidade do Grok à manipulação por dados tendenciosos ou imprecisos, além de episódios anteriores envolvendo geração de imagens sexualizadas. Relatórios internos também apontaram riscos relacionados à rastreabilidade de dados de treinamento e à robustez dos testes de segurança.

Mesmo assim, o Departamento de Defesa demonstrou entusiasmo com a incorporação da xAI a projetos sensíveis e indicou que pretende integrar o Grok à sua plataforma oficial de IA.

O movimento foi interpretado por analistas como parte de um ambiente cada vez mais politizado, no qual as posições públicas das empresas sobre segurança e regulação influenciam decisões contratuais.

O post Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono apareceu primeiro em Olhar Digital.

Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono Read More »

Anthropic Opus 1024x682 1

Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA

Conforme reportado pelo Olhar Digital, o secretário de Defesa dos Estados Unidos, Pete Hegseth, deu um ultimato à startup de inteligência artificial Anthropic. A empresa deve decidir se libera ou não seu modelo de IA, o Claude, para usos irrestritos para o Pentágono – inclusive aplicações consideradas perigosas.

A Anthropic ficou conhecida no mercado por priorizar a segurança da tecnologia e resiste em flexibilizar suas regras. O embate com o governo dos EUA começou justamente porque a desenvolvedora não permitiu o uso do Claude em aplicações como armas totalmente autônomas nem em vigilância doméstica em massa.

O Pentágono exige que a startup libere sua tecnologia para “todos os fins lícitos” ou perderá o contrato com o governo. A startup tem até às 15h01 (horário local dos Estados Unidos) desta sexta-feira para decidir se aceita os termos ou não.

Caso não aceite, além de perder o contrato, a companhia pode entrar para uma lista de empresas que representam risco à cadeia de suprimentos – o que a excluiria de outros contratos federais. O governo também pode acionar a Lei de Produção de Defesa, mecanismo que permite intervenção estatal em nome da segurança nacional.

O impasse ganhou força após reuniões recentes entre executivos da empresa e autoridades do Pentágono.

Segundo a agência Reuters, em uma delas, foi discutido um cenário hipotético envolvendo o lançamento de um míssil balístico contra os EUA e o uso do Claude para auxiliar na resposta militar. Autoridades afirmam que a postura cautelosa da Anthropic irritou integrantes do governo, que defendem maior liberdade para empregar sistemas de IA em operações estratégicas.

A empresa, por sua vez, nega versões de que teria se recusado a cooperar em casos de defesa antimísseis, mas reafirma que não abrirá mão de suas “linhas vermelhas”. Em comunicado, o CEO Dario Amodei declarou que a companhia não pode permitir, “em sã consciência”, que seus modelos sejam utilizados sem limitações claras. Segundo ele, há situações em que a IA pode comprometer valores democráticos.

O Departamento de Defesa sustenta que não pretende usar a tecnologia para vigilância em massa – prática que, segundo seus porta-vozes, é ilegal – nem para retirar totalmente humanos do processo decisório em armas nucleares. Ainda assim, insiste que o governo deve ter a palavra final sobre o uso da tecnologia em qualquer finalidade permitida por lei.

Anthropic resiste em liberar uso irrestrito do Claude para as Forças Armadas (Imagem: Sidney van den Boogaard/Shutterstock)

Expansão da IA no Pentágono

A tensão ocorre em meio à expansão do uso de IA nas Forças Armadas. Nos últimos anos, o Pentágono firmou contratos de até US$ 200 milhões com laboratórios como Anthropic, OpenAI e Google. O Claude, por exemplo, já é empregado em análise de inteligência, planejamento operacional e cibersegurança.

Especialistas avaliam que o embate ultrapassa questões técnicas e reflete divergências mais amplas sobre governança da inteligência artificial. Para analistas consultados pela Reuters e pelo Washington Post, trata-se também de um conflito político, já que a empresa tem adotado posições públicas críticas a certas políticas do governo Trump relacionadas à tecnologia.

O desfecho pode influenciar o relacionamento entre o setor de IA e o governo americano. Caso o Pentágono avance com medidas coercitivas, como o uso da Lei de Produção de Defesa, o recado ao mercado seria de que empresas podem perder controle sobre suas inovações em nome da segurança nacional. Por outro lado, uma concessão da Anthropic poderia abrir precedente para uso mais amplo de IA em operações militares sensíveis.

O post Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA apareceu primeiro em Olhar Digital.

Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA Read More »

Claude 1024x682

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA

O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.

A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.

Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.

Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.

Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.

“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.

Linhas vermelhas: armas autônomas e vigilância em massa

  • A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
  • Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
  • Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
  • O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
  • Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.

“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.

Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.

Leia mais:

Anthropic: uso do Claude em operação na Venezuela

De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.

A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”

Claude teria sido utilizado pelo governo estadunidense em operação militar na Venezuela (Imagem: Ascannio/Shutterstock)

Pressão e possíveis sanções

Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.

Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.

“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.

O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.

Contratos bilionários e concorrência

Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.

Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.

Debate ético e intervenção governamental na Anthropic

Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.

Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.

Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.

“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.

Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.

O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.

Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.

O post Anthropic “bate o pé” e impede uso militar do Claude pelos EUA apareceu primeiro em Olhar Digital.

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA Read More »

Anthropic 300x169

Os atritos políticos e ideológicos da Anthropic com o governo Trump antes do IPO

Em meio ao avanço de um possível IPO, a startup americana de inteligência artificial Anthropic, dona do chatbot Claude, se vê no meio de um conflito político e ideológico com o governo de Donald Trump e com o Pentágono, sede do Departamento de Defesa dos Estados Unidos. A preocupação é que os possíveis atritos com […]

O post Os atritos políticos e ideológicos da Anthropic com o governo Trump antes do IPO apareceu primeiro em NeoFeed.

Os atritos políticos e ideológicos da Anthropic com o governo Trump antes do IPO Read More »

Anthropic Opus 1024x682

Anthropic flexibiliza segurança para se manter competitiva na corrida de IA

A Anthropic anunciou uma revisão em sua principal política de segurança para o desenvolvimento de inteligência artificial. A empresa ganhou notoriedade no setor por adotar uma postura cautelosa em relação aos riscos da IA. Agora, afirmou que está ajustando essas regras para se manter competitiva diante do ritmo acelerado da indústria.

Até então, a companhia mantinha o compromisso de interromper o avanço de um modelo caso ele atingisse determinados níveis de risco considerados críticos. Com a nova diretriz, essa postura passa a ser mais flexível: se concorrentes lançarem sistemas equivalentes ou mais avançados, a Anthropic poderá continuar o desenvolvimento.

A mudança ocorre em um cenário de forte concorrência com empresas como OpenAI, Google e a xAI, de Elon Musk, que vêm lançando modelos cada vez mais poderosos.

Paralelamente, a Anthropic enfrenta pressões políticas e institucionais nos Estados Unidos, incluindo negociações com o Departamento de Defesa sobre o uso do Claude. A empresa havia informado ao Pentágono que não autorizaria aplicações voltadas à vigilância doméstica ou a sistemas autônomos letais. A resposta das autoridades é que a Anthropic precisaria flexibilizar suas políticas até esta semana se quisesse manter o contrato com o governo.

Em comunicado, a Anthropic afirmou que a revisão da política decorre da velocidade dos avanços tecnológicos e da ausência de regras federais claras para o setor. A desenvolvedora também citou o ambiente político atual, que, segundo ela, prioriza competitividade e crescimento econômico em detrimento de debates mais amplos sobre segurança.

Em comunicado, a empresa defendeu que o compromisso com a segurança permanece, mas que o modelo precisa ser adaptado à realidade competitiva e regulatória.

Ajuste na política de segurança veio para tornar a Anthropic mais competitiva com suas rivais (Imagem: Sidney van den Boogaard/Shutterstock)

Nova política de segurança da Anthropic

A nova versão da chamada Política de Escalabilidade Responsável (RSP) reformula a estrutura adotada desde 2023. Originalmente, o documento estabelecia compromissos condicionais: se um modelo atingisse certos níveis de capacidade – por exemplo, conhecimento que pudesse facilitar o desenvolvimento de armas químicas ou biológicas – a empresa seria obrigada a implementar salvaguardas adicionais, classificadas em diferentes “Níveis de Segurança de IA”.

Agora, a Anthropic separa suas obrigações internas do que considera recomendações ideais para todo o setor. Em vez de compromissos rígidos atrelados a patamares técnicos da IA, a empresa passa a adotar metas públicas de segurança, descritas como ambiciosas, mas viáveis dentro do contexto atual.

Entre as novas iniciativas anunciadas estão a criação de um “Roteiro de Segurança da Fronteira”, que detalhará planos de mitigação de riscos, e a publicação periódica de Relatórios de Risco, com avaliações sobre capacidades dos modelos, potenciais ameaças e medidas de proteção implementadas.

Esses relatórios deverão ser divulgados a cada três a seis meses, com possibilidade de revisão por especialistas externos em determinadas circunstâncias.

A empresa reconheceu que sua estratégia original enfrentou limitações. Por exemplo, muitas vezes não havia consenso interno sobre quando um modelo realmente ultrapassava um nível crítico de risco. Além disso, a expectativa de que governos adotassem rapidamente padrões regulatórios mais robustos não se concretizou.

A revisão da política ocorre em meio a questionamentos internos e externos sobre o rumo da indústria de IA. Nas últimas semanas, pesquisadores deixaram a Anthropic e outras empresas do setor alegando preocupações com a diminuição do foco em segurança. Um dos casos foi o de Mrinank Sharma, pesquisador da área de segurança, que anunciou sua saída no início do mês. Em comunicação interna, ele alertou para riscos associados ao avanço acelerado da tecnologia.

O post Anthropic flexibiliza segurança para se manter competitiva na corrida de IA apareceu primeiro em Olhar Digital.

Anthropic flexibiliza segurança para se manter competitiva na corrida de IA Read More »

Maxim Hopman Fixlqxahcfk Unsplash 1060x596 1024x576

Anthropic lança IA para modernizar COBOL e derruba ações da IBM

Resumo
  • A Anthropic lançou ferramentas de IA baseadas no Claude Code para modernizar sistemas COBOL, impactando o mercado financeiro e causando queda de 10% nas ações da IBM.
  • O COBOL ainda gerencia 95% das transações de caixas eletrônicos nos EUA, mas enfrenta desafios de integração com plataformas modernas e escassez de desenvolvedores especializados.
  • A IA da Anthropic automatiza a análise de código, reduzindo a necessidade de consultores humanos e acelerando a modernização de sistemas, afetando consultorias como Accenture e Cognizant.

Nesta segunda-feira (23), a Anthropic anunciou novas ferramentas de inteligência artificial baseadas no Claude Code, projetadas para acelerar a modernização de sistemas corporativos escritos em COBOL. A novidade abalou o mercado financeiro dos Estados Unidos e fez as ações da gigante da tecnologia IBM sofrerem uma queda expressiva de 10% durante o pregão.

Para compreender a reação dos investidores, é preciso olhar para o modelo de negócios da companhia. A IBM mantém divisões lucrativas dedicadas exclusivamente a ajudar outras corporações a atualizar sistemas legados. Historicamente, isso exige grandes equipes de consultores humanos e contratos milionários de longo prazo, que representam uma fonte de receita constante.

Com o anúncio da Anthropic, o mercado financeiro enxergou uma ameaça direta. A nova IA automatiza fases de análise que antes dependiam desses batalhões de especialistas. Segundo o portal Investing.com, o receio de que as consultorias percam espaço para a automação atingiu o setor em cheio: as ações da Accenture também recuaram 6,58%, enquanto os papéis da Cognizant Technology Solutions registraram baixa de 6,00% no mesmo dia.

O que é o COBOL e por que ainda é tão importante?

O Common Business Oriented Language (COBOL) é uma linguagem de programação criada no final da década de 1950, desenvolvida para o processamento de grandes volumes de dados administrativos, comerciais e financeiros. Embora a indústria global de tecnologia tenha migrado para arquiteturas mais modernas nas últimas décadas, o COBOL permanece operando na infraestrutura econômica global.

Conforme dados divulgados pelo Investing.com, sistemas fundamentados em COBOL ainda gerenciam hoje cerca de 95% das transações de caixas eletrônicos realizadas nos Estados Unidos. Diariamente, centenas de bilhões de linhas desse código rodam em ambientes de produção, garantindo o funcionamento de operações essenciais no mercado financeiro, malhas de companhias aéreas e agências governamentais ao redor do planeta.

Muitos desses sistemas foram implementados antes da era da internet, tornando a integração com plataformas atuais um desafio técnico. Outro gargalo que o setor enfrenta hoje é a escassez de mão de obra. A geração de desenvolvedores que planejou, escreveu e implementou essas arquiteturas já se aposentou. Como consequência, o contingente de profissionais com domínio da linguagem diminui a cada ano, tornando a manutenção ou a transição desses ecossistemas um processo arriscado, lento e muito caro.

O impacto da automação no setor de TI

Atualizar bases de código construídas ao longo de décadas exigia métodos manuais. A proposta da Anthropic é eliminar essa dependência inicial, já que a IA consegue analisar mapeamentos e dependências em milhares de linhas de código simultaneamente, reduzindo a necessidade de intervenção humana.

A plataforma também foi treinada para documentar fluxos de trabalho, identificar os pontos de entrada exatos dos programas, rastrear caminhos de execução e sinalizar potenciais riscos operacionais. Segundo a Anthropic, só a execução dessas etapas exigiria meses de trabalho caso fosse conduzida por métodos de consultoria atuais.

Ao agilizar o processo, a nova versão do Claude Code promete capacitar equipes menores a modernizar bases inteiras em questão de poucos trimestres, eliminando cronogramas que costumavam se arrastar por anos, colocando em xeque a necessidade de terceirização e justificando o alerta vermelho aceso em Wall Street.

Anthropic lança IA para modernizar COBOL e derruba ações da IBM

Anthropic lança IA para modernizar COBOL e derruba ações da IBM Read More »