Pentágono

Auto Added by WPeMatico

anthropic 3 1024x682

Pentágono fecha acordo com sete empresas para uso militar da IA; Anthropic ficou de fora

O Departamento de Defesa dos Estados Unidos formalizou acordos com sete empresas de tecnologia para integrar ferramentas de inteligência artificial em seus sistemas. A iniciativa marca um novo passo na estratégia do Pentágono para ampliar o uso de IA em operações militares e acelerar a adoção no dia a dia das Forças Armadas.

As sete companhias são: OpenAI, Google, Microsoft, Amazon Web Services (AWS), NVIDIA, SpaceX e a startup Reflection AI. Com os contratos, o governo americano passa a utilizar modelos e plataformas dessas empresas em ambientes confidenciais, incluindo redes de alto nível de segurança conhecidas como Níveis de Impacto 6 e 7.

Segundo o Departamento de Defesa, a medida busca ampliar o acesso de militares a ferramentas de ponta. A principal plataforma interna do órgão, a GenAI.mil, já foi utilizada por mais de 1,3 milhão de funcionários em apenas cinco meses de operação.

A expansão ocorre em meio a uma corrida global por aplicações militares de IA. Empresas do Vale do Silício têm demonstrado maior disposição em colaborar com o governo americano, aceitando condições para o uso de suas tecnologias em contextos de defesa. Para autoridades, o objetivo é garantir vantagem estratégica frente às rivais.

Anthropic foi classificada como risco à cadeia de suprimentos e está impedida de fechar contratos governamentais – Imagem: Photo For Everything/Shutterstock

Anthropic ficou de fora

Apesar da ampliação da lista de parceiros, uma ausência chama atenção: a Anthropic. A empresa, que já teve seus modelos amplamente utilizados em ambientes militares, foi recentemente classificada pelo Pentágono como um risco à cadeia de suprimentos, após divergências sobre as regras de uso de suas ferramentas. O Olhar Digital explicou a briga aqui.

A disputa entre a startup e o governo se arrasta há meses. Durante esse período, o governo dos EUA passou a priorizar alternativas para reduzir a dependência de um único fornecedor.

Em declarações recentes, Emil Michael , subsecretário de defesa para pesquisa e engenharia e ex-executivo de tecnologia, afirmou que a Anthropic ainda representa um risco, mas que o modelo Mythos é um “momento de segurança nacional à parte”.

O cenário, no entanto, pode mudar. O presidente dos Estados Unidos, Donald Trump, sinalizou recentemente que a desenvolvedora está “melhorando” aos olhos da administração, o que pode abrir caminho para uma eventual reversão da restrição e um novo acordo com o Pentágono.

Pentagono 1024x683
Pentágono não quer depender de uma única empresa – Imagem: Keith J Finks/Shutterstock

Pentágono na corrida pela IA militar

Os novos acordos também refletem diferentes abordagens tecnológicas. Enquanto empresas como OpenAI e Google operam majoritariamente com modelos fechados, a inclusão da Nvidia e da Reflection indica o interesse crescente do Pentágono em soluções de código aberto. Esses modelos permitem maior personalização e transparência, características vistas como estratégicas em aplicações militares.

“A segurança é francamente aprimorada com o código aberto”, disse Jensen Huang, CEO da NVIDIA, ao defender esse tipo de abordagem em contextos de segurança nacional.

Ao mesmo tempo, empresas envolvidas nos contratos afirmam ter estabelecido limites para o uso de suas tecnologias, incluindo restrições relacionadas a vigilância em massa e armamentos autônomos. O Departamento de Defesa, por sua vez, declarou que seguirá as leis e diretrizes aplicáveis no uso dessas ferramentas.

O post Pentágono fecha acordo com sete empresas para uso militar da IA; Anthropic ficou de fora apareceu primeiro em Olhar Digital.

Pentágono fecha acordo com sete empresas para uso militar da IA; Anthropic ficou de fora Read More »

destaque ceo do google sundar pichai 1024x576 1

Google: funcionários não querem que Pentágono use IA da empresa de forma confidencial

Segundo informações do The Washington Post, centenas de funcionários do Google encaminharam uma carta ao CEO, Sundar Pichai, nesta segunda-feira (27), na qual pedem ao executivo que impeça o Pentágono de usar a inteligência artificial (IA) da empresa para trabalhos confidenciais.

O pedido vem dois meses após a rival Anthropic ser dispensada pelo Departamento de Defesa por se opor à mesma solicitação do órgão federal. A carta foi assinada por mais de 600 trabalhadores, sendo boa parte dos que trabalham no braço de IA do Google, o DeepMind.

Segundo o Post, eles pedem que Pichai não firme acordos com a Defesa que permitam o uso da IA da empresa de forma restrita. O documento alega que tal uso impediria que os representantes da big tech soubessem como a tecnologia da empresa estaria sendo utilizada.

Na carta, os funcionários dizem o seguinte: “Queremos ver a IA beneficiar a humanidade; não queremos vê-la sendo usada de maneiras desumanas ou extremamente prejudiciais. Isso inclui armas autônomas letais e vigilância em massa, mas vai muito além.”

Carta foi endereçada ao CEO Sundar Pichai – Imagem: photosince/Shutterstock

“A única maneira de garantir que o Google não seja associado a tais danos é rejeitar quaisquer cargas de trabalho classificadas. Caso contrário, tais usos podem ocorrer sem nosso conhecimento ou poder para impedi-los”, prossegue o documento.

Vidas humanas já estão sendo perdidas e liberdades civis estão em risco, tanto no país quanto no exterior, devido ao uso indevido da tecnologia que estamos ajudando a construir”, escreveram, sem especificar qual seria essa tecnologia.

Os trabalhadores citaram uma reportagem do The Information na qual afirmava que o Google estaria em negociações com o Pentágono para obter acordo similar ao costurado com a OpenAI (leia mais sobre o assunto abaixo).

A carta insta o Google a declinar qualquer trabalho classificado de uso restrito para garantir que a tecnologia da empresa não seja utilizada de maneiras que possam prejudicar direitos civis ou humanos.

O Google não respondeu a pedido de comentário do Post. O Olhar Digital também tentou contato com a empresa e aguarda retorno.

Leia mais:

Uso da IA de forma militar é questionado

  • A carta aparece em momento no qual a IA está no cerne das guerras atuais, com a indústria debatendo se as empresas do setor ou seus funcionários devem ter voz ativa sobre como os militares usam a tecnologia;
  • Líderes do Pentágono dizem que precisam de liberdade para utilizar a IA comercial “para todos os usos legais” — expressão que, de acordo com autoridades, permite flexibilidades em várias situações, mas seguindo em conformidade com a legislação e procedimentos militares estadunidenses;
  • Contudo, alguns especialistas em IA alegam que tais garantias são insuficientes;
  • No ano passado, o Claude, modelo de IA da rival Anthropic, foi rapidamente integrado aos sistemas militares dos EUA para análise de dados e identificação de alvos em potencial, segundo o Post;
  • Contudo, em fevereiro, empresa e Defesa entraram em litígio após a startup tentar incluir uma cláusula no contrato que garantisse que seu modelo não seria usado para vigilância em massa, tampouco para alimentar armas autônomas letais.

Essa disputa fez crescer o escrutínio sobre outras empresas do setor, como Google e OpenAI, que também fornecem tecnologia de IA para o Pentágono.

Ainda em fevereiro, pouco tempo depois de o Pentágono ter dispensado a Anthropic, a OpenAI fez um contrato com o órgão para fornecimento de IA para cargas de trabalho confidenciais.

O CEO e cofundador, Sam Altman, disse estar confiante de que o contrato firmado garante que a tecnologia da startup não será usada para vigilância em massa em solo estadunidense nem para equipar armas autônomas letais.

Silhuetas de cabeças humanas com logotipos da OpenAI, do ChatGPT e do Google
Contrato do Google deve ser similar ao da OpenAI – Imagem: JRdes/Shutterstock

Google também vive dilema antigo por uso militar

O Google, por sua vez, é reincidente quando se trata de debater o uso ou não de sua IA de forma militar. Em 2018, a companhia desistiu de renovar um acordo que detinha com o Pentágono, que previa o uso de sua IA para reconhecimento de objetos em imagens de drones. A decisão foi tomada após os funcionários se juntarem (novamente) e criarem uma petição pedindo o fim da parceria.

Após o ocorrido, o Google prometeu que sua IA não seria usada para armas ou vigilância. Mas, nos últimos anos, a empresa fortaleceu sua busca por acordos comerciais com os militares dos EUA. No ano passado, a big tech foi além e removeu suas restrições quanto ao uso de IA para armas e vigilância. Em dezembro, firmou contrato com a Defesa para usar o Gemini.

O post Google: funcionários não querem que Pentágono use IA da empresa de forma confidencial apareceu primeiro em Olhar Digital.

Google: funcionários não querem que Pentágono use IA da empresa de forma confidencial Read More »

claude pentagono 1024x607

Anthropic discute modelo de IA com Trump, diz cofundador

A Anthropic está discutindo seu modelo de IA de fronteira Claude Mythos com a administração de Donald Trump, disse o cofundador da empresa nesta segunda-feira (13), mesmo após o Pentágono ter cortado negócios com a empresa de inteligência artificial (IA) estadunidense após disputa contratual.

Uma disputa entre a Anthropic e o Pentágono sobre salvaguardas para como os militares poderiam usar suas ferramentas de IA levou a agência a classificar a Anthropic como um risco da cadeia de suprimentos no mês passado, proibindo seu uso pelo Pentágono e seus contratados.

“Temos uma disputa contratual restrita, mas não quero que isso atrapalhe o fato de que nos importamos profundamente com a segurança nacional”, disse o cofundador da Anthropic, Jack Clark, no evento Semafor World Economy em Washington (EUA).

“Nossa posição é que o governo tem que saber sobre essas coisas… Então, absolutamente, estamos conversando com eles sobre o Mythos e vamos conversar com eles sobre os próximos modelos também.”

Pentágono declarou criadora do Claude como um risco à cadeia de suprimentos e à segurança nacional – Imagem: RixAiArt/Shutterstock

Leia mais:

Capacidades do Anthropic Claude Mythos

  • O Mythos, anunciado em 7 de abril, é o modelo “ainda mais capaz” da Anthropic para codificação e tarefas agênticas, disse a empresa em um post de blog, referindo-se à capacidade do modelo de atuar de forma autônoma;
  • Suas capacidades de codificar em alto nível lhe deram uma habilidade potencialmente sem precedentes para identificar vulnerabilidades de segurança cibernética e elaborar maneiras de explorá-las, disseram especialistas à Reuters;
  • Um tribunal federal de apelações de Washington, D.C., recusou-se, na semana passada, a bloquear a lista negra de segurança nacional do Pentágono da Anthropic por enquanto, uma vitória para a administração Trump que vem depois de outro tribunal de apelações chegar à conclusão oposta em um desafio legal separado da Anthropic;
  • A natureza e os detalhes das conversas da Anthropic com o governo estadunidense, incluindo quais agências estão envolvidas, não ficaram imediatamente claros.

O post Anthropic discute modelo de IA com Trump, diz cofundador apareceu primeiro em Olhar Digital.

Anthropic discute modelo de IA com Trump, diz cofundador Read More »

claude pentagono 1024x607

Nem Claude, nem ChatGPT: Pentágono escolhe IA para Forças Armadas dos EUA

O Departamento de Defesa dos Estados Unidos decidiu transformar o sistema de inteligência artificial Maven, da Palantir, em um programa oficial das Forças Armadas, consolidando o uso da tecnologia no longo prazo. A medida foi comunicada pelo subsecretário de Defesa, Steve Feinberg, em uma carta enviada a líderes do Pentágono e vista pela Reuters.

Segundo o documento, a formalização do modelo deve ser concluída até o fim do atual ano fiscal, em setembro. A decisão garante financiamento contínuo e facilita a adoção da plataforma em todos os ramos militares, ampliando sua presença nas operações.

O Maven é um sistema de comando e controle que utiliza inteligência artificial para processar grandes volumes de dados do campo de batalha. A plataforma integra informações de satélites, drones, radares e relatórios de inteligência para identificar possíveis ameaças e alvos, como veículos, instalações e estoques de armamentos.

Atualmente, o sistema já é amplamente utilizado pelas forças armadas dos EUA e tem sido empregado em operações recentes no Oriente Médio. Durante esse período, a tecnologia auxiliou na execução de milhares de ações militares direcionadas.

A reorganização também prevê mudanças na gestão do programa. A supervisão do Maven será transferida da Agência Nacional de Inteligência Geoespacial para o Escritório de Inteligência Artificial Digital do Pentágono, enquanto os contratos futuros com a Palantir ficarão sob responsabilidade do Exército.

Decisão do Pentágono vem em meio à disputa com a Anthropic (Imagem: RixAiArt / Shutterstock)

Pentágono reforça IA nas forças armadas

Para o governo americano, a iniciativa reforça a estratégia de ampliar o uso de inteligência artificial nas decisões militares. No comunicado, Feinberg destacou a importância de integrar essas tecnologias de forma mais profunda às operações, tornando a tomada de decisão assistida por IA um elemento central da defesa.

A decisão representa mais um avanço da Palantir dentro do setor público dos EUA. A empresa tem acumulado contratos de alto valor com o governo, incluindo um acordo com o Exército que pode chegar a US$ 10 bilhões. Esse crescimento contribuiu para a valorização da companhia, que hoje tem valor de mercado próximo a US$ 360 bilhões.

Apesar do avanço, o uso de IA em operações militares continua cercado de debates. Especialistas e organizações internacionais alertam para riscos éticos e de segurança, especialmente em sistemas que podem influenciar decisões letais. A Palantir afirma que sua tecnologia não executa ataques de forma autônoma e que a decisão final sobre alvos permanece sob controle humano.

Leia mais:

O Maven surgiu inicialmente como parte de um projeto do Pentágono em 2017 voltado à análise de imagens de drones. Desde então, evoluiu para uma plataforma mais ampla, com dezenas de milhares de usuários e contratos que já ultrapassam a casa de bilhões de dólares.

A decisão do Pentágono vem em meio à disputa com a Anthropic, que se negou a flexibilizar suas regras para permitir o uso do Claude em aplicações militares. O Olhar Digital deu os detalhes sobre essa ‘briga’ aqui.

O post Nem Claude, nem ChatGPT: Pentágono escolhe IA para Forças Armadas dos EUA apareceu primeiro em Olhar Digital.

Nem Claude, nem ChatGPT: Pentágono escolhe IA para Forças Armadas dos EUA Read More »

pete hegseth 1024x682

Pentágono quer banir Claude, mas militares resistem à troca

Funcionários do Departamento de Defesa dos Estados Unidos, ex-servidores e contratados de TI que atuam junto às Forças Armadas afirmam que não querem abrir mão das ferramentas de inteligência artificial (IA) da Anthropic, que consideram superiores às alternativas disponíveis. Isso ocorre mesmo depois de o secretário de Defesa, Pete Hegseth, ter classificado a empresa como um risco à cadeia de suprimentos no início de março, proibindo seu uso no Pentágono e entre contratados após um prazo de seis meses.

A decisão surgiu de um desentendimento entre a Anthropic e o Departamento de Defesa sobre os limites de uso das ferramentas de IA militares. Apesar da ordem formal, parte do pessoal está descumprindo o prazo de transição, e alguns já planejam retomar o uso da plataforma caso o impasse seja resolvido. O movimento indica que a retirada do Claude das redes militares será um processo lento e custoso.

Pete Hegseth, secretário de Defesa dos Estados Unidos, classificou o Claude como risco à cadeia de suprimentos militares (Imagem: Joshua Sukoff / Shutterstock.com)

Profissionais de TI frustrados com a ordem

A resistência interna é palpável. “As pessoas de carreira em TI no Departamento de Defesa odeiam essa decisão porque finalmente tinham conseguido que os operadores se sentissem confortáveis usando IA”, afirmou um contratado ouvido pela Reuters, que disse considerar o modelo Claude “o melhor”, enquanto o Grok, da xAI, frequentemente apresentava respostas inconsistentes para uma mesma consulta.

As ferramentas de IA tornaram-se essenciais para as Forças Armadas dos EUA, sendo usadas em tarefas que vão desde o direcionamento de armamentos e planejamento de operações até o manuseio de material classificado e a análise de informações. A Anthropic firmou um contrato de US$ 200 milhões com o Departamento de Defesa em julho de 2025 e se integrou rapidamente ao fluxo de trabalho militar. O Claude foi o primeiro modelo de IA aprovado para operar em redes militares classificadas, e seu nível de adoção era considerado elevado.

Celular com chatbot de IA Claude aberto com o fundo da Anthropic
Apesar de proibição do Pentágono, militares insistem em não abrir mão do Claude (Imagem: gguy / Shutterstock.com)

Recertificação pode levar até 18 meses

Substituir sistemas que utilizam os produtos da Anthropic não é tarefa simples. Joe Saunders, CEO da empresa contratada RunSafe Security, que ajudou as Forças Armadas a incorporar chatbots de IA, explicou que a recertificação de um sistema já existente para uma nova plataforma pode levar de 12 a 18 meses. “Não é só caro, é uma perda de produtividade”, afirmou.

Um funcionário do Pentágono disse que tarefas antes realizadas pelo Claude, como consultas a grandes volumes de dados, passaram a ser feitas manualmente com ferramentas como o Microsoft Excel. O Claude Code, ferramenta da Anthropic usada para escrever código, era amplamente utilizado internamente. Sua ausência deixou desenvolvedores frustrados, segundo relatos de servidores seniores.

Leia mais:

Sistema da Palantir também afetado

A retirada tem implicações que vão além do uso direto. O Maven Smart System, da Palantir — plataforma de análise de inteligência e direcionamento de armamentos usada por militares — foi construído com fluxos de trabalho e prompts desenvolvidos com o Claude Code, segundo fontes da Reuters. A Palantir, que mantém contratos relacionados ao Maven com o Departamento de Defesa e outras agências de segurança nacional com valor potencial acima de US$ 1 bilhão, terá de substituir o Claude por outro modelo e reconstruir partes do software.

palantir
A Palantir, muito utilizada no setor militar dos Estados Unidos, construiu sua plataforma Maven Smart System com base nos códigos do Claude (Imagem: Hiroshi-Mori-Stock / Shutterstock.com)

Alguns desenvolvedores estão “empurrando com a barriga” a substituição, pois ainda usam o Claude para criar fluxos de trabalho automatizados. Um diretor de informação de uma agência federal afirmou que planeja adiar o processo, apostando que o governo do país e a Anthropic chegarão a um acordo antes do prazo de seis meses. O Pentágono usou ferramentas do Claude para apoiar operações militares durante o conflito com o Irã, e fontes da Reuters disseram que a tecnologia continua em uso apesar do bloqueio.

“O que estamos vendo aqui é a tensão da adoção, tanto dentro do Pentágono quanto no nível político”, afirmou Roger Zakheim, diretor da Ronald Reagan Presidential Foundation and Institute.

O post Pentágono quer banir Claude, mas militares resistem à troca apareceu primeiro em Olhar Digital.

Pentágono quer banir Claude, mas militares resistem à troca Read More »

destaque sam altman pete hegseth dario amodei 1024x576

Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares

A disputa entre a Anthropic e o Departamento de Defesa dos Estados Unidos reacendeu um debate antigo no setor de tecnologia: até que ponto empresas do Vale do Silício devem permitir que suas ferramentas sejam utilizadas em aplicações militares?

Nos últimos dias, o conflito entre a desenvolvedora e o governo americano se intensificou após a Anthropic processar o Pentágono, alegando que sua inclusão em uma lista de “risco à segurança nacional” viola direitos garantidos pela Primeira Emenda da Constituição dos EUA. A ação judicial ocorre depois de meses de impasse entre as duas partes sobre as condições de uso do Claude.

No centro da disputa está a recusa da Anthropic em autorizar determinados usos de seus modelos de IA, especialmente em sistemas de vigilância em massa e em armamentos totalmente autônomos capazes de tomar decisões letais.

Segundo a empresa, aceitar a exigência do governo de permitir “qualquer uso legal” de sua tecnologia comprometeria princípios de segurança adotados desde sua fundação e poderia abrir espaço para abusos.

A posição da Anthropic colocou em evidência um tema que acompanha o avanço da inteligência artificial: quais limites éticos devem existir quando tecnologias comerciais passam a integrar operações militares?

Para Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da Hugging Face, a disputa atual não é entre empresas que apoiam ou rejeitam o uso militar da tecnologia. Na avaliação dela, quem busca encontrar “mocinhos e vilões” nesse debate dificilmente encontrará uma separação tão evidente.

Da esquerda para a direita: CEO da OpenAI, Sam Altman; Secretário de Defesa dos EUA, Pete Hegseth; e CEO da Anthropic, Dario Amodei (Imagem: FotoField e Joshua Sukoff – Shutterstock / Reprodução – TechCrunch)

Mudança de postura no Vale do Silício sobre IA militar

A tensão ocorre em um momento em que as grandes empresas de tecnologia têm se aproximado cada vez mais do setor de defesa. Esse movimento ganhou força durante o governo de Donald Trump, que tem incentivado o uso de inteligência artificial em órgãos federais e ampliado investimentos em capacidades militares.

A possibilidade de contratos lucrativos e de longo prazo com o governo também contribuiu para esse alinhamento. Além disso, o avanço tecnológico da China e o aumento global dos gastos militares passaram a influenciar decisões estratégicas de empresas do setor.

Essa realidade contrasta com a postura adotada há menos de uma década por parte da indústria. Um exemplo é o do Projeto Maven, do Google:

  • Em 2018, milhares de funcionários do Google protestaram contra a participação da empresa no Projeto Maven, um programa do Departamento de Defesa voltado à análise de imagens captadas por drones militares;
  • Na época, mais de 3 mil trabalhadores da companhia assinaram uma carta aberta afirmando que o Google não deveria se envolver em projetos ligados à guerra;
  • Após a mobilização interna, a empresa decidiu não renovar o contrato e publicou diretrizes que proibiam o desenvolvimento de tecnologias capazes de causar danos diretos a pessoas.

Com o passar dos anos, porém, essa postura foi sendo flexibilizada. O Google posteriormente removeu de suas políticas parte da linguagem que restringia o desenvolvimento de tecnologias militares e passou a firmar novos acordos que permitem o uso de suas ferramentas pelas forças armadas.

Recentemente, a empresa anunciou que disponibilizará o Gemini para apoiar o desenvolvimento de agentes de IA em projetos militares.

Outras empresas seguiram um caminho semelhante. A OpenAI, que anteriormente proibia o acesso de forças armadas aos seus modelos, flexibilizou sua política a partir de 2024. A empresa, juntamente com Google, Anthropic e xAI, assinou um contrato de até US$ 200 milhões com o Departamento de Defesa para integrar tecnologias de IA a sistemas militares.

No mesmo dia em que o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um risco para a cadeia de suprimentos do governo, a OpenAI firmou um novo acordo permitindo que sua tecnologia seja usada em projetos militares confidenciais.

Enquanto isso, companhias focadas diretamente em tecnologia de defesa, como Palantir e Anduril, transformaram a colaboração com o Pentágono em parte central de seus negócios.

Pentagono 1024x683
Maioria das grandes empresas de tecnologia na corrida de IA já tem contratos com o Pentágono (Imagem: Keith J Finks/Shutterstock)

A posição da Anthropic

Mesmo com o confronto jurídico com o governo, a Anthropic não se posiciona como uma empresa contrária à colaboração com o setor militar.

O cofundador e CEO da companhia, Dario Amodei, afirmou recentemente que a empresa compartilha muitos objetivos com o Departamento de Defesa. Segundo ele, a Anthropic apoia o uso da inteligência artificial para defesa nacional, desde que certas linhas não sejam ultrapassadas.

Leia mais:

Apesar das restrições defendidas pela empresa, documentos judiciais indicam que o governo dos Estados Unidos já utiliza o modelo Claude em diversas atividades militares. Entre elas estariam análise de ameaças, processamento de documentos confidenciais e operações relacionadas ao campo de batalha.

O Olhar Digital fez uma linha do tempo do conflito entre a Anthropic e o Pentágono. Você pode acessá-la neste link.

(O texto usou informações do jornal The Guardian.)

O post Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares apareceu primeiro em Olhar Digital.

Anthropic x Pentágono: disputa reacende debate sobre uso da IA em atividades militares Read More »

pentagono 1024x683 2

Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs

Os Estados Unidos preparam novas regras para contratos civis envolvendo inteligência artificial, exigindo que empresas do setor permitam o uso de seus modelos para “qualquer finalidade legal” por parte do governo. As diretrizes surgem após o impasse entre o Pentágono e a Anthropic.

De acordo com uma versão preliminar das regras, divulgadas pelo Financial Times, desenvolvedoras que desejarem fornecer sistemas de IA ao governo americano terão de conceder uma licença irrevogável para utilizar suas tecnologias em todas as aplicações consideradas legais.

As orientações foram elaboradas pela Administração de Serviços Gerais (GSA), órgão responsável por coordenar compras e contratos para a administração pública. Embora as regras se destinem inicialmente a contratos civis, o modelo pode influenciar diretrizes semelhantes em acordos ligados ao setor militar.

Pentágono x Anthropic

O debate ocorre após uma decisão recente do Departamento de Defesa (agora Departamento de Guerra) envolvendo a Anthropic. Na quinta-feira (5), o Pentágono classificou a empresa como um “risco para a cadeia de suprimentos”.

A medida foi tomada depois de um desacordo entre a desenvolvedora e o governo. Segundo autoridades americanas, a Anthropic insistiu em adotar medidas de segurança consideradas excessivamente restritivas, o que teria dificultado o uso da tecnologia em aplicações governamentais.

Por outro lado, a Anthropic expressou preocupações acerca do uso de seu chatbot, o Claude, em aplicações voltadas para vigilância em massa de cidadãos americanos e armas autônomas. A empresa se recusou a flexibilizar suas regras para se adequar ao Pentágono, resultando na quebra da parceria. O Olhar Digital deu detalhes aqui.

Em paralelo, a GSA decidiu encerrar o contrato da empresa no programa OneGov, que disponibiliza ferramentas de software para órgãos dos poderes Executivo, Legislativo e Judiciário por meio de acordos previamente negociados.

Novas regras vêm depois do desacordo entre Anthropic e Pentágono (Imagem: Keith J Finks/Shutterstock)

Novas exigências dos EUA para empresas de IA

O rascunho das diretrizes também estabelece regras sobre o comportamento dos sistemas de inteligência artificial fornecidos ao governo. Entre os pontos previstos está a exigência de que os contratados não incluam deliberadamente vieses partidários ou ideológicos nas respostas geradas pelos modelos.

Além disso, as empresas terão de informar se seus sistemas foram adaptados ou configurados especificamente para atender a regulamentações ou exigências de conformidade fora do governo federal dos EUA.

Leia mais:

As novas regras fazem parte de uma iniciativa da administração para ampliar o uso de IA no setor público, ao mesmo tempo em que tenta estabelecer padrões para segurança, neutralidade e disponibilidade dessas tecnologias. A Casa Branca não comentou publicamente o assunto até o momento.

O post Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs apareceu primeiro em Olhar Digital.

Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs Read More »

shutterstock 2645157717

Anthropic vai à Justiça contra Pentágono, diz CEO

No fim da noite desta quinta-feira (5), o CEO da Anthropic, Dario Amodei, confirmou os rumores de que a Anthropic teria recebido a classificação de risco à cadeia de suprimentos pelo Pentágono.

Além disso, ele afirmou que a empresa pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial.

Amodei confirmou que o governo dos EUA declarou a Anthropic como um risco de cadeia de suprimentos na quinta-feira (5). A classificação ocorre em meio a um impasse entre a startup e o Departamento de Defesa dos Estados Unidos (DOD) sobre a forma como seus modelos de inteligência artificial (IA), o Claude, podem ser utilizados.

A empresa vinha se desentendendo com o Pentágono sobre limites para o uso da tecnologia. No fim da semana passada, a Anthropic foi informada — por meio de publicações em redes sociais — de que estava sendo incluída em uma lista que a impediria de participar de contratos governamentais.

A companhia buscava garantias de que sua tecnologia não seria utilizada para armas totalmente autônomas ou para vigilância doméstica em massa. Já o DOD queria que a Anthropic concedesse acesso irrestrito ao Claude para qualquer finalidade legal.

“Como afirmamos na sexta-feira passada, não acreditamos, e nunca acreditamos, que seja papel da Anthropic ou de qualquer empresa privada se envolver na tomada de decisões operacionais — esse é o papel dos militares”, escreveu Amodei.

“Nossas únicas preocupações sempre foram nossas exceções para armas totalmente autônomas e vigilância doméstica em massa, que se relacionam a áreas de uso de alto nível, e não à tomada de decisões operacionais.”

CEO disse que não há outra saída senão ir à Justiça contra o Pentágono (Imagem: Thrive Studios ID/Shutterstock)

Leia mais:

Anthropic: Amodei diz que não há outra saída

  • Segundo o executivo, a Anthropic é a única empresa estadunidense a ser publicamente classificada como risco para a cadeia de suprimentos;
  • A designação agora oficial exige que fornecedores e contratados do setor de defesa certifiquem que não utilizam os modelos da empresa em trabalhos realizados com o Pentágono;
  • Esse tipo de classificação costuma ser aplicado a organizações que operam em países considerados adversários dos Estados Unidos, como a empresa chinesa de tecnologia Huawei;
  • Ainda há incerteza sobre se empresas contratadas pelo setor de defesa poderão continuar usando a tecnologia da Anthropic em projetos que não estejam relacionados ao trabalho militar;
  • Amodei afirmou que a designação “não limita (e não pode limitar) o uso do Claude ou relações comerciais com a Anthropic quando não estão relacionadas a contratos específicos com o Departamento de Guerra”.

A Microsoft, que anunciou, em novembro, planos de investir até US$ 5 bilhões (R$ 26,3 bilhões) na Anthropic, afirmou, em comunicado, que seus advogados analisaram a designação e concluíram que os produtos da empresa podem continuar disponíveis para clientes que não sejam o DOD.

A Anthropic havia firmado em julho um contrato de US$ 200 milhões (R$ 1 bilhão) com o Departamento de Defesa e foi o primeiro laboratório de inteligência artificial a integrar seus modelos a fluxos de trabalho de missões em redes classificadas. No entanto, com o avanço das divergências nas negociações, concorrentes também passaram a firmar acordos semelhantes.

A OpenAI, de Sam Altman, e a xAI, de Elon Musk, concordaram em implantar seus modelos em ambientes classificados. Altman anunciou o acordo de sua companhia com o Departamento de Defesa poucas horas depois de a Anthropic ter sido colocada na lista de restrições na sexta-feira (27).

Em uma publicação no X, Altman afirmou que a agência demonstrou “profundo respeito pela segurança e o desejo de fazer parceria para alcançar o melhor resultado possível”.

À frente e à esquerda, Sam Altman com um pequeno sorriso; à direita e ao fundo, o logo da OpenAI em uma tela
Executivo da OpenAI garantiu que o Departamento vai seguir suas restrições (Imagem: FotoField/Shutterstock)

Relação tensa

A relação entre a Anthropic e o governo do presidente Trump tem se tornado cada vez mais tensa nos últimos meses. Amodei chegou a pedir desculpas por um memorando interno crítico à administração que vazou para a imprensa na quarta-feira (4).

De acordo com uma reportagem do The Information, o executivo teria dito a funcionários que o governo não simpatizava com a Anthropic porque a empresa não havia feito doações nem oferecido “elogios no estilo ditador a Trump”.

Amodei afirmou que o memorando foi escrito na sexta-feira (27), após “um dia difícil para a empresa”, e que não reflete suas “opiniões cuidadosas ou ponderadas”. Ele acrescentou que o texto representa uma “avaliação desatualizada da situação atual”.

“A Anthropic não vazou essa publicação nem orientou ninguém a fazê-lo — não é do nosso interesse escalar essa situação”, escreveu o executivo.

O post Anthropic vai à Justiça contra Pentágono, diz CEO apareceu primeiro em Olhar Digital.

Anthropic vai à Justiça contra Pentágono, diz CEO Read More »

pentagono 1024x683 1

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude

Anthropic e o Departamento de Defesa dos Estados Unidos (agora renomeado para Departamento de Guerra) cortaram relações na sexta-feira passada. O desentendimento veio após a desenvolvedora de IA se recusar a flexibilizar suas regras para permitir o uso do Claude em aplicações perigosas, incluindo vigilância em massa de cidadãos americanos e armas autônomas.

Agora, parece que a Anthropic mudou de ideia. Segundo o Financial Times, que citou fontes familiarizadas com o assunto, o CEO Dario Amodei voltou a discutir um possível acordo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. O objetivo seria estabelecer novos termos contratuais que permitam o uso do Claude nas forças armadas.

Mas o clima entre as partes é tenso. Após o desentendimento entre Anthropic e Pentágono, Michael criticou Amodei nas redes sociais, chamando-o de “mentiroso” com “complexo de Deus” e acusando-o de “colocar a segurança de nossa nação em risco”.

Do outro lado, Amodei também criticou o Pentágono e a rival OpenAI, que aproveitou a quebra de contrato para se aliar ao governo. Em um memorando interno divulgado pelo The Information, o executivo criticou o acordo entre OpenAI e Departamento de Defesa, classificando-o como “teatro da segurança” e afirmando que as mensagens entre as partes eram “mentiras descaradas”.

Amodei ainda sugeriu que o relacionamento da Anthropic com o governo federal pode ter se deteriorado por fatores políticos. No documento, ele afirmou que a empresa não fez doações ao presidente Donald Trump nem adotou uma postura pública de apoio semelhante à de outros líderes do setor de tecnologia.

O memorando também detalha um momento das negociações em que o Departamento de Defesa teria sinalizado que aceitaria os termos propostos pela startup, desde que uma cláusula específica fosse removida do contrato.

Perto do fim da negociação, o [departamento] ofereceu-se para aceitar os nossos termos atuais se excluíssemos uma frase específica sobre ‘análise de dados adquiridos em massa’, que era a única linha do contrato que correspondia exatamente ao cenário que mais nos preocupava. Achamos isso muito suspeito.

Anthropic, em memorando interno divulgado pelo The Information

Com a recusa da Anthropic, Pentágono se aliou à OpenAI (Imagem: Keith J Finks/Shutterstock)

Então, por que Anthropic voltou a negociar com o Pentágono?

Mesmo assim, a Anthropic tem motivo para voltar atrás.

Durante as negociações da semana passada, o secretário de Defesa dos Estados Unidos, Pete Hegseth, afirmou que a desenvolvedora poderia ser classificada como um “risco para a cadeia de suprimentos” caso não se aliasse ao Pentágono. Esse tipo de designação costuma ser aplicado a empresas consideradas uma ameaça à segurança nacional – geralmente por vínculos com governos estrangeiros – e poderia prejudicar a Anthropic no setor de tecnologia.

Caso a desenvolvedora realmente seja incluída na lista, companhias que trabalham com contratos de defesa poderiam ser obrigadas a interromper o uso do Claude e encerrar parcerias com a startup.

Leia mais:

Relembrando: No centro dessa disputa estão as condições para o uso militar da tecnologia da Anthropic. A empresa afirma ter dois limites claros: não permitir aplicações de vigilância em massa contra cidadãos americanos e impedir o uso de sistemas de inteligência artificial em armas autônomas letais, capazes de operar sem supervisão humana.

O Departamento de Defesa, por sua vez, defende que a IA utilizada pela instituição esteja disponível para “qualquer uso legal”, um princípio que a Anthropic considera amplo demais e potencialmente incompatível com suas restrições éticas. Segundo relatos, outras empresas do setor – como OpenAI e xAI – teriam aceitado esse tipo de condição.

O post Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude apareceu primeiro em Olhar Digital.

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude Read More »

Dario Amodei CEO 1024x576

OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic

Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).

O anúncio foi feito no X e acontece horas depois de o presidente Donald Trump ter ordenado a quebra de contrato com a Anthropic, rival da OpenAI.

“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”

Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI

  • O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
  • Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
  • Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
  • Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
  • Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.

A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.

Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.

A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.

Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)

Leia mais:

Onde a empresa de Altman se encaixa agora?

Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.

“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.

Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.

Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.

“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.

Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.

O post OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic apareceu primeiro em Olhar Digital.

OpenAI: Sam Altman anuncia acordo com Pentágono após “expulsão” da Anthropic Read More »