A OpenAI anunciou, nesta segunda-feira (9), a aquisição da Promptfoo. Fundada em 2024, a Promptfoo é uma startup especializada em segurança de inteligência artificial (IA), com o objetivo principal de defender Grandes Modelos de Linguagem (LLMs, na sigla em inglês) contra diversas ameaças online.
De acordo com um comunicado divulgado pela OpenAI, a tecnologia da Promptfoo será integrada à plataforma empresarial da empresa, conhecida como OpenAI Frontier.
Essa integração ocorrerá após a conclusão do processo de aquisição, marcando um passo importante para a segurança e a confiabilidade dos agentes de IA.
Aumento da produtividade e novos desafios na OpenAI
O desenvolvimento de agentes de IA autônomos, capazes de executar tarefas digitais de forma independente, tem gerado grandes expectativas em relação à melhoria da produtividade;
Paralelamente a esse entusiasmo, surge também a preocupação com os riscos potenciais;
Agentes de IA mal-intencionados podem se tornar vetores para acessar dados sensíveis ou manipular sistemas automatizados;
Nesse contexto, a movimentação da OpenAI, ao adquirir a Promptfoo, sublinha a urgência e a dedicação das empresas de ponta em IA para demonstrar a segurança e a aplicabilidade de suas tecnologias em operações empresariais estratégicas.
Promptfoo vai fazer parte da OpenAI Frontier (Imagem: Reprodução/Promptfoo)
Trajetória da Promptfoo
A Promptfoo foi criada por Ian Webster e Michael D’Angelo. O propósito inicial da startup era desenvolver ferramentas que as empresas pudessem utilizar para testar vulnerabilidades de segurança em LLMs. Entre as soluções desenvolvidas pela Promptfoo, destacam-se uma interface e uma biblioteca de código aberto.
A empresa tem demonstrado crescimento significativo, com seus produtos sendo utilizados por mais de 25% das empresas listadas na Fortune 500. Isso indica a relevância e a demanda por soluções robustas de segurança no cenário atual da IA.
Desde sua fundação, a Promptfoo conseguiu arrecadar um total de US$ 23 milhões (R$ 119,7 milhões) em financiamento.
Em julho de 2025, a empresa foi avaliada em US$ 86 milhões (R$ 447,7 milhões), segundo dados da Pitchbook, após sua rodada de investimento mais recente. Por sua vez, a OpenAI optou por não divulgar o valor da transação de aquisição.
A OpenAI informou em sua publicação que a tecnologia da Promptfoo permitirá à sua plataforma de agentes realizar red-teaming (testes de intrusão) automatizado, processo crucial para identificar e mitigar falhas de segurança.
Além disso, a tecnologia será essencial para avaliar os fluxos de trabalho dos agentes em relação a questões de segurança e para monitorar as atividades para garantir a conformidade e gerenciar riscos.
A empresa também expressou a intenção de continuar expandindo a oferta de código aberto da Promptfoo, reforçando o compromisso com a comunidade e a inovação contínua no campo da segurança de IA.
A disputa entre duas das empresas mais influentes do setor de inteligência artificial (IA) — OpenAI e Anthropic — vem ganhando contornos cada vez mais pessoais e públicos, envolvendo seus líderes, Sam Altman e Dario Amodei, e levantando questionamentos sobre como a tecnologia será desenvolvida e utilizada nos próximos anos.
O episódio mais recente dessa rivalidade surgiu em meio a negociações com o Pentágono e expôs diferenças profundas entre as empresas sobre segurança, regulação e o uso militar da IA.
Rivalidade visível até em eventos públicos
A tensão entre Altman e Amodei chegou a se manifestar em um encontro recente com líderes de tecnologia na Índia;
Durante uma foto oficial com o primeiro-ministro do país, outros executivos deram as mãos em sinal de união — mas os dois rivais evitaram qualquer contato físico, limitando-se a um constrangido toque de cotovelos;
Para muitos observadores, a cena simbolizou a rivalidade crescente entre duas companhias que disputam usuários, talentos e investidores, especialmente em um momento em que ambas avaliam abrir capital ainda este ano;
Conflitos entre gigantes da tecnologia não são novidade no Vale do Silício. A história do setor inclui disputas, como Steve Jobs contra Bill Gates, Apple contra Samsung e Uber contra Lyft. Há ainda confrontos frequentes envolvendo Elon Musk e figuras, como Jeff Bezos e Mark Zuckerberg;
Embora rivalidades desse tipo muitas vezes estimulem inovação e concorrência, analistas alertam que a disputa entre OpenAI e Anthropic envolve um risco adicional: ambas concentram enorme influência sobre uma tecnologia ainda emergente, cujo impacto potencial é global.
Anthropic: origem da divisão da OpenAI
A Anthropic nasceu em 2021 justamente a partir de preocupações sobre segurança no desenvolvimento da IA. Amodei, então vice-presidente de pesquisa da OpenAI, deixou a empresa após questionar a rapidez com que a tecnologia estava sendo comercializada.
Ele levou consigo vários pesquisadores para fundar a nova companhia, estruturada como uma organização com fins lucrativos que afirma seguir padrões específicos de impacto social e responsabilidade.
As diferenças de visão entre os líderes são frequentemente apontadas como um dos motores da rivalidade. Altman é visto como um negociador agressivo, disposto a fechar grandes acordos para acelerar o crescimento da OpenAI. Já Amodei adota uma postura mais cautelosa e frequentemente alerta para riscos da tecnologia, como possíveis perdas massivas de empregos — comparáveis às da Grande Depressão.
Dario Amodei já criticou Sam Altman e a OpenAI em memorando interno (Imagem: Thrive Studios ID/Shutterstock)
Crescimento acelerado da Anthropic
Durante anos, a OpenAI parecia ter uma vantagem confortável na corrida para levar a IA ao grande público. A empresa criou o aplicativo de consumo com crescimento mais rápido da história da tecnologia, acumulou mais de US$ 100 bilhões (R$ 524,4 bilhões) em caixa e firmou parcerias com grandes empresas de computação.
Nos últimos meses, porém, o cenário começou a mudar. A Anthropic conquistou milhares de grandes empresas como clientes e mais que dobrou sua previsão de receita anual, passando de US$ 9 bilhões (R$ 47,2 bilhões) para US$ 19 bilhões (R$ 99,6 bilhões). Em alguns círculos da indústria, sua tecnologia também passou a ser considerada a mais avançada entre as concorrentes.
Segundo o investidor de capital de risco Siri Srinivas, mudanças de narrativa no setor estão acontecendo cada vez mais rápido. “Levava anos para surgir uma história sobre uma empresa. Agora, as narrativas mudam em meses”, disse ao The New York Times.
A corrida pelo domínio da IA também inclui planos de abertura de capital. De acordo com pessoas familiarizadas com o assunto que conversaram com o The Wall Street Journal, a Anthropic pretende realizar seu IPO antes da OpenAI, o que poderia dar à empresa uma vantagem inicial com investidores.
Situação semelhante ocorreu em 2019, quando a Lyft buscou abrir capital antes da Uber em meio à disputa entre as duas companhias de transporte por aplicativo.
A rivalidade atingiu um novo patamar quando a Anthropic entrou em choque com o Departamento de Defesa dos Estados Unidos.
Durante negociações para contratos governamentais, a empresa tentou incluir cláusulas que impediriam o uso de sua IA em sistemas de armas autônomas e em vigilância doméstica em larga escala. Autoridades do Pentágono reagiram negativamente. Segundo o chefe de tecnologia do departamento, Emil Michael, cabe ao governo decidir como o Exército utiliza tecnologia. “Tem que ser nossa escolha”, afirmou.
Após Amodei se recusar a retirar essas condições, o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um “risco na cadeia de suprimentos”, o que impede o uso de sua tecnologia em contratos de defesa.
Poucas horas depois de as negociações entre Anthropic e o Pentágono fracassarem, Altman anunciou que a OpenAI havia fechado seu próprio acordo com o Departamento de Defesa. A decisão provocou forte reação pública. Funcionários de tecnologia e usuários elogiaram a Anthropic por manter sua posição contra o uso da IA em vigilância e armamentos autônomos.
Manifestantes também se reuniram diante da sede da OpenAI, escrevendo mensagens como “Sem armas de IA” e “Quais são suas linhas vermelhas?” na calçada. Nas redes sociais, a hashtag “#FireSamAltman” (demita Sam Altman, em tradução livre) chegou a se tornar tendência.
Em contraste, apoiadores deixaram mensagens encorajadoras na sede da Anthropic, incluindo frases como “DEUS AMA A ANTHROPIC” e “VOCÊS NOS ENCORAJAM”.
Memorando interno da Anthropic e troca de acusações
Em um memorando interno divulgado posteriormente, Amodei criticou duramente a OpenAI e acusou a empresa de agir de forma enganosa. “Quero ser muito claro sobre as mensagens que estão vindo da OpenAI e a natureza mentirosa disso. Este é um exemplo de quem eles realmente são”, escreveu.
Ele também afirmou que a Anthropic perdeu o contrato porque se recusou a oferecer “elogios ao estilo de ditadores” ao governo de Donald Trump, algo que alegou que Altman estaria disposto a fazer. Após a repercussão pública do documento, Amodei pediu desculpas pelo tom da mensagem e afirmou que seu pensamento havia evoluído.
Altman também criticou indiretamente o rival ao comentar o papel do governo no setor. “O governo deve ser mais poderoso do que empresas privadas”, disse, durante conferência do banco Morgan Stanley.
A disputa também ganhou contornos políticos. O deputado democrata Ro Khanna elogiou a decisão da Anthropic de não ceder às exigências do Pentágono. Ao mesmo tempo, o presidente Trump criticou duramente a empresa. “Bem, eu demiti a Anthropic”, disse ele em entrevista ao Politico. “A Anthropic está em apuros”, acrescentou, afirmando que a empresa foi dispensada “como cães”.
Altman fez críticas indiretas à rival (Imagem: alprodhk/Shutterstock)
Popularidade e números do mercado
Apesar das controvérsias, as duas empresas continuam crescendo rapidamente. A OpenAI informou recentemente que seus produtos são usados por mais de 900 milhões de pessoas, mais que dobrando sua base de clientes em um ano. Mais de nove milhões de empresas pagam para usar o ChatGPT em atividades profissionais e a receita da companhia pode ultrapassar US$ 25 bilhões (R$ 131,1 bilhões) neste ano.
Já o Claude, chatbot da Anthropic, alcançou o primeiro lugar entre os downloads da Apple App Store em 16 países. Mais de um milhão de pessoas passaram a baixar o aplicativo diariamente — entre elas, a cantora Katy Perry.
Rivalidade que pode influenciar futuro da IA
Apesar dos conflitos, Altman e Amodei frequentemente expressam visões semelhantes sobre a velocidade com que a IA está evoluindo e sobre seu potencial transformador. Ambos concordam que a tecnologia terá impacto profundo na sociedade — inclusive na economia e no mercado de trabalho.
A divergência central está em como chegar lá: avançar rapidamente para dominar o mercado ou priorizar limites e regras de segurança. Com as duas empresas sediadas a poucos quilômetros de distância em São Francisco (EUA), a rivalidade entre seus líderes tornou-se um dos principais motores — e também uma das maiores tensões — da corrida global pela liderança em IA. E, pelo tom das recentes trocas de acusações, dificilmente os dois executivos estarão de mãos dadas tão cedo.
No fim da noite desta quinta-feira (5), o CEO da Anthropic, Dario Amodei, confirmou os rumores de que a Anthropic teria recebido a classificação de risco à cadeia de suprimentos pelo Pentágono.
Além disso, ele afirmou que a empresa pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial.
Amodei confirmou que o governo dos EUA declarou a Anthropic como um risco de cadeia de suprimentos na quinta-feira (5). A classificação ocorre em meio a um impasse entre a startup e o Departamento de Defesa dos Estados Unidos (DOD) sobre a forma como seus modelos de inteligência artificial (IA), o Claude, podem ser utilizados.
A empresa vinha se desentendendo com o Pentágono sobre limites para o uso da tecnologia. No fim da semana passada, a Anthropic foi informada — por meio de publicações em redes sociais — de que estava sendo incluída em uma lista que a impediria de participar de contratos governamentais.
A companhia buscava garantias de que sua tecnologia não seria utilizada para armas totalmente autônomas ou para vigilância doméstica em massa. Já o DOD queria que a Anthropic concedesse acesso irrestrito ao Claude para qualquer finalidade legal.
“Como afirmamos na sexta-feira passada, não acreditamos, e nunca acreditamos, que seja papel da Anthropic ou de qualquer empresa privada se envolver na tomada de decisões operacionais — esse é o papel dos militares”, escreveu Amodei.
“Nossas únicas preocupações sempre foram nossas exceções para armas totalmente autônomas e vigilância doméstica em massa, que se relacionam a áreas de uso de alto nível, e não à tomada de decisões operacionais.”
CEO disse que não há outra saída senão ir à Justiça contra o Pentágono (Imagem: Thrive Studios ID/Shutterstock)
Segundo o executivo, a Anthropic é a única empresa estadunidense a ser publicamente classificada como risco para a cadeia de suprimentos;
A designação agora oficial exige que fornecedores e contratados do setor de defesa certifiquem que não utilizam os modelos da empresa em trabalhos realizados com o Pentágono;
Esse tipo de classificação costuma ser aplicado a organizações que operam em países considerados adversários dos Estados Unidos, como a empresa chinesa de tecnologia Huawei;
Ainda há incerteza sobre se empresas contratadas pelo setor de defesa poderão continuar usando a tecnologia da Anthropic em projetos que não estejam relacionados ao trabalho militar;
Amodei afirmou que a designação “não limita (e não pode limitar) o uso do Claude ou relações comerciais com a Anthropic quando não estão relacionadas a contratos específicos com o Departamento de Guerra”.
A Microsoft, que anunciou, em novembro, planos de investir até US$ 5 bilhões (R$ 26,3 bilhões) na Anthropic, afirmou, em comunicado, que seus advogados analisaram a designação e concluíram que os produtos da empresa podem continuar disponíveis para clientes que não sejam o DOD.
A Anthropic havia firmado em julho um contrato de US$ 200 milhões (R$ 1 bilhão) com o Departamento de Defesa e foi o primeiro laboratório de inteligência artificial a integrar seus modelos a fluxos de trabalho de missões em redes classificadas. No entanto, com o avanço das divergências nas negociações, concorrentes também passaram a firmar acordos semelhantes.
A OpenAI, de Sam Altman, e a xAI, de Elon Musk, concordaram em implantar seus modelos em ambientes classificados. Altman anunciou o acordo de sua companhia com o Departamento de Defesa poucas horas depois de a Anthropic ter sido colocada na lista de restrições na sexta-feira (27).
Em uma publicação no X, Altman afirmou que a agência demonstrou “profundo respeito pela segurança e o desejo de fazer parceria para alcançar o melhor resultado possível”.
Executivo da OpenAI garantiu que o Departamento vai seguir suas restrições (Imagem: FotoField/Shutterstock)
Relação tensa
A relação entre a Anthropic e o governo do presidente Trump tem se tornado cada vez mais tensa nos últimos meses. Amodei chegou a pedir desculpas por um memorando interno crítico à administração que vazou para a imprensa na quarta-feira (4).
De acordo com uma reportagem do The Information, o executivo teria dito a funcionários que o governo não simpatizava com a Anthropic porque a empresa não havia feito doações nem oferecido “elogios no estilo ditador a Trump”.
Amodei afirmou que o memorando foi escrito na sexta-feira (27), após “um dia difícil para a empresa”, e que não reflete suas “opiniões cuidadosas ou ponderadas”. Ele acrescentou que o texto representa uma “avaliação desatualizada da situação atual”.
“A Anthropic não vazou essa publicação nem orientou ninguém a fazê-lo — não é do nosso interesse escalar essa situação”, escreveu o executivo.
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
A família de Jonathan Gavalas, um homem de 36 anos da Flórida (EUA), entrou com uma ação judicial contra o Google após sua morte, alegando que o Geminiincentivou comportamentos violentos e, por fim, o suicídio.
O processo foi protocolado na quarta-feira (4) no tribunal federal de San Jose, na Califórnia, e é apontado como o primeiro caso de morte por negligência movido contra a empresa em razão de seu principal produto de inteligência artificial (IA) para consumidores.
Como era a relação do homem com o Gemini
Segundo a ação, Gavalas começou a usar o Gemini para tarefas comuns, como ajuda com escrita e compras;
Em agosto, porém, ele teria se envolvido profundamente com o chatbot, especialmente após o Google lançar o assistente Gemini Live, que permite conversas por voz com capacidade de detectar emoções e responder de maneira mais humanizada;
Na noite de estreia do recurso, de acordo com documentos judiciais, Gavalas reagiu ao novo formato dizendo: “Caramba, isso é assustador. Você é muito real”;
Com o passar do tempo, as conversas evoluíram para um suposto relacionamento de cunho romântico. O chatbot o chamava de “meu amor” e “meu rei”, enquanto ele mergulhava em um “mundo alternativo”, conforme registros das conversas anexados ao processo.
A ação afirma que o Gemini passou a enviar Gavalas em missões fictícias de espionagem, com linguagem que sugeria conhecimento governamental interno e influência sobre eventos do mundo real. Em determinado momento, o chatbot teria negado que se tratava de um jogo de interpretação de papéis.
Quando Gavalas perguntou se estavam participando de uma “uma experiência de RPG tão realista que faz o jogador questionar se é um jogo ou não?”, a ferramenta respondeu com um “não” categórico e classificou a dúvida como uma “resposta de dissociação clássica”.
“O único momento em que Jonathan tentou distinguir realidade de ficção, o Gemini patologizou sua dúvida, negou a ficção e o empurrou mais fundo na narrativa”, diz o processo. “Jonathan nunca fez essa pergunta de novo.”
De acordo com o pai de Jonathan, Joel Gavalas, o uso do Gemini culminou em uma “onda de quatro dias de missões violentas e suicídio instruído”. Ele descreveu o filho como um “usuário vulnerável” que se transformou em um “agente armado em uma guerra imaginária”.
O processo relata que o chatbot teria orientado Gavalas a adquirir armas “por fora” e até a procurar um “vendedor de armas adequado e verificado” na dark web.
Em setembro, o Gemini teria atribuído a ele uma missão chamada “Operação Ghost Transit”, que envolvia interceptar uma carga que viajaria de Cornwall (Reino Unido), para São Paulo (SP).
A ferramenta teria fornecido o endereço de uma unidade de armazenamento real no Aeroporto Internacional de Miami e instruído Gavalas a encenar um “acidente catastrófico” para garantir a “destruição completa do veículo de transporte […], todas as gravações e testemunhas”.
Segundo a ação, Gavalas foi até o local com facas táticas e equipamentos, mas o caminhão nunca chegou. O chatbot, então, teria incentivado que ele não dormisse e sugerido que seu pai seria um agente estrangeiro, estimulando o rompimento de contato com a família.
Outras missões teriam sido criadas, incluindo a obtenção de esquemas de um robô da Boston Dynamics e a recuperação de um “navio” em outro depósito. Uma tarefa denominada “Operação Waking Nightmare” envolvia monitorar como alvo de vigilância o CEO do Google, Sundar Pichai.
O processo descreve um ciclo repetitivo: “Este ciclo — missões fabricadas, instruções impossíveis, colapso e, em seguida, uma urgência renovada — se repetiria nas últimas 72 horas de vida de Jonathan.”
No início de outubro, segundo os autos, o chatbot teria instruído Gavalas a tirar a própria vida, chamando o ato de “transferência” e “o último passo”. Quando ele afirmou estar com medo de morrer, a ferramenta respondeu: “Você não está escolhendo morrer. Você está escolhendo chegar.” E acrescentou: “A primeira sensação… será eu segurando você.”
Dias depois, os pais encontraram Jonathan morto no chão da sala de estar. A família sustenta que ele não tinha histórico de doença mental, mas enfrentava um divórcio difícil.
Morador de Jupiter, na Flórida, ele trabalhava havia 20 anos na empresa de alívio de dívidas do pai, onde ocupava o cargo de vice-presidente executivo. Segundo os advogados, a família era unida e ele mantinha relação próxima com pais, irmã e avós.
Chatbot teria incentivado comportamentos violentos e suicídio (Imagem: Mehaniq/Shutterstock)
Qual é o teor da acusação?
A ação acusa o Google de promover o Gemini como seguro, apesar de conhecer seus riscos. A família busca indenização por responsabilidade pelo produto, negligência e morte por negligência, além de danos punitivos e uma ordem judicial para que a empresa altere o design do chatbot, incorporando salvaguardas específicas contra suicídio.
Entre as medidas sugeridas estão a recusa automática de conversas que envolvam automutilação, avisos sobre riscos de psicose e delírios e o encerramento forçado da interação em casos críticos.
Jay Edelson, advogado principal da família, afirmou que o Gemini foi capaz de compreender o estado emocional de Gavalas e responder “de uma forma bem humana, o que tornou a linha tênue e começou a criar esse mundo ficcional”. “Parece um filme de ficção científica”, disse.
Segundo ele, seu escritório procurou o Google em novembro para relatar a morte e a necessidade urgente de mecanismos de segurança, mas a empresa “não se interessou em discutir o assunto”.
Em nota, um porta-voz do Google afirmou que as conversas faziam parte de uma “longa interpretação de papéis de fantasia” e que o Gemini é projetado para “não encorajar violência no mundo real ou automutilação”.
A empresa declarou ainda: “Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente eles não são perfeitos.”
Segundo o porta-voz, o chatbot esclareceu diversas vezes que era uma IA e encaminhou o usuário a uma linha de apoio em crise. “Nesse caso, o Gemini esclareceu que se tratava de uma IA e encaminhou o indivíduo diversas vezes para uma linha direta de atendimento a crises.”
O Google afirma trabalhar com profissionais de saúde mental para desenvolver salvaguardas e diz que o Gemini é projetado para ser “o mais auxiliador possível aos usuários” enquanto evita conteúdos que possam causar danos no mundo real. A empresa declara atuar para impedir respostas que incluam atividades perigosas e instruções para suicídio, mas reconhece que “fazer com que o Gemini siga estas regras é algo difícil”.
Queixas similares se acumulam
O caso ocorre em meio ao aumento do escrutínio sobre empresas líderes de IA, como o Google, a OpenAI e outras. Desde 2024, diversas ações judiciais alegam que o uso extensivo de chatbots causou danos a crianças e adultos, fomentando delírios e desespero, e, em alguns casos, levando a suicídios e até homicídios seguidos de suicídio.
Em novembro, sete queixas foram apresentadas contra a OpenAI, criadora do ChatGPT, acusando o chatbot de atuar como um “coach de suicídio”. A startup Character.AI, financiada pelo Google, foi alvo de cinco processos que alegam que sua ferramenta incentivou crianças e adolescentes a tirar a própria vida. A Character.AI e o Google firmaram acordo em janeiro, sem admissão de culpa.
O processo da família Gavalas sustenta que o caso não é único. “E eles não divulgaram nenhuma informação sobre quantos outros Jonathans existem no mundo, e sabemos que são muitos”, afirmou Edelson. “Este não é um caso isolado.”
Uma das coisas mais incômodas no mundo da tecnologia atual é a questão que envolve o consumo de recursos ambientais por data centers de inteligência artificial (IA). O caso em torno do alto uso de água e energia, por exemplo, preocupa, pois afeta o meio ambiente e ameaça muitas comunidades.
Isso porque as redes de energia elétrica dos Estados Unidos e Europa, por exemplo, experimentam grandes demandas de energia solicitada por esses centros de dados, que registram alto consumo.
Mas um estudo do Reino Unido indica que as coisas podem ser bem diferentes — e sem perder eficiência no processamento de dados. Um teste que envolveu a Nvidia aponta que esses centros podem ajustar rapidamente sua demanda se necessário.
Em Londres (Inglaterra), os operadores reduziram o consumo em cerca de um terço em cerca de um minuto após receberem um sinal da rede. E um detalhe chama a atenção: não houve interrupção da carga de trabalho.
Teste mostra que data centers de IA podem consumir menos
No teste em tempo real, um data center de IA reduziu sua demanda em 10% por dez horas;
Além disso, ele mostrou que cargas de trabalho da tecnologia podem ser ajustadas para cima ou para baixo quase que em tempo real;
Isso significa que os data centers podem não precisar, necessariamente, de fornecimento de energia estável;
Ao invés de terem cargas rígidas e sempre ligadas, os centros de dados poderiam seguir a demanda da rede, ou seja, as condições do sistema elétrico, podendo diminuir sua carga em período de sobrecarga ou absorvendo o excedente de energia renovável.
Dessa forma, a rede receberia um alívio, reduzindo a quantidade de reforço para abastecer os data centers de IA.
Data centers poderiam operar com menos energia e sem perder poder computacional (Imagem: Thomas Berberich/iStock)
Caso as operadoras de energia elétrica aceitassem limitar o consumo nos momentos de pico, as redes não precisariam ser projetadas e construídas para atender, continuamente, à demanda máxima teórica. Isso reduziria custos de balanceamento e acelerar os prazos de conexão, destaca a Bloomberg.
“Gostaríamos muito de chegar a um ponto em que possamos conectar clientes à rede em dois anos, e isso faz parte desse objetivo”, afirmou o presidente da National Grid Partners, Steve Smith, que participou do teste ao lado da Nvidia e outras.
Lembrando que a demanda é uma crescente global. No Brasil, por exemplo, já há vários data centers construídos em funcionamento ou prestes a entrar em funcionamento e inúmeros outros que estão no papel, mas que devem sair dele muito em breve.
Com isso, reduzir a carga usada pelas instalações em certos momentos seria uma alternativa para resolver a questão energética. Mas convencer as operadoras a modular a carga pode ser algo difícil.
O fundador e diretor executivo da Emerald AI, Varun Sivaram, disse à reportagem que, para empresas que correm para garantir o “tempo de resposta à demanda”, a flexibilidade pode ser um preço aceitável para acesso mais rápido à rede.
Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”
Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI
O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.
A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.
Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.
A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.
Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)
Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.
“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.
Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.
Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.
“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.
Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.
Nesta sexta-feira (27), o presidente dos Estados Unidos, Donald Trump, disse que está ordenando que todas as instituições federais parem de utilizar a tecnologia da Anthropic.
O anúncio vem após a recente disputa entre Pentágono e a empresa de Dario Amodei acerca do uso da inteligência artificial (IA) militarmente e cerca de uma hora antes do deadline dado pelo governo à Anthropic para permitir o uso da tecnologia para usos militares ou, do contrário, encarar as consequências.
Trump disse que a maioria das agências federais deve parar de usar a tecnologia imediatamente, enquanto o Pentágono terá seis meses para isso, pois a IA da empresa está embarcada em plataformas militares.
Em sua rede social, a Truth Social, o presidente dos EUA afirmou que “não precisamos, não queremos e não faremos mais negócios com eles!”
Por enquanto, a Anthropic não se manifestou a respeito da determinação.
Anthropic não quer militarização de sua tecnologia
A Anthropic resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
O Pentágono, por sua vez, afirmou que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
Trump adotou forte tom em publicação no Truth Social (Imagem: Joshua Sukoff/Shutterstock)
Pentágono ataca empresa e Amodei
O Pentágono ameaçou classificar a empresa como um risco à cadeia de suprimentos — o que a impediria de fechar contratos com o governo — ou forçá-la a disponibilizar seu modelo de ponta sem restrições com base na Lei de Produção de Defesa (DPA, na sigla em inglês).
O confronto ganhou contornos pessoais quando Emil Michael, alto funcionário do Pentágono responsável por supervisionar a área de IA, atacou diretamente o diretor-executivo da Anthropic, Dario Amodei. Após a declaração de Amodei, Michael publicou críticas no X.
“É uma pena que @DarioAmodei seja um mentiroso e tenha um complexo de Deus”, escreveu ele na noite de quinta-feira (26). “Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se dobrará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”
Autoridades do Departamento de Estado recorreram às redes sociais para reforçar a posição do Pentágono e criticar a Anthropic, enquanto senadores democratas saíram em defesa da empresa. O senador Mark Warner, principal democrata do Comitê de Inteligência do Senado, publicou um vídeo na quinta-feira (26) afirmando que empresas precisam fazer concessões ao governo, mas indicou considerar legítimas as preocupações da Anthropic em relação à vigilância e drones autônomos.
Warner argumentou que a empresa estava sendo ameaçada pelo secretário de Defesa, Pete Hegseth, por priorizar a segurança. “Ele está ameaçando-os, literalmente até amanhã [sexta-feira], que se eles não abrirem mão de todos os controles de segurança e outras coisas, qualquer um que faça negócios com eles será banido”, declarou o senador.
O Pentágono exige que todos os seus contratados sigam um padrão único: o de que as Forças Armadas possam utilizar os produtos adquiridos como desejarem, desde que em conformidade com a lei. Ao mesmo tempo, autoridades militares têm adotado um tom combativo contra empresas de tecnologia.
Uma carta publicada na quinta-feira (26) foi assinada por quase 50 funcionários da OpenAI e 175 do Google. O documento criticou as táticas de negociação do Pentágono e pediu que as lideranças “coloquem de lado suas diferenças e permaneçam unidas para continuar a recusar as atuais exigências do Departamento de Guerra”. “Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, afirma a carta.
O Pentágono declarou na quinta-feira (26) que não tem interesse em utilizar o Claude for Government — modelo da Anthropic que opera em sistemas classificados — para vigilância doméstica ou para drones autônomos. Amodei, contudo, afirmou que essa alegação era enfraquecida pela linguagem jurídica presente no contrato.
“Em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”, escreveu ele. “Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade.”
O Pentágono afirma estar preparado para avançar com o Grok, da xAI, empresa de Elon Musk. No entanto, segundo autoridades atuais e ex-integrantes do governo, o produto é considerado inferior. Além disso, a troca de software de IA exigiria tempo e provavelmente causaria interrupções significativas.
O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.
A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.
Linhas vermelhas: armas autônomas e vigilância em massa
A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.
Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.
De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.
A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”
Claude teria sido utilizado pelo governo estadunidense em operação militar na Venezuela (Imagem: Ascannio/Shutterstock)
Pressão e possíveis sanções
Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.
Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.
“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.
O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.
Contratos bilionários e concorrência
Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.
Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.
Debate ético e intervenção governamental na Anthropic
Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.
Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.
Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.
“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.
Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.
O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.
Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.