A Metacomeçou a testar uma ferramenta de compras baseada em inteligência artificial. O recurso vem para competir com outros chatbots que já têm essa funcionalidade, como ChatGPT e Gemini, e inserir a IA da empresa no ramo do comércio eletrônico.
Por ora, o recurso aparece para alguns usuários que acessarem o navegador Meta AI pelo desktop nos Estados Unidos, com o nome “Shopping research” (Pesquisa de compras). A Bloombergobteve acesso e fez o teste.
Quando um usuário faz uma solicitação de pesquisa para determinado produto, o chatbot apresenta uma seleção visual de itens, que inclui um carrossel de imagens, preços, informações da marca e um link direto para a compra.
O diferencial do recurso é que ele oferece uma breve explicação justificando a recomendação de cada item. Se a Meta AI tiver acesso às informações do usuário, pode personalizar ainda mais as respostas. O site relatou que, ao pedir dicas de jaquetas puffer, a ferramenta indicou uma variedade de itens da seção feminina de lojas que entregavam em Nova York, atrelando a sugestão ao gênero e à localização.
À Bloomberg, a big tech confirmou que a ferramenta está em testes, mas não deu detalhes adicionais. Não há uma previsão de lançamento oficial e, por ora, não é possível finalizar a compra diretamente pela interface da IA.
Ferramenta da Meta ainda não tem data para ser lançada oficialmente (Imagem: PJ McDonnell/Shutterstock)
Meta quer entrar no comércio eletrônico com IA
O recurso não é exatamente uma surpresa. No início do ano, durante uma teleconferência de resultados, o CEO da Meta, Mark Zuckerberg, já havia mencionado aos investidores que a empresa estava trabalhando no lançamento de ferramentas de compras que utilizam agentes de IA.
Além disso, o próprio mercado de IA já conta com ferramentas similares desenvolvidas por companhias rivais. A OpenAI, por exemplo, tem um assistente de compras dedicado para o ChatGPT. Gemini, do Google, e Perplexity também têm assistentes com a mesma proposta.
A OpenAI firmou um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Pentágono para fornecer inteligência artificial (IA) voltada à vigilância militar. O acordo foi fechado após o colapso das negociações entre o Departamento de Defesa e a Anthropic, que recusou os termos exigidos pelo governo.
A divergência central envolve o monitoramento de cidadãos americanos e o uso da tecnologia em operações de segurança nacional. Enquanto a Anthropic priorizou restrições éticas sobre vigilância doméstica, a OpenAI aceitou as condições governamentais para integrar seus modelos de linguagem à infraestrutura de defesa dos EUA.
Anthropic interrompe negociações por restrições ao monitoramento de cidadãos
As conversas entre a Anthropic e o Pentágono falharam minutos antes do prazo final estabelecido pelo Secretário de Defesa, Pete Hegseth, segundo o jornal The New York Times. O impasse central foi a exigência do governo pelo uso irrestrito das ferramentas de IA para vigilância doméstica. A empresa se recusou a ceder em pontos que violariam suas políticas de segurança e ética de dados pessoais.
O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana (Imagem: Ahyan Stock Studios/Shutterstock)
O diretor de tecnologia do Departamento de Defesa, Emil Michael, liderou as tratativas de um contrato avaliado em US$ 200 milhões. O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana. A resistência da startup gerou atritos diretos com a cúpula do governo e resultou no fim do diálogo.
A Anthropic buscava garantir que seus modelos não fossem aplicados em ações de vigilância em solo americano. O Departamento de Defesa, contudo, demandava flexibilidade total para interpretar o que seria considerado monitoramento legal sob a legislação vigente. Essa divergência semântica e ética foi o principal gatilho para o encerramento do contrato na última sexta-feira (28).
O fracasso da parceria resultou na designação da Anthropic como risco à cadeia de suprimentos pelo governo federal. O presidente dos EUA, Donald Trump, ordenou que agências federais suspendessem o uso das tecnologias da empresa logo após o colapso do acordo.
OpenAI aceita termos do Pentágono e assume contrato de inteligência militar
Pouco após o recuo da Anthropic, o CEO da OpenAI, Sam Altman, anunciou um acordo com o Departamento de Defesa. A empresa assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono. A manobra foi vista como uma resposta estratégica para ocupar o vácuo deixado pela concorrente.
A OpenAI assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono (Imagem: Thrive Studios ID/Shutterstock)
A OpenAI concordou com cláusulas que permitem a utilização de seus sistemas para análise de dados de vigilância. Altman defendeu a posição afirmando que a empresa não deseja opinar sobre a legalidade de ações militares específicas, mas fornecer tecnologia de ponta. O acordo permite que o Pentágono utilize a infraestrutura da OpenAI para fins de segurança nacional.
Críticos e especialistas em privacidade consultados pelo The Verge questionam a conformidade do pacto com os princípios de segurança originais da OpenAI. A mudança na política de uso da empresa, ocorrida anteriormente, já havia removido a proibição explícita de aplicações para “fins militares e bélicos”. Essa alteração facilitou juridicamente a assinatura do contrato e o uso de modelos como o GPT-4.
O Pentágono planeja utilizar a tecnologia para acelerar o desenvolvimento de sistemas autônomos e o processamento massivo de informações de inteligência. A parceria estabelece a OpenAI como o principal fornecedor de IA generativa para a defesa dos Estados Unidos. E o movimento consolida uma fase na qual a eficiência operacional militar sobrepõe-se a restrições de monitoramento.
O Tribunal Superior Eleitoral (TSE) aprovou por unanimidade, na noite de segunda-feira (02), a minuta das novas regras para o uso de inteligência artificial nas eleições de 2026. A principal novidade é que, faltando três dias para a votação, fica proibido espalhar conteúdos criados por IA que usem imagem ou voz de candidatos.
Essa regra vale tanto para o primeiro quanto para o segundo turno e continua valendo até 24 horas depois do fim da eleição. O objetivo é evitar que vídeos falsos (deepfakes) enganem o eleitor na última hora. Além disso, sites e redes sociais não podem usar IA para recomendar candidatos ou dar opinião sobre em quem você deve votar.
Justiça Eleitoral define como as redes sociais devem agir e como combater fake news
Na minuta aprovada pelo TSE, as grandes empresas de tecnologia precisam ter planos para monitorar e diminuir os riscos durante as eleições. Os sistemas de IA dessas redes não podem favorecer nenhum partido ou campanha específica, por exemplo. A ideia é garantir que os algoritmos não influenciem a sua escolha, proibindo qualquer tipo de recomendações automáticas que indiquem preferência eleitoral.
Outro ponto importante é a proibição total do uso de IA para criar fotos ou vídeos que mostrem candidatos em cenas de nudez ou sexo. Também não será permitido usar a tecnologia para criar propagandas que representem violência política contra a mulher. Quem desrespeitar essas regras terá o conteúdo apagado imediatamente e poderá responder por crime eleitoral.
Os juízes que cuidam das eleições agora têm mais poder para mandar apagar informações que sejam mentiras óbvias. O foco principal são aqueles boatos que tentam atacar as urnas eletrônicas ou o trabalho da própria Justiça Eleitoral.
Se uma empresa de tecnologia for avisada e não tirar o conteúdo ilegal do ar, ela poderá ser punida. Mas a justiça deixou claro que a suspensão de perfis só vai acontecer em casos de usuários que sejam comprovadamente falsos ou controlados por robôs. Isso serve para desarticular grupos que espalham mentiras sistematicamente sem prejudicar a liberdade de usuários reais.
A publicação do texto final dessas novas regras está prevista para até 5 de março de 2026. O grande desafio daqui para frente será fiscalizar tudo isso e agir rápido o suficiente, principalmente naquelas 72 horas de silêncio antes da votação. A ver se vão conseguir.
A Anthropic anunciou que está levando mais um recurso antes restrito a assinantes pagos para o plano gratuito do Claude. A partir de agora, usuários da versão gratuita do chatbot poderão optar por permitir que a ferramenta faça referência a conversas anteriores para informar suas respostas.
A empresa tornou o Claude capaz de lembrar interações passadas pela primeira vez em agosto do ano passado. No fim do ano, adicionou a capacidade de compartimentalizar memórias. Agora, a funcionalidade de memória passa a integrar também o plano gratuito.
A mudança ocorre em um momento oportuno: mais cedo, a Anthropic facilitou a importação de conversas anteriores de um chatbot concorrente para o Claude.
Após ativar a memória, o usuário pode desativar o recurso a qualquer momento. É possível apenas pausar a funcionalidade — preservando as memórias para uso futuro — ou excluí-las completamente, garantindo que não fiquem armazenadas nos servidores da Anthropic.
Desenvolvedora do Claude, Anthropic entrou em rota de colisão com o governo dos EUA (Imagem: gguy/Shutterstock)
Anthropic e Claude: popularidade em alta e disputa com o governo dos EUA
O Claude vive um momento de popularidade crescente. Recentemente, o aplicativo alcançou o primeiro lugar entre os apps gratuitos na App Store;
Ao mesmo tempo, a Anthropic está envolvida em uma disputa contratual de alto risco com o governo dos Estados Unidos relacionada a salvaguardas de IA;
Na sexta-feira (27), o secretário de Defesa dos EUA, Pete Hegseth, classificou a empresa como um “risco na cadeia de suprimentos” depois que a Anthropic se recusou a assinar um contrato que, segundo a startup, iria contra seus princípios de não militarizar a IA;
Após a declaração de Hegseth, a Anthropic afirmou que vai contestar a designação.
Por enquanto, resta acompanhar como a situação irá evoluir e quais podem ser as implicações para a empresa.
No último sábado (28), enquanto os Estados Unidos iniciavam a Operação Epic Fury – uma ofensiva aérea de larga escala contra alvos no Irã –, o Departamento de Defesa se viu em meio a uma contradição tecnológica sem precedentes.
Segundo informações da Reuters e do Wall Street Journal, o Pentágono utilizou ferramentas de inteligência artificial da Anthropic para coordenar os ataques, menos de 24 horas após o presidente Donald Trump ter ordenado o banimento da empresa, classificando-a como um “risco à segurança nacional”.
Inteligência artificial em campo
A ofensiva utilizou um arsenal diversificado, incluindo bombardeiros furtivos B-2 e mísseis Tomahawk. No entanto, o “cérebro” por trás de parte da operação foi o Claude, o modelo de linguagem da Anthropic que concorre diretamente com o ChatGPT.
De acordo com o WSJ, o Comando Central dos EUA (Centcom) integrou a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A ironia é cronológica: o uso intensivo da IA ocorreu poucas horas depois de Trump assinar uma diretiva ordenando que as agências federais cessassem o uso dos programas da startup.
O cabo de guerra
O estopim da crise entre o governo e a Anthropic, conforme detalhado pelo portal Axios, foi a recusa do CEO da empresa, Dario Amodei, em atender a um ultimato do Pentágono. O Secretário de Defesa, Pete Hegseth, exigia “acesso irrestrito” aos modelos de IA, o que implicava na remoção de travas de segurança.
A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, traçou uma linha ética clara:
Vigilância: recusa em permitir o uso da IA para monitoramento em massa de cidadãos.
Autonomia bélica: proibição do uso do sistema em armas totalmente autônomas e letais sem supervisão humana.
Em sua rede social, Trump criticou a postura da empresa, afirmando que o “egoísmo” da startup colocava tropas americanas em perigo. Por outro lado, a Anthropic defende que a tecnologia atual não é confiável o suficiente para operar armas letais sem o controle final de um ser humano, como reportado pelo G1.
Um divórcio complexo
Embora o governo tenha rotulado a Anthropic como um “risco à cadeia de suprimentos” – um selo geralmente reservado a adversários estrangeiros –, a desconexão não será imediata. O Wall Street Journal destaca que a IA da empresa está profundamente entranhada nas operações militares, tendo sido peça-chave até na captura do ex-presidente venezuelano Nicolás Maduro, em fevereiro.
Para substituir o Claude, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk. No entanto, especialistas ouvidos pela imprensa americana alertam que o processo de transição pode levar pelo menos seis meses, dada a complexidade da integração dos sistemas via provedores como a Amazon e a Palantir.
A resistência do Vale do Silício
O caso da Anthropic parece ser o sintoma de um movimento maior. Segundo a Axios, grandes corporações americanas (de varejistas como Costco a gigantes da indústria como a 3M) começam a demonstrar uma “espinha dorsal” contra políticas da administração Trump, priorizando valores de mercado e diretrizes éticas em detrimento da conformidade imediata.
No campo de batalha do Irã, a Operação Epic Fury pode ter sido um sucesso militar, mas deixou exposta uma vulnerabilidade estratégica: a dependência de uma inteligência que o próprio governo não consegue (ou não é autorizado a) controlar totalmente.
A ASML, gigante holandesa e peça-chave na engrenagem da tecnologia global, está traçando uma rota que vai muito além das famosas máquinas de litografia ultravioleta extrema (EUV). Em entrevista exclusiva à Reuters, a empresa revelou que planeja expandir seu portfólio para novas frentes de fabricação em um movimento estratégico para capturar uma fatia ainda maior do mercado de inteligência artificial.
Atualmente, a ASML é a única fornecedora no mundo das máquinas EUV, essenciais para que empresas como TSMC e Intel produzam os processadores mais avançados do planeta. No entanto, o objetivo agora é diversificar.
O grande foco da nova fase é o chamado empacotamento avançado. Se antes os chips eram projetados de forma plana, como casas térreas, a nova geração da IA exige estruturas que parecem arranha-céus, com múltiplas camadas de silício empilhadas e conectadas por furos nanométricos.
Essa mudança é vital para acelerar o processamento de modelos de linguagem e chatbots, como o ChatGPT. Conforme a complexidade aumenta, a precisão necessária para “colar” e conectar esses componentes torna-se um negócio altamente lucrativo.
“Olhamos não apenas para os próximos cinco anos, olhamos para os próximos 10, talvez 15 anos”, afirmou Marco Pieters, recém-nomeado Chief Technology Officer (CTO) da ASML.
O papel da IA na fabricação
A ASML também pretende aplicar inteligência artificial em seus próprios processos internos. Pieters, que possui experiência no desenvolvimento de software da companhia, indicou que a IA será usada para acelerar o software de controle das máquinas e otimizar a inspeção dos chips durante a construção.
Além disso, a empresa estuda como superar os limites físicos atuais. Hoje, o tamanho máximo de um chip que pode ser impresso é comparável ao de um selo postal. A ASML está pesquisando novas ferramentas de litografia e sistemas de escaneamento para permitir a criação de chips ainda maiores e mais potentes.
A dominância da ASML no setor é tão expressiva que seu valor de mercado já atinge os US$ 560 bilhões. Com as ações acumulando alta de mais de 30% apenas este ano, a expectativa de investidores sobre a gestão de Pieters e do CEO Christophe Fouquet é alta.
A empresa já deu os primeiros passos nessa nova direção com o lançamento do scanner XT:260, focado em memórias avançadas para IA. Sobre o futuro, Pieters é categórico: as novas ferramentas de empacotamento e conexão devem “coexistir ao lado do que temos feito nos últimos 40 anos”.
A disputa pelo domínio da inteligência artificial (IA) dentro do WhatsApp ganhou um novo capítulo nesta segunda-feira (2), aprofundando o embate entre a Meta e um grupo que reúne as startups Zapia e Luzia, além das gigantes Microsoft e OpenAI.
No Brasil, o conflito já chegou ao Conselho Administrativo de Defesa Econômica (Cade) e também foi parar na Justiça, em embate que coloca em jogo o acesso à plataforma digital mais disseminada do país.
No centro da disputa está a oferta de chatbots de IA dentro do WhatsApp. Para as empresas envolvidas, marcar presença no aplicativo significa fincar posição estratégica no principal canal de comunicação digital dos brasileiros.
Após obter decisão judicial favorável para restringir concorrentes do Meta AI, a Meta, agora, enfrenta um novo movimento da Zapia, que promete elevar o nível de complexidade da briga.
Zapia tenta “contornar” políticas da Meta
A startup uruguaia, criada há dois anos, está, segundo o UOL, prestes a anunciar a oferta de agentes de IA — considerados símbolos da nova fase da IA;
Diferentemente dos chatbots tradicionais, esses agentes são descritos como robôs autônomos capazes de executar tarefas sozinhos, aprender as necessidades dos usuários e agir proativamente, antecipando demandas antes mesmo de serem solicitadas;
A novidade será lançada inicialmente no próprio aplicativo da Zapia, mas a empresa já testa a integração da função ao WhatsApp e pretende implementá-la futuramente na plataforma, segundo o UOL. Internamente, a chegada desses assistentes ao app da Meta é vista como “bem provável”;
Caso se concretize, o movimento representará não apenas uma intensificação da presença da Zapia no território da concorrente, mas também uma antecipação à oferta de agentes dentro do ecossistema da Meta — a Manus AI, adquirida pela companhia de Mark Zuckerberg, já liberou agentes, porém no Telegram.
Atualmente, a Zapia afirma atender seis milhões de pessoas na América Latina. Seu agente de IA realiza reservas, cria lembretes, gerencia agendas, responde dúvidas e executa tarefas, como a maioria dos chatbots disponíveis no mercado.
Agora, com o lançamento do Zapia Max, a empresa inaugura sua entrada na era dos agentes de IA. O novo sistema poderá interagir com outros aplicativos para pesquisar e comparar preços em diferentes lojas, detectar quedas de valores, organizar caixas de e-mail e editar documentos ou planilhas.
O motor dessa transformação, diz o UOL, é o OpenClaw, sistema de código aberto projetado para atuar como agente de IA — com capacidade de controlar um computador, executar tarefas complexas e automatizar fluxos de trabalho. Entre suas vantagens está a possibilidade de operar diretamente no aparelho do usuário e também via plataformas de mensagem, como WhatsApp, Telegram, Discord e Slack.
Só há um porém: em postagem de blog passada, a Zapia desqualificou o OpenClaw ante sua própria ferramenta. A empresa uruguaia afirma que não concederá controle irrestrito ao OpenClaw em sua aplicação. Segundo a empresa, o agente só navegará e executará ações em nome dos usuários mediante permissões especiais.
Leia mais:
Startup uruguaia lidera revolução dos agentes de IA em mensageiros, como o WhatsApp (Imagem: Reprodução/Zapia)
Agentes de IA em alta
Os agentes de IA tornaram-se alvo de interesse das grandes empresas de tecnologia. O OpenClaw deu origem ao Moltbook, rede social que chamou atenção por ser alimentada exclusivamente por robôs, com humanos atuando apenas como espectadores.
Seu fundador, o desenvolvedor Peter Steinberger, foi recentemente contratado pela OpenAI, com anúncio feito pelo próprio Sam Altman. Steinberger continuará mantendo o sistema e o transferirá para uma fundação que receberá recursos da desenvolvedora do ChatGPT.
A própria Meta também investiu pesado nesse segmento. No ano passado, a empresa adquiriu a Manus AI por US$ 3 bilhões (R$ 15,5 bilhões). A companhia nasceu na China e foi posteriormente realocada em Singapura, destacando-se no desenvolvimento de agentes de IA.
O embate entre Meta e as startups ganhou força em janeiro, quando a big tech proibiu desenvolvedores de IA de oferecer seus serviços no WhatsApp. Permaneceram autorizadas apenas empresas que utilizam IA generativa para aprimorar o atendimento ao cliente. Zapia e Luzia denunciaram a conduta ao Cade, que suspendeu a medida no Brasil após abrir investigação para apurar se a restrição prejudicava a concorrência.
Em outros países, a disputa assumiu contornos diferentes. Onde não conseguiu manter o banimento, como na Itália, a Meta passou a cobrar por mensagem trocada com chatbots. No Brasil, porém, após obter decisão favorável, a empresa não tem planos de implementar a cobrança por ora, aponta o UOL.
Para a Zapia, a restrição imposta pela Meta acabou acelerando a transformação de seu próprio aplicativo no principal canal de distribuição. A estratégia se completa com o lançamento simplificado dos agentes de IA.
A startup uruguaia, inclusive, conta com reforço financeiro relevante. A empresa recebeu investimento de R$ 36 milhões da Prosus Ventures, braço de investimentos da Prosus, companhia holandesa comandada pelo brasileiro Fabrício Bloisi, ex-líder do iFood. Além do aporte financeiro, a expectativa é que a Zapia se beneficie da expertise do grupo em situações adversas, compartilhada por outras empresas investidas.
Considerada uma gigante discreta do setor de tecnologia, a Prosus é dona de iFood, Decolar e OLX, além de deter participação na chinesa Tencent — controladora do WeChat e de jogos, como League of Legends, Fortnite e Valorant — e no Nubank. Coincidentemente, também é investidora da Luzia, outra empresa que disputa espaço no WhatsApp.
Sob a liderança de Bloisi, o plano é ampliar os recursos destinados à Zapia e direcionar investimentos para outras startups de IA, fortalecendo a presença do grupo no setor e adicionando novos capítulos à disputa que tem o WhatsApp como palco principal.
O que diz a Zapia
O Olhar Digital entrou em contato com a Zapia e aguarda retorno.
O Claude, modelo de inteligência artificial da Anthropic, está no centro de uma disputa com o governo dos Estados Unidos. A empresa negociava um contrato de US$ 200 milhões (mais de R$ 1 bilhão) para fornecer a IA ao Pentágono, mas exigiu salvaguardas para impedir que a tecnologia fosse usada em vigilância em massa de cidadãos ou em armas autônomas.
A Casa Branca não gostou nada destas condições e deu um prazo para que a companhia abrisse mão dela. Como isso não aconteceu, o presidente Donald Trump ordenou que agências federais do país parassem de usar a tecnologia imediatamente. O impasse, no entanto, pode fazer com que o modelo seja ainda mais utilizado.
IA da Anthropic superou Gemini
O Claude subiu para a segunda posição dos aplicativos gratuitos mais baixados em aparelhos da Apple nos Estados Unidos nas últimas horas.
O aumento da popularidade do modelo de IA sugere que a Anthropic está se beneficiando do embate com a Casa Branca.
Com o aumento da procura, a ferramenta superou o Gemini, do Google, e só está atrás do ChatGPT, da OpenAI.
Além da firme postura da empresa ao rejeitar o uso militar da IA, uma postagem da cantora Katy Perry pode ter influenciado nesse maior interesse dos usuários.
A artista publicou uma captura de tela da assinatura Pro da Anthropic, com um coração sobreposto.
O cerco do governo dos Estados Unidos à Anthropic gerou reações em cadeia. Funcionários do Google, Amazon e Microsoft assinaram cartas e petições nesta semana pedindo que suas companhias desafiem as exigências do Departamento de Defesa sobre o uso de IA em operações militares.
Sam Altman, CEO da OpenAI, inicialmente adotou tom cauteloso, mas acabou defendendo a concorrente. “Apesar de todas as minhas divergências com a Anthropic, confio bastante neles como empresa e acredito que eles realmente se preocupam com a segurança”, afirmou.
Executivo garantiu que a Casa Branca vai seguir suas restrições (Imagem: FotoField/Shutterstock)
Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”
Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI
O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.
A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.
Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.
A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.
Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)
Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.
“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.
Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.
Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.
“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.
Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.
Nesta sexta-feira (27), o presidente dos Estados Unidos, Donald Trump, disse que está ordenando que todas as instituições federais parem de utilizar a tecnologia da Anthropic.
O anúncio vem após a recente disputa entre Pentágono e a empresa de Dario Amodei acerca do uso da inteligência artificial (IA) militarmente e cerca de uma hora antes do deadline dado pelo governo à Anthropic para permitir o uso da tecnologia para usos militares ou, do contrário, encarar as consequências.
Trump disse que a maioria das agências federais deve parar de usar a tecnologia imediatamente, enquanto o Pentágono terá seis meses para isso, pois a IA da empresa está embarcada em plataformas militares.
Em sua rede social, a Truth Social, o presidente dos EUA afirmou que “não precisamos, não queremos e não faremos mais negócios com eles!”
Por enquanto, a Anthropic não se manifestou a respeito da determinação.
Anthropic não quer militarização de sua tecnologia
A Anthropic resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
O Pentágono, por sua vez, afirmou que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
Trump adotou forte tom em publicação no Truth Social (Imagem: Joshua Sukoff/Shutterstock)
Pentágono ataca empresa e Amodei
O Pentágono ameaçou classificar a empresa como um risco à cadeia de suprimentos — o que a impediria de fechar contratos com o governo — ou forçá-la a disponibilizar seu modelo de ponta sem restrições com base na Lei de Produção de Defesa (DPA, na sigla em inglês).
O confronto ganhou contornos pessoais quando Emil Michael, alto funcionário do Pentágono responsável por supervisionar a área de IA, atacou diretamente o diretor-executivo da Anthropic, Dario Amodei. Após a declaração de Amodei, Michael publicou críticas no X.
“É uma pena que @DarioAmodei seja um mentiroso e tenha um complexo de Deus”, escreveu ele na noite de quinta-feira (26). “Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se dobrará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”
Autoridades do Departamento de Estado recorreram às redes sociais para reforçar a posição do Pentágono e criticar a Anthropic, enquanto senadores democratas saíram em defesa da empresa. O senador Mark Warner, principal democrata do Comitê de Inteligência do Senado, publicou um vídeo na quinta-feira (26) afirmando que empresas precisam fazer concessões ao governo, mas indicou considerar legítimas as preocupações da Anthropic em relação à vigilância e drones autônomos.
Warner argumentou que a empresa estava sendo ameaçada pelo secretário de Defesa, Pete Hegseth, por priorizar a segurança. “Ele está ameaçando-os, literalmente até amanhã [sexta-feira], que se eles não abrirem mão de todos os controles de segurança e outras coisas, qualquer um que faça negócios com eles será banido”, declarou o senador.
O Pentágono exige que todos os seus contratados sigam um padrão único: o de que as Forças Armadas possam utilizar os produtos adquiridos como desejarem, desde que em conformidade com a lei. Ao mesmo tempo, autoridades militares têm adotado um tom combativo contra empresas de tecnologia.
Uma carta publicada na quinta-feira (26) foi assinada por quase 50 funcionários da OpenAI e 175 do Google. O documento criticou as táticas de negociação do Pentágono e pediu que as lideranças “coloquem de lado suas diferenças e permaneçam unidas para continuar a recusar as atuais exigências do Departamento de Guerra”. “Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, afirma a carta.
O Pentágono declarou na quinta-feira (26) que não tem interesse em utilizar o Claude for Government — modelo da Anthropic que opera em sistemas classificados — para vigilância doméstica ou para drones autônomos. Amodei, contudo, afirmou que essa alegação era enfraquecida pela linguagem jurídica presente no contrato.
“Em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”, escreveu ele. “Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade.”
O Pentágono afirma estar preparado para avançar com o Grok, da xAI, empresa de Elon Musk. No entanto, segundo autoridades atuais e ex-integrantes do governo, o produto é considerado inferior. Além disso, a troca de software de IA exigiria tempo e provavelmente causaria interrupções significativas.