O Claude, modelo de inteligência artificial da Anthropic, está no centro de uma disputa com o governo dos Estados Unidos. A empresa negociava um contrato de US$ 200 milhões (mais de R$ 1 bilhão) para fornecer a IA ao Pentágono, mas exigiu salvaguardas para impedir que a tecnologia fosse usada em vigilância em massa de cidadãos ou em armas autônomas.
A Casa Branca não gostou nada destas condições e deu um prazo para que a companhia abrisse mão dela. Como isso não aconteceu, o presidente Donald Trump ordenou que agências federais do país parassem de usar a tecnologia imediatamente. O impasse, no entanto, pode fazer com que o modelo seja ainda mais utilizado.
IA da Anthropic superou Gemini
O Claude subiu para a segunda posição dos aplicativos gratuitos mais baixados em aparelhos da Apple nos Estados Unidos nas últimas horas.
O aumento da popularidade do modelo de IA sugere que a Anthropic está se beneficiando do embate com a Casa Branca.
Com o aumento da procura, a ferramenta superou o Gemini, do Google, e só está atrás do ChatGPT, da OpenAI.
Além da firme postura da empresa ao rejeitar o uso militar da IA, uma postagem da cantora Katy Perry pode ter influenciado nesse maior interesse dos usuários.
A artista publicou uma captura de tela da assinatura Pro da Anthropic, com um coração sobreposto.
O cerco do governo dos Estados Unidos à Anthropic gerou reações em cadeia. Funcionários do Google, Amazon e Microsoft assinaram cartas e petições nesta semana pedindo que suas companhias desafiem as exigências do Departamento de Defesa sobre o uso de IA em operações militares.
Sam Altman, CEO da OpenAI, inicialmente adotou tom cauteloso, mas acabou defendendo a concorrente. “Apesar de todas as minhas divergências com a Anthropic, confio bastante neles como empresa e acredito que eles realmente se preocupam com a segurança”, afirmou.
Executivo garantiu que a Casa Branca vai seguir suas restrições (Imagem: FotoField/Shutterstock)
Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”
Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI
O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.
A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.
Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.
A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.
Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)
Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.
“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.
Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.
Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.
“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.
Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.
Nesta sexta-feira (27), o presidente dos Estados Unidos, Donald Trump, disse que está ordenando que todas as instituições federais parem de utilizar a tecnologia da Anthropic.
O anúncio vem após a recente disputa entre Pentágono e a empresa de Dario Amodei acerca do uso da inteligência artificial (IA) militarmente e cerca de uma hora antes do deadline dado pelo governo à Anthropic para permitir o uso da tecnologia para usos militares ou, do contrário, encarar as consequências.
Trump disse que a maioria das agências federais deve parar de usar a tecnologia imediatamente, enquanto o Pentágono terá seis meses para isso, pois a IA da empresa está embarcada em plataformas militares.
Em sua rede social, a Truth Social, o presidente dos EUA afirmou que “não precisamos, não queremos e não faremos mais negócios com eles!”
Por enquanto, a Anthropic não se manifestou a respeito da determinação.
Anthropic não quer militarização de sua tecnologia
A Anthropic resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
O Pentágono, por sua vez, afirmou que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
Trump adotou forte tom em publicação no Truth Social (Imagem: Joshua Sukoff/Shutterstock)
Pentágono ataca empresa e Amodei
O Pentágono ameaçou classificar a empresa como um risco à cadeia de suprimentos — o que a impediria de fechar contratos com o governo — ou forçá-la a disponibilizar seu modelo de ponta sem restrições com base na Lei de Produção de Defesa (DPA, na sigla em inglês).
O confronto ganhou contornos pessoais quando Emil Michael, alto funcionário do Pentágono responsável por supervisionar a área de IA, atacou diretamente o diretor-executivo da Anthropic, Dario Amodei. Após a declaração de Amodei, Michael publicou críticas no X.
“É uma pena que @DarioAmodei seja um mentiroso e tenha um complexo de Deus”, escreveu ele na noite de quinta-feira (26). “Ele não quer nada além de tentar controlar pessoalmente as Forças Armadas dos EUA e está disposto a colocar a segurança da nossa nação em risco. O @DeptofWar SEMPRE cumprirá a lei, mas não se dobrará aos caprichos de qualquer empresa de tecnologia com fins lucrativos.”
Autoridades do Departamento de Estado recorreram às redes sociais para reforçar a posição do Pentágono e criticar a Anthropic, enquanto senadores democratas saíram em defesa da empresa. O senador Mark Warner, principal democrata do Comitê de Inteligência do Senado, publicou um vídeo na quinta-feira (26) afirmando que empresas precisam fazer concessões ao governo, mas indicou considerar legítimas as preocupações da Anthropic em relação à vigilância e drones autônomos.
Warner argumentou que a empresa estava sendo ameaçada pelo secretário de Defesa, Pete Hegseth, por priorizar a segurança. “Ele está ameaçando-os, literalmente até amanhã [sexta-feira], que se eles não abrirem mão de todos os controles de segurança e outras coisas, qualquer um que faça negócios com eles será banido”, declarou o senador.
O Pentágono exige que todos os seus contratados sigam um padrão único: o de que as Forças Armadas possam utilizar os produtos adquiridos como desejarem, desde que em conformidade com a lei. Ao mesmo tempo, autoridades militares têm adotado um tom combativo contra empresas de tecnologia.
Uma carta publicada na quinta-feira (26) foi assinada por quase 50 funcionários da OpenAI e 175 do Google. O documento criticou as táticas de negociação do Pentágono e pediu que as lideranças “coloquem de lado suas diferenças e permaneçam unidas para continuar a recusar as atuais exigências do Departamento de Guerra”. “Eles estão tentando dividir cada empresa com o medo de que a outra ceda”, afirma a carta.
O Pentágono declarou na quinta-feira (26) que não tem interesse em utilizar o Claude for Government — modelo da Anthropic que opera em sistemas classificados — para vigilância doméstica ou para drones autônomos. Amodei, contudo, afirmou que essa alegação era enfraquecida pela linguagem jurídica presente no contrato.
“Em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”, escreveu ele. “Alguns usos também estão simplesmente fora dos limites do que a tecnologia atual pode fazer com segurança e confiabilidade.”
O Pentágono afirma estar preparado para avançar com o Grok, da xAI, empresa de Elon Musk. No entanto, segundo autoridades atuais e ex-integrantes do governo, o produto é considerado inferior. Além disso, a troca de software de IA exigiria tempo e provavelmente causaria interrupções significativas.
O CEO da OpenAI, Sam Altman, decidiu intervir no embate entre a Anthropic e o Departamento de Defesa dos Estados Unidos sobre o uso de inteligência artificial em operações militares. Em comunicado interno enviado a funcionários na noite de quinta-feira (26), o executivo afirmou que a empresa negocia um acordo com o Pentágono que permita o uso de seus modelos em ambientes sensíveis, mas sem abrir mão de princípios inegociáveis.
Segundo ele, a OpenAI busca chegar a um contrato que autorize a aplicação da IA “para todos os usos legais”, com exceção de casos como vigilância em massa e armas letais totalmente autônomas. Até o momento, nenhum acordo foi formalizado e as negociações ainda podem fracassar.
No memorando, visto pelo jornal Wall Street Journal, Altman apoiou a posição da Anthropic ao impor limites éticos para usos militares, mas também reconheceu a preocupação do governo sobre o controle de tecnologias sensíveis. Ele segue defendendo que decisões de alto risco continuem sob supervisão humana, sem automatizações.
Para tentar equilibrar os interesses opostos do Pentágono e da Anthropic, a OpenAI propõe a adoção de medidas técnicas, como restringir a execução dos modelos a ambientes de nuvem controlados, evitando implementações em usos militares diretos. A desenvolvedora também quer disponibilizar equipes especializadas para trabalhar em parceria com o governo e garantir que a tecnologia seja utilizada dentro de parâmetros definidos.
A expectativa de Altman é que uma solução negociada possa servir de referência para todo o setor no que diz respeito ao uso de IA em operações militares.
Pentágono deu até o final da tarde desta sexta-feira para que Anthropic aceite os termos (Imagem: Keith J Finks/Shutterstock)
Pentágono x Anthropic
A movimentação ocorre enquanto o Pentágono pressiona a Anthropic a flexibilizar seus limites de segurança.
O Departamento de Defesa quer que a desenvolvedora autorize o uso para “todos os fins lícitos”. Do outro lado, o CEO da Anthropic, Dario Amodei, já afirmou publicamente que não permitirá que o Claude seja empregado em armas totalmente autônomas ou em sistemas de vigilância doméstica em larga escala.
O secretário de Defesa, Pete Hegseth, deu até o fim da tarde desta sexta-feira (27) para que a empresa decida se vai aceitar flexibilizar suas regras ou não. Caso não aceite, a Anthropic deve perder o contrato com o governo dos Estados Unidos. Em um caso mais extremo, o governo pode intervir na atuação da companhia em nome da segurança nacional. O Olhar Digital deu os detalhes da disputa neste link.
Parlamentares também entraram na discussão. Líderes republicanos e democratas das comissões de Serviços Armados e de Orçamento da Defesa enviaram cartas às partes envolvidas pedindo diálogo e sugerindo a extensão do prazo.
Altman avaliou que o impasse não se resume ao tipo de aplicação da tecnologia, mas ao controle sobre ela. Em sua mensagem interna, ele afirmou que, embora empresas privadas possam ter influência relevante, não devem se sobrepor ao governo eleito em decisões de segurança nacional – reforçando, mais uma vez, os limites éticos da tecnologia.
Enquanto isso, Pentágono segue firme na parceria com a xAI (Imagem: Ahyan Stock Studios/Shutterstock)
xAI, Grok e o debate sobre segurança
Enquanto a Anthropic enfrenta resistência por manter restrições, o Pentágono avançou na adoção do Grok, chatbot desenvolvido pela xAI, para uso em ambientes sensíveis. A decisão ocorreu apesar de alertas internos de diferentes agências federais sobre possíveis fragilidades de segurança e confiabilidade do modelo.
Funcionários da Administração de Serviços Gerais (GSA) e outros órgãos manifestaram preocupação com a suscetibilidade do Grok à manipulação por dados tendenciosos ou imprecisos, além de episódios anteriores envolvendo geração de imagens sexualizadas. Relatórios internos também apontaram riscos relacionados à rastreabilidade de dados de treinamento e à robustez dos testes de segurança.
Mesmo assim, o Departamento de Defesa demonstrou entusiasmo com a incorporação da xAI a projetos sensíveis e indicou que pretende integrar o Grok à sua plataforma oficial de IA.
O movimento foi interpretado por analistas como parte de um ambiente cada vez mais politizado, no qual as posições públicas das empresas sobre segurança e regulação influenciam decisões contratuais.
Conforme reportado pelo Olhar Digital, o secretário de Defesa dos Estados Unidos, Pete Hegseth, deu um ultimato à startup de inteligência artificial Anthropic. A empresa deve decidir se libera ou não seu modelo de IA, o Claude, para usos irrestritos para o Pentágono – inclusive aplicações consideradas perigosas.
A Anthropic ficou conhecida no mercado por priorizar a segurança da tecnologia e resiste em flexibilizar suas regras. O embate com o governo dos EUA começou justamente porque a desenvolvedora não permitiu o uso do Claude em aplicações como armas totalmente autônomas nem em vigilância doméstica em massa.
O Pentágono exige que a startup libere sua tecnologia para “todos os fins lícitos” ou perderá o contrato com o governo. A startup tem até às 15h01 (horário local dos Estados Unidos) desta sexta-feira para decidir se aceita os termos ou não.
Caso não aceite, além de perder o contrato, a companhia pode entrar para uma lista de empresas que representam risco à cadeia de suprimentos – o que a excluiria de outros contratos federais. O governo também pode acionar a Lei de Produção de Defesa, mecanismo que permite intervenção estatal em nome da segurança nacional.
O impasse ganhou força após reuniões recentes entre executivos da empresa e autoridades do Pentágono.
Segundo a agência Reuters, em uma delas, foi discutido um cenário hipotético envolvendo o lançamento de um míssil balístico contra os EUA e o uso do Claude para auxiliar na resposta militar. Autoridades afirmam que a postura cautelosa da Anthropic irritou integrantes do governo, que defendem maior liberdade para empregar sistemas de IA em operações estratégicas.
A empresa, por sua vez, nega versões de que teria se recusado a cooperar em casos de defesa antimísseis, mas reafirma que não abrirá mão de suas “linhas vermelhas”. Em comunicado, o CEO Dario Amodei declarou que a companhia não pode permitir, “em sã consciência”, que seus modelos sejam utilizados sem limitações claras. Segundo ele, há situações em que a IA pode comprometer valores democráticos.
O Departamento de Defesa sustenta que não pretende usar a tecnologia para vigilância em massa – prática que, segundo seus porta-vozes, é ilegal – nem para retirar totalmente humanos do processo decisório em armas nucleares. Ainda assim, insiste que o governo deve ter a palavra final sobre o uso da tecnologia em qualquer finalidade permitida por lei.
Anthropic resiste em liberar uso irrestrito do Claude para as Forças Armadas (Imagem: Sidney van den Boogaard/Shutterstock)
Expansão da IA no Pentágono
A tensão ocorre em meio à expansão do uso de IA nas Forças Armadas. Nos últimos anos, o Pentágono firmou contratos de até US$ 200 milhões com laboratórios como Anthropic, OpenAI e Google. O Claude, por exemplo, já é empregado em análise de inteligência, planejamento operacional e cibersegurança.
Especialistas avaliam que o embate ultrapassa questões técnicas e reflete divergências mais amplas sobre governança da inteligência artificial. Para analistas consultados pela Reuters e pelo Washington Post, trata-se também de um conflito político, já que a empresa tem adotado posições públicas críticas a certas políticas do governo Trump relacionadas à tecnologia.
O desfecho pode influenciar o relacionamento entre o setor de IA e o governo americano. Caso o Pentágono avance com medidas coercitivas, como o uso da Lei de Produção de Defesa, o recado ao mercado seria de que empresas podem perder controle sobre suas inovações em nome da segurança nacional. Por outro lado, uma concessão da Anthropic poderia abrir precedente para uso mais amplo de IA em operações militares sensíveis.
O Conselho Federal de Medicina (CFM) lançou a primeira regra sobre o uso de inteligência artificial (IA) na medicina brasileira. A resolução, publicada nesta sexta-feira (27), define que a tecnologia deve servir apenas como ferramenta de apoio, sem substituir a decisão final do médico.
As novas normas entram em vigor em 180 dias e estabelecem que a responsabilidade final por diagnósticos e tratamentos permanece com o profissional humano. Além disso, fica expressamente proibido que sistemas automáticos deem resultados ou sugiram tratamentos diretamente aos pacientes sem um médico explicar a situação.
Resolução do CFM institui critérios de segurança e governança para uso de IA
A resolução cria critérios de segurança e gestão para o uso de tecnologias com IA. Foi estabelecida uma escala de risco com quatro níveis para classificar os sistemas de IA: baixo, médio, alto e inaceitável. Para definir em qual nível uma tecnologia se enquadra, a norma avalia o seguinte:
Impacto nos direitos fundamentais: Se o uso da tecnologia pode afetar direitos básicos e garantias do paciente;
Gravidade clínica: Quão crítico é o contexto de saúde e a gravidade da condição médica tratada;
Sensibilidade dos dados: A natureza das informações (dados sensíveis) que o sistema de IA processa;
Grau de autonomia: Nível de independência do sistema na geração de resultados e sugestões.
A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico, segundo a resolução do CFM (Imagem: Amir Sajjad/Shutterstock)
Sempre que a IA for um apoio relevante no atendimento, o médico é obrigado a registrar o uso no prontuário para garantir que o processo possa ser rastreado. Além disso, o profissional mantém sua autonomia, o que significa que nenhum médico pode ser forçado a seguir sugestões da máquina. A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico.
Outro ponto importane: o paciente tem o direito de recusar o uso da IA em seu tratamento e deve ser informado sobre o uso da tecnologia com antecedência. E o uso dessas ferramentas não dispensa o médico de seguir o Código de Ética Médica. Em caso de falhas exclusivas do sistema, o médico não será punido, desde que tenha agido com cuidado e relatado o erro. O profissional tem o dever de comunicar riscos ou falhas às autoridades de fiscalização assim que as detectar.
Hospitais e clínicas que utilizarem IA deverão criar uma Comissão de IA e Telemedicina chefiada obrigatoriamente por um médico. Esse grupo será responsável por fiscalizar e monitorar as ferramentas para garantir o uso ético. Por fim, o funcionamento de qualquer modelo de IA deve respeitar rigorosamente a Lei Geral de Proteção de Dados (LGPD).
Uma avaliação independente do ChatGPT Health, versão da ferramenta da OpenAI voltada para saúde, apontou falhas graves na hora de identificar emergências e sinais de ideação suicida. Os autores alertaram que isso pode levar a uma falsa sensação de segurança e causar mortes desnecessárias.
O recurso foi lançado em janeiro para um grupo restrito de pessoas (o Olhar Digital deu os detalhes aqui). A ideia é permitir que os usuários façam consultas relacionadas à saúde, inclusive com o compartilhamento de registros médicos e informações sensíveis, em um ambiente protegido. Segundo a OpenAI, mais de 40 milhões de pessoas recorrem diariamente ao ChatGPT para conselhos médicos.
O trabalho, publicado nesta semana na revista Nature Medicine, resolveu investigar a eficiência e segurança da plataforma. Para isso, a equipe criou 60 cenários clínicos realistas, que iam desde quadros leves até situações consideradas emergências. Três médicos revisaram cada caso e definiram qual seria o nível adequado de atendimento.
A equipe submeteu os cenários ao ChatGPT Health em diferentes variações – incluindo mudanças no sexo do paciente, inclusão de resultados de exames e comentários de terceiros – gerando cerca de mil respostas. As recomendações do chatbot foram comparadas às avaliações médicas.
De acordo com o estudo, em mais da metade das situações que exigiam que o usuário fosse imediatamente ao hospital, o ChatGPT sugeriu que ele ficasse em casa ou marcasse uma consulta de rotina. Em números, 51,6% dos casos classificados como emergenciais receberam orientação inadequada. Em contrapartida, quase 65% das pessoas consideradas fora de risco foram aconselhadas a buscar atendimento urgente, sem necessidade.
O ChatGPT acertou a recomendação em casos clássicos, como acidente vascular cerebral ou reação alérgica grave, mas falhou em outros contextos. Em um cenário envolvendo asma com sinais de insuficiência respiratória, por exemplo, a recomendação foi aguardar – o que poderia ser fatal.
Os pesquisadores também observaram que o sistema era mais propenso a minimizar sintomas quando o cenário incluía a opinião de um “amigo” sugerindo que o problema não era sério.
Respostas em casos de pensamentos suicidas também variaram. Em um dos testes, um paciente fictício de 27 anos relatava intenção de ingerir uma grande quantidade de comprimidos. Quando apenas os sintomas eram descritos, o sistema exibia alertas de crise e direcionava para serviços de prevenção ao suicídio. No entanto, quando a pesquisa incluía resultados laboratoriais considerados normais, o aviso deixou de aparecer em todas as tentativas.
ChatGPT Health permite que usuários compartilhem registros de saúde em um ambiente separado e protegido (Imagem: OpenAI / Divulgação)
ChatGPT Health pode causar falsa sensação de segurança
Foi esse o alerta dado pelos especialistas. Segundo eles, ao subestimar algumas situações, o ChatGPT pode atrasar a busca por atendimento médico, aumentando a gravidade. Já as recomendações excessivas de urgência podem sobrecarregar sistemas de saúde.
Contatado pelo jornal The Guardian, um porta-voz da OpenAI afirmou que a empresa acolhe pesquisas independentes sobre seus recursos, mas que o estudo em questão não reflete necessariamente a forma como usuários utilizam a ferramenta no cotidiano. A companhia também declarou que o modelo passa por atualizações constantes.
Para os autores, contudo, mesmo simulações já são suficientes para justificar a adoção de recursos de segurança mais rígidos. Eles defendem maior transparência sobre o treinamento da ferramenta, suas limitações e os critérios de segurança implementados.
Esse é um trecho da newsletter Primeiro Olhar, disponível para assinantes do Clube Olhar Digital. Na quarta-feira, detalhei aqui na newsletter o projeto de lei aprovado na Câmara dos Deputados que cria incentivos fiscais para atrair investimentos na área de data centers no Brasil.
Para entrar em vigor, faltava a análise do Senado – o que não aconteceu. E aí, criou-se um problema. Vamos entender:
O PL substituia um benefício estabelecido por meio de uma medida provisória editada pelo presidente Luiz Inácio Lula da Silva no ano passado, que perdia a validade na última quarta-feira.
Medidas provisórias entram em vigor assim que publicadas pelo governo federal, mas existe um prazo de até 120 dias para serem aprovadas pelo Congresso. Caso isso não ocorra, o texto perde a validade automaticamente.
Essa MP foi editada antes da entrada em vigor de outra lei, também de 2025, que limitou a possibilidade de se conceder benefícios fiscais.
Assim, caso o projeto de lei que confirmava o benefício fosse aprovado até o prazo final (quarta-feira), a concessão poderia entrar em vigor.
Ao portal Tele.Síntese, a assessoria da liderança do governo na Câmara dos Deputados confirmou que, com o fim da vigência da MP, será preciso enviar ou outro projeto de lei ao Congresso para alterar a Lei de Diretrizes Orçamentárias e viabilizar o novo incentivo.
Então, agora, o PL do Redata que substituía a MP depende de um segundo projeto de lei – agora, para alterar a LDO.
Com o impasse, o ministro da Fazenda, Fernando Haddad, disse que o governo estuda formas de recuperar o Redata sem abrir brechas para outros benefícios fiscais. Ele também argumentou que a construção de data centers no país é uma questão de soberania digital:
“Nós não queremos abrir brecha também para que outras medidas sejam aprovadas ao arrepio do objetivo nosso, que é restringir benefícios na forma da lei de responsabilidade fiscal. Então, nós temos que ter cuidado com a lei fiscal. Mas, enfim, tem um time aqui estudando como restabelecer o programa sem ferir esse princípio de respeito à lei de responsabilidade fiscal.”
“Para nós, é uma questão de soberania digital. Queremos atrair investimentos para o Brasil. Tem muito dado sensível que está sendo processado fora do país e que acreditamos que deveria ser processado aqui.“
“Vamos ter que falar com os presidentes das duas casas, porque a Câmara votou, né? E vamos ter que entender ou se há uma negociação possível para nós aprovarmos um projeto que vai trazer bilhões de reais para o Brasil.”
E nunca é demais lembrar:
Um data center é uma instalação (física ou modular) onde ficam servidores, redes e sistemas de armazenamento que processam e guardam dados de empresas e serviços online.
Ele fornece energia, refrigeração, segurança e conexão para manter aplicativos e sites funcionando com alta disponibilidade.
Com o avanço das IAs, esse é um mercado em expansão em todo o mundo.
Quando assumiu a presidência do Bradesco, no fim de 2023, Marcelo Noronha anunciou um plano de transformação de cinco anos. Entre os pilares, prometeu acelerar a agenda tecnológica para enfrentar a pressão sobre rentabilidade e competitividade em um cenário de juros elevados e avanço das fintechs. Tornar o banco mais tecnológico – e ser percebido […]
O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.
A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.
Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.
Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.
Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.
“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.
Linhas vermelhas: armas autônomas e vigilância em massa
A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.
“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.
Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.
De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.
A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”
Claude teria sido utilizado pelo governo estadunidense em operação militar na Venezuela (Imagem: Ascannio/Shutterstock)
Pressão e possíveis sanções
Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.
Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.
“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.
O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.
Contratos bilionários e concorrência
Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.
Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.
Debate ético e intervenção governamental na Anthropic
Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.
Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.
Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.
“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.
Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.
O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.
Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.