Pentagono 1024x683

Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono

O CEO da OpenAI, Sam Altman, decidiu intervir no embate entre a Anthropic e o Departamento de Defesa dos Estados Unidos sobre o uso de inteligência artificial em operações militares. Em comunicado interno enviado a funcionários na noite de quinta-feira (26), o executivo afirmou que a empresa negocia um acordo com o Pentágono que permita o uso de seus modelos em ambientes sensíveis, mas sem abrir mão de princípios inegociáveis.

Segundo ele, a OpenAI busca chegar a um contrato que autorize a aplicação da IA “para todos os usos legais”, com exceção de casos como vigilância em massa e armas letais totalmente autônomas. Até o momento, nenhum acordo foi formalizado e as negociações ainda podem fracassar.

No memorando, visto pelo jornal Wall Street Journal, Altman apoiou a posição da Anthropic ao impor limites éticos para usos militares, mas também reconheceu a preocupação do governo sobre o controle de tecnologias sensíveis. Ele segue defendendo que decisões de alto risco continuem sob supervisão humana, sem automatizações.

Para tentar equilibrar os interesses opostos do Pentágono e da Anthropic, a OpenAI propõe a adoção de medidas técnicas, como restringir a execução dos modelos a ambientes de nuvem controlados, evitando implementações em usos militares diretos. A desenvolvedora também quer disponibilizar equipes especializadas para trabalhar em parceria com o governo e garantir que a tecnologia seja utilizada dentro de parâmetros definidos.

A expectativa de Altman é que uma solução negociada possa servir de referência para todo o setor no que diz respeito ao uso de IA em operações militares.

Pentágono deu até o final da tarde desta sexta-feira para que Anthropic aceite os termos (Imagem: Keith J Finks/Shutterstock)

Pentágono x Anthropic

A movimentação ocorre enquanto o Pentágono pressiona a Anthropic a flexibilizar seus limites de segurança.

O Departamento de Defesa quer que a desenvolvedora autorize o uso para “todos os fins lícitos”. Do outro lado, o CEO da Anthropic, Dario Amodei, já afirmou publicamente que não permitirá que o Claude seja empregado em armas totalmente autônomas ou em sistemas de vigilância doméstica em larga escala.

O secretário de Defesa, Pete Hegseth, deu até o fim da tarde desta sexta-feira (27) para que a empresa decida se vai aceitar flexibilizar suas regras ou não. Caso não aceite, a Anthropic deve perder o contrato com o governo dos Estados Unidos. Em um caso mais extremo, o governo pode intervir na atuação da companhia em nome da segurança nacional. O Olhar Digital deu os detalhes da disputa neste link.

Parlamentares também entraram na discussão. Líderes republicanos e democratas das comissões de Serviços Armados e de Orçamento da Defesa enviaram cartas às partes envolvidas pedindo diálogo e sugerindo a extensão do prazo.

Altman avaliou que o impasse não se resume ao tipo de aplicação da tecnologia, mas ao controle sobre ela. Em sua mensagem interna, ele afirmou que, embora empresas privadas possam ter influência relevante, não devem se sobrepor ao governo eleito em decisões de segurança nacional – reforçando, mais uma vez, os limites éticos da tecnologia.

Silhueta de Elon Musk ao lado do logo da xAI
Enquanto isso, Pentágono segue firme na parceria com a xAI (Imagem: Ahyan Stock Studios/Shutterstock)

xAI, Grok e o debate sobre segurança

Enquanto a Anthropic enfrenta resistência por manter restrições, o Pentágono avançou na adoção do Grok, chatbot desenvolvido pela xAI, para uso em ambientes sensíveis. A decisão ocorreu apesar de alertas internos de diferentes agências federais sobre possíveis fragilidades de segurança e confiabilidade do modelo.

Funcionários da Administração de Serviços Gerais (GSA) e outros órgãos manifestaram preocupação com a suscetibilidade do Grok à manipulação por dados tendenciosos ou imprecisos, além de episódios anteriores envolvendo geração de imagens sexualizadas. Relatórios internos também apontaram riscos relacionados à rastreabilidade de dados de treinamento e à robustez dos testes de segurança.

Mesmo assim, o Departamento de Defesa demonstrou entusiasmo com a incorporação da xAI a projetos sensíveis e indicou que pretende integrar o Grok à sua plataforma oficial de IA.

O movimento foi interpretado por analistas como parte de um ambiente cada vez mais politizado, no qual as posições públicas das empresas sobre segurança e regulação influenciam decisões contratuais.

O post Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono apareceu primeiro em Olhar Digital.

Rivalidade? OpenAI vai intervir no embate entre Anthropic e Pentágono Read More »

Anthropic Opus 1024x682 1

Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA

Conforme reportado pelo Olhar Digital, o secretário de Defesa dos Estados Unidos, Pete Hegseth, deu um ultimato à startup de inteligência artificial Anthropic. A empresa deve decidir se libera ou não seu modelo de IA, o Claude, para usos irrestritos para o Pentágono – inclusive aplicações consideradas perigosas.

A Anthropic ficou conhecida no mercado por priorizar a segurança da tecnologia e resiste em flexibilizar suas regras. O embate com o governo dos EUA começou justamente porque a desenvolvedora não permitiu o uso do Claude em aplicações como armas totalmente autônomas nem em vigilância doméstica em massa.

O Pentágono exige que a startup libere sua tecnologia para “todos os fins lícitos” ou perderá o contrato com o governo. A startup tem até às 15h01 (horário local dos Estados Unidos) desta sexta-feira para decidir se aceita os termos ou não.

Caso não aceite, além de perder o contrato, a companhia pode entrar para uma lista de empresas que representam risco à cadeia de suprimentos – o que a excluiria de outros contratos federais. O governo também pode acionar a Lei de Produção de Defesa, mecanismo que permite intervenção estatal em nome da segurança nacional.

O impasse ganhou força após reuniões recentes entre executivos da empresa e autoridades do Pentágono.

Segundo a agência Reuters, em uma delas, foi discutido um cenário hipotético envolvendo o lançamento de um míssil balístico contra os EUA e o uso do Claude para auxiliar na resposta militar. Autoridades afirmam que a postura cautelosa da Anthropic irritou integrantes do governo, que defendem maior liberdade para empregar sistemas de IA em operações estratégicas.

A empresa, por sua vez, nega versões de que teria se recusado a cooperar em casos de defesa antimísseis, mas reafirma que não abrirá mão de suas “linhas vermelhas”. Em comunicado, o CEO Dario Amodei declarou que a companhia não pode permitir, “em sã consciência”, que seus modelos sejam utilizados sem limitações claras. Segundo ele, há situações em que a IA pode comprometer valores democráticos.

O Departamento de Defesa sustenta que não pretende usar a tecnologia para vigilância em massa – prática que, segundo seus porta-vozes, é ilegal – nem para retirar totalmente humanos do processo decisório em armas nucleares. Ainda assim, insiste que o governo deve ter a palavra final sobre o uso da tecnologia em qualquer finalidade permitida por lei.

Anthropic resiste em liberar uso irrestrito do Claude para as Forças Armadas (Imagem: Sidney van den Boogaard/Shutterstock)

Expansão da IA no Pentágono

A tensão ocorre em meio à expansão do uso de IA nas Forças Armadas. Nos últimos anos, o Pentágono firmou contratos de até US$ 200 milhões com laboratórios como Anthropic, OpenAI e Google. O Claude, por exemplo, já é empregado em análise de inteligência, planejamento operacional e cibersegurança.

Especialistas avaliam que o embate ultrapassa questões técnicas e reflete divergências mais amplas sobre governança da inteligência artificial. Para analistas consultados pela Reuters e pelo Washington Post, trata-se também de um conflito político, já que a empresa tem adotado posições públicas críticas a certas políticas do governo Trump relacionadas à tecnologia.

O desfecho pode influenciar o relacionamento entre o setor de IA e o governo americano. Caso o Pentágono avance com medidas coercitivas, como o uso da Lei de Produção de Defesa, o recado ao mercado seria de que empresas podem perder controle sobre suas inovações em nome da segurança nacional. Por outro lado, uma concessão da Anthropic poderia abrir precedente para uso mais amplo de IA em operações militares sensíveis.

O post Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA apareceu primeiro em Olhar Digital.

Após ultimato do Pentágono, Anthropic tem uma escolha a fazer – e pode mudar os rumos da IA Read More »

Chatgpt Medicina Scaled E1762534711175 1024x577

CFM define limites para IA na medicina – e a decisão final deve ser sempre humana

O Conselho Federal de Medicina (CFM) lançou a primeira regra sobre o uso de inteligência artificial (IA) na medicina brasileira. A resolução, publicada nesta sexta-feira (27), define que a tecnologia deve servir apenas como ferramenta de apoio, sem substituir a decisão final do médico.

As novas normas entram em vigor em 180 dias e estabelecem que a responsabilidade final por diagnósticos e tratamentos permanece com o profissional humano. Além disso, fica expressamente proibido que sistemas automáticos deem resultados ou sugiram tratamentos diretamente aos pacientes sem um médico explicar a situação.

Resolução do CFM institui critérios de segurança e governança para uso de IA

A resolução cria critérios de segurança e gestão para o uso de tecnologias com IA. Foi estabelecida uma escala de risco com quatro níveis para classificar os sistemas de IA: baixo, médio, alto e inaceitável. Para definir em qual nível uma tecnologia se enquadra, a norma avalia o seguinte:

  • Impacto nos direitos fundamentais: Se o uso da tecnologia pode afetar direitos básicos e garantias do paciente;
  • Gravidade clínica: Quão crítico é o contexto de saúde e a gravidade da condição médica tratada;
  • Sensibilidade dos dados: A natureza das informações (dados sensíveis) que o sistema de IA processa;
  • Grau de autonomia: Nível de independência do sistema na geração de resultados e sugestões.
A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico, segundo a resolução do CFM (Imagem: Amir Sajjad/Shutterstock)

Sempre que a IA for um apoio relevante no atendimento, o médico é obrigado a registrar o uso no prontuário para garantir que o processo possa ser rastreado. Além disso, o profissional mantém sua autonomia, o que significa que nenhum médico pode ser forçado a seguir sugestões da máquina. A supervisão humana deve ser permanente porque as respostas da IA não estão acima do julgamento clínico do médico.

Outro ponto importane: o paciente tem o direito de recusar o uso da IA em seu tratamento e deve ser informado sobre o uso da tecnologia com antecedência. E o uso dessas ferramentas não dispensa o médico de seguir o Código de Ética Médica. Em caso de falhas exclusivas do sistema, o médico não será punido, desde que tenha agido com cuidado e relatado o erro. O profissional tem o dever de comunicar riscos ou falhas às autoridades de fiscalização assim que as detectar.

Hospitais e clínicas que utilizarem IA deverão criar uma Comissão de IA e Telemedicina chefiada obrigatoriamente por um médico. Esse grupo será responsável por fiscalizar e monitorar as ferramentas para garantir o uso ético. Por fim, o funcionamento de qualquer modelo de IA deve respeitar rigorosamente a Lei Geral de Proteção de Dados (LGPD).

(Essa matéria também usou informações de G1.)

O post CFM define limites para IA na medicina – e a decisão final deve ser sempre humana apareceu primeiro em Olhar Digital.

CFM define limites para IA na medicina – e a decisão final deve ser sempre humana Read More »

Chatgpt Health 1024x576

ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias

Uma avaliação independente do ChatGPT Health, versão da ferramenta da OpenAI voltada para saúde, apontou falhas graves na hora de identificar emergências e sinais de ideação suicida. Os autores alertaram que isso pode levar a uma falsa sensação de segurança e causar mortes desnecessárias.

O recurso foi lançado em janeiro para um grupo restrito de pessoas (o Olhar Digital deu os detalhes aqui). A ideia é permitir que os usuários façam consultas relacionadas à saúde, inclusive com o compartilhamento de registros médicos e informações sensíveis, em um ambiente protegido. Segundo a OpenAI, mais de 40 milhões de pessoas recorrem diariamente ao ChatGPT para conselhos médicos.

O trabalho, publicado nesta semana na revista Nature Medicine, resolveu investigar a eficiência e segurança da plataforma. Para isso, a equipe criou 60 cenários clínicos realistas, que iam desde quadros leves até situações consideradas emergências. Três médicos revisaram cada caso e definiram qual seria o nível adequado de atendimento.

A equipe submeteu os cenários ao ChatGPT Health em diferentes variações – incluindo mudanças no sexo do paciente, inclusão de resultados de exames e comentários de terceiros – gerando cerca de mil respostas. As recomendações do chatbot foram comparadas às avaliações médicas.

De acordo com o estudo, em mais da metade das situações que exigiam que o usuário fosse imediatamente ao hospital, o ChatGPT sugeriu que ele ficasse em casa ou marcasse uma consulta de rotina. Em números, 51,6% dos casos classificados como emergenciais receberam orientação inadequada. Em contrapartida, quase 65% das pessoas consideradas fora de risco foram aconselhadas a buscar atendimento urgente, sem necessidade.

O ChatGPT acertou a recomendação em casos clássicos, como acidente vascular cerebral ou reação alérgica grave, mas falhou em outros contextos. Em um cenário envolvendo asma com sinais de insuficiência respiratória, por exemplo, a recomendação foi aguardar – o que poderia ser fatal.

Os pesquisadores também observaram que o sistema era mais propenso a minimizar sintomas quando o cenário incluía a opinião de um “amigo” sugerindo que o problema não era sério.

Respostas em casos de pensamentos suicidas também variaram. Em um dos testes, um paciente fictício de 27 anos relatava intenção de ingerir uma grande quantidade de comprimidos. Quando apenas os sintomas eram descritos, o sistema exibia alertas de crise e direcionava para serviços de prevenção ao suicídio. No entanto, quando a pesquisa incluía resultados laboratoriais considerados normais, o aviso deixou de aparecer em todas as tentativas.

ChatGPT Health permite que usuários compartilhem registros de saúde em um ambiente separado e protegido (Imagem: OpenAI / Divulgação)

ChatGPT Health pode causar falsa sensação de segurança

Foi esse o alerta dado pelos especialistas. Segundo eles, ao subestimar algumas situações, o ChatGPT pode atrasar a busca por atendimento médico, aumentando a gravidade. Já as recomendações excessivas de urgência podem sobrecarregar sistemas de saúde.

Contatado pelo jornal The Guardian, um porta-voz da OpenAI afirmou que a empresa acolhe pesquisas independentes sobre seus recursos, mas que o estudo em questão não reflete necessariamente a forma como usuários utilizam a ferramenta no cotidiano. A companhia também declarou que o modelo passa por atualizações constantes.

Para os autores, contudo, mesmo simulações já são suficientes para justificar a adoção de recursos de segurança mais rígidos. Eles defendem maior transparência sobre o treinamento da ferramenta, suas limitações e os critérios de segurança implementados.

O post ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias apareceu primeiro em Olhar Digital.

ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias Read More »

O Redata acabou? Como fica o plano para atrair data centers ao Brasil?

Esse é um trecho da newsletter Primeiro Olhar, disponível para assinantes do Clube Olhar Digital.
Na quarta-feira, detalhei aqui na newsletter o projeto de lei aprovado na Câmara dos Deputados que cria incentivos fiscais para atrair investimentos na área de data centers no Brasil. 

Para entrar em vigor, faltava a análise do Senado – o que não aconteceu. E aí, criou-se um problema. Vamos entender:

  • O PL substituia um benefício estabelecido por meio de uma medida provisória editada pelo presidente Luiz Inácio Lula da Silva no ano passado, que perdia a validade na última quarta-feira.
  • Medidas provisórias entram em vigor assim que publicadas pelo governo federal, mas existe um prazo de até 120 dias para serem aprovadas pelo Congresso. Caso isso não ocorra, o texto perde a validade automaticamente.
  • Essa MP foi editada antes da entrada em vigor de outra lei, também de 2025, que limitou a possibilidade de se conceder benefícios fiscais.
  • Assim, caso o projeto de lei que confirmava o benefício fosse aprovado até o prazo final (quarta-feira), a concessão poderia entrar em vigor.
  • Ao portal Tele.Síntese, a assessoria da liderança do governo na Câmara dos Deputados confirmou que, com o fim da vigência da MP, será preciso enviar ou outro projeto de lei ao Congresso para alterar a Lei de Diretrizes Orçamentárias e viabilizar o novo incentivo.
  • Então, agora, o PL do Redata que substituía a MP depende de um segundo projeto de lei – agora, para alterar a LDO.

Com o impasse, o ministro da Fazenda, Fernando Haddad, disse que o governo estuda formas de recuperar o Redata sem abrir brechas para outros benefícios fiscais. Ele também argumentou que a construção de data centers no país é uma questão de soberania digital:

“Nós não queremos abrir brecha também para que outras medidas sejam aprovadas ao arrepio do objetivo nosso, que é restringir benefícios na forma da lei de responsabilidade fiscal. Então, nós temos que ter cuidado com a lei fiscal. Mas, enfim, tem um time aqui estudando como restabelecer o programa sem ferir esse princípio de respeito à lei de responsabilidade fiscal.”

“Para nós, é uma questão de soberania digital. Queremos atrair investimentos para o Brasil. Tem muito dado sensível que está sendo processado fora do país e que acreditamos que deveria ser processado aqui.

“Vamos ter que falar com os presidentes das duas casas, porque a Câmara votou, né? E vamos ter que entender ou se há uma negociação possível para nós aprovarmos um projeto que vai trazer bilhões de reais para o Brasil.”

E nunca é demais lembrar:

  • Um data center é uma instalação (física ou modular) onde ficam servidores, redes e sistemas de armazenamento que processam e guardam dados de empresas e serviços online.
  • Ele fornece energia, refrigeração, segurança e conexão para manter aplicativos e sites funcionando com alta disponibilidade.
  • Com o avanço das IAs, esse é um mercado em expansão em todo o mundo.

O post O Redata acabou? Como fica o plano para atrair data centers ao Brasil? apareceu primeiro em Olhar Digital.

O Redata acabou? Como fica o plano para atrair data centers ao Brasil? Read More »

Cintia Scovine Bradesco 300x169

No Bradesco, a agenda tecnológica avança “step by step”

Quando assumiu a presidência do Bradesco, no fim de 2023, Marcelo Noronha anunciou um plano de transformação de cinco anos. Entre os pilares, prometeu acelerar a agenda tecnológica para enfrentar a pressão sobre rentabilidade e competitividade em um cenário de juros elevados e avanço das fintechs. Tornar o banco mais tecnológico – e ser percebido […]

O post No Bradesco, a agenda tecnológica avança “step by step” apareceu primeiro em NeoFeed.

No Bradesco, a agenda tecnológica avança “step by step” Read More »

Claude 1024x682

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA

O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.

A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.

Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.

Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.

Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.

“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.

Linhas vermelhas: armas autônomas e vigilância em massa

  • A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
  • Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
  • Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
  • O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
  • Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.

“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.

Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.

Leia mais:

Anthropic: uso do Claude em operação na Venezuela

De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.

A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”

Claude teria sido utilizado pelo governo estadunidense em operação militar na Venezuela (Imagem: Ascannio/Shutterstock)

Pressão e possíveis sanções

Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.

Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.

“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.

O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.

Contratos bilionários e concorrência

Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.

Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.

Debate ético e intervenção governamental na Anthropic

Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.

Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.

Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.

“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.

Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.

O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.

Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.

O post Anthropic “bate o pé” e impede uso militar do Claude pelos EUA apareceu primeiro em Olhar Digital.

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA Read More »

Shutterstock 2103605843 1024x655

Papa pede que padres não usem IA em homilias

O Papa Leão XIV pediu aos padres da Diocese de Roma que deixem de usar ferramentas de inteligência artificial (IA) para preparar homilias. A orientação foi dada em um encontro a portas fechadas realizado na quinta-feira (26), e o conteúdo da conversa foi divulgado pelo Vatican News.

Durante o diálogo, o pontífice respondeu a quatro perguntas feitas por sacerdotes e abordou temas como direção espiritual, trabalho pastoral, internet e tecnologia. Entre as recomendações, destacou a necessidade de evitar a “tentação de preparar homilias com inteligência artificial” e defendeu que a fé não pode ser transmitida por sistemas automatizados.

Em encontro com padres, o Papa Leão criticou o uso de IA (Imagem: Black Salmon / Shutterstock.com)

Papa critica uso de IA na preparação de homilias

De acordo com o Vatican News, Leão XIV comparou o uso da inteligência humana a um músculo que precisa ser exercitado. “Como todos os músculos do corpo, se não os usamos, se não os movemos, eles morrem. O cérebro precisa ser usado”, afirmou. Para ele, é necessário exercitar a própria capacidade intelectual para não perdê-la.

O Papa também traçou um limite claro entre tecnologia e vocação religiosa. “Dar uma verdadeira homilia é compartilhar a fé”, disse, ao acrescentar que a inteligência artificial “nunca poderá compartilhar a fé”. Na avaliação do pontífice, a pregação deve refletir a experiência pessoal do sacerdote e sua vivência com Jesus Cristo, especialmente no contexto cultural e comunitário em que atua.

O posicionamento ocorre em um momento em que o Vaticano anunciou um sistema próprio de tradução com uso de IA, capaz de traduzir textos litúrgicos em até 60 idiomas em tempo real. A ferramenta foi apresentada no mesmo dia do encontro com os padres, evidenciando que a discussão sobre os limites da tecnologia dentro da Igreja está em curso.

Igreja Católica e IA

Esta não é a primeira vez que Igreja Católica e IA se chocam. Em 2023, uma imagem do Papa Francisco usando uma jaqueta branca estilizada viralizou nas redes sociais, mas depois foi confirmada como uma criação feita por inteligência artificial.

imagem mostra papa francisco vestindo um casaco fashion passeando pelas ruas da cidade
Uma deepfake que pegou muitos de surpresa no início de 2023 foi uma imagem do Papa Francisco, “flagrado” com um modelo de casaco “fashion” enquanto andava pela rua (Reprodução/Redes Sociais)

Já Leão XIV vem colocando a inteligência artificial no centro de seu pontificado. Ao explicar a escolha do nome, afirmou que se inspirou em Leão XIII, que enfrentou os impactos sociais da Revolução Industrial, indicando que a atual “revolução digital” exige atenção semelhante da Igreja. Em discursos iniciais, o pontífice prometeu tratar os riscos da IA para a dignidade humana, a justiça e o trabalho, além de defender responsabilidade e possíveis formas de regulação para a tecnologia.

Leia mais:

Alertas sobre internet e redes sociais

Além da inteligência artificial, o Papa abordou o uso da internet e das redes sociais. Ele ressaltou que uma “vida de oração” é fundamental e não deve se limitar à recitação apressada do breviário, mas incluir tempo dedicado ao Senhor.

Leão XIV também advertiu sobre o que chamou de “ilusão na internet, no TikTok”, ao se referir à busca por curtidas e seguidores como forma de validação espiritual. Segundo ele, confundir popularidade digital com autêntica conexão religiosa pode desviar o foco da mensagem central do cristianismo.

O post Papa pede que padres não usem IA em homilias apareceu primeiro em Olhar Digital.

Papa pede que padres não usem IA em homilias Read More »

Wm C2a77d45 6afd 4d2e Ae5b 3f1emax 768x768format

Google lança Nano Banana 2 com foco em velocidade

O Google anunciou nesta quinta-feira o Nano Banana 2, nova versão de seu modelo de geração e edição de imagens por inteligência artificial. A atualização sucede o Nano Banana original, lançado em agosto, e o Nano Banana Pro, apresentado em novembro. Segundo a empresa, a novidade começa a ser disponibilizada hoje em diferentes produtos do ecossistema da companhia.

O lançamento ocorre em meio à disputa crescente no setor de IA generativa. De acordo com o Google, o modelo anterior viralizou e impulsionou o uso do aplicativo Gemini, enquanto a evolução da família Gemini tem ampliado o engajamento de usuários. A empresa afirma que a nova versão combina recursos avançados do modelo Pro com a velocidade dos modelos Flash.

Exemplo de imagem criada no novo Nano Banana 2 (Imagem: Google / Divulgação)

Novo modelo une recursos avançados e maior velocidade

Chamado oficialmente de Nano Banana 2 (Gemini 3.1 Flash Image), o modelo foi desenvolvido para oferecer geração e edição de imagens com maior rapidez, mantendo capacidades de raciocínio e qualidade visual. Ele utiliza os modelos Flash do Gemini, descritos como mais rápidos e econômicos, o que permite respostas ágeis na criação de imagens.

Entre os recursos destacados estão o uso de conhecimento avançado de mundo, alimentado por informações em tempo real e imagens provenientes da busca na web, além de melhor capacidade de seguir instruções complexas. O modelo também promete renderização de texto mais precisa e possibilidade de tradução e localização de textos dentro das imagens.

O Google afirma ainda que houve melhorias em consistência de assunto, permitindo manter a semelhança de até cinco personagens e a fidelidade de até 14 objetos em um mesmo fluxo de trabalho. Também há suporte a diferentes proporções e resoluções, de 512 pixels até 4K.

Leia mais:

Integração a produtos e ferramentas do Google

O Nano Banana 2 passa a ser distribuído em diversos serviços da empresa. Ele substituirá o Nano Banana Pro nos modelos Fast, Thinking e Pro do aplicativo Gemini, embora assinantes Google AI Pro e Ultra mantenham acesso ao Pro para tarefas específicas.

O modelo também está disponível no Modo IA e no Lens da busca do Google, no AI Studio e na API do Gemini em prévia, além do Vertex AI no Google Cloud. No Flow, ferramenta de vídeo com IA da companhia, torna-se o modelo padrão de geração de imagens. A tecnologia também passa a integrar sugestões no Google Ads.

gemini
Nano Banana 2 substitui antecessores no app Gemini (Imagem: Google / Divulgação)

Segundo dados divulgados anteriormente pela empresa, o Nano Banana original atraiu 13 milhões de novos usuários para o Gemini em quatro dias, em setembro. Até meados de outubro, o modelo havia gerado mais de 5 bilhões de imagens. Já o Gemini 3, lançado em novembro, contribuiu para que o aplicativo alcançasse mais de 750 milhões de usuários ativos mensais no fim de dezembro.

O Google também informou que segue ampliando mecanismos de identificação de conteúdo gerado por IA. A tecnologia SynthID, integrada a credenciais C2PA, já foi utilizada mais de 20 milhões de vezes no app Gemini desde novembro para verificar imagens, vídeos e áudios criados com IA.

O post Google lança Nano Banana 2 com foco em velocidade apareceu primeiro em Olhar Digital.

Google lança Nano Banana 2 com foco em velocidade Read More »

Data Centers Brasil E1758639458800 1024x577

Por que o Redata acabou? Entenda o fim dos incentivos para data centers no Brasil

O programa Redata, que dava descontos em impostos para incentivar a construção de data centers no Brasil, chegou ao fim nesta quinta-feira (26). Isso aconteceu porque a regra que garantia esse alívio (uma medida provisória) perdeu a validade.

O plano era substituir essa regra temporária, criada pelo governo em setembro de 2025, pelo Projeto de Lei nº 278 de 2026, aprovado pela Câmara dos Deputados na quarta-feira (25). Mas o Senado não votou a proposta dentro do prazo legal. O presidente da Casa, Davi Alcolumbre (União Brasil-AP), encerrou a sessão sem decidir sobre o tema, o que pegou o governo de surpresa.

Governo estuda meios de reativar incentivos sem violar a Lei de Responsabilidade Fiscal

Agora, o Ministério da Fazenda tenta descobrir se existe um caminho jurídico para reativar os incentivos sem desrespeitar as leis de controle de gastos. 

Com o fim do Regime Especial de Tributação para Serviços de Datacenter (nome completo do Redata), volta a cobrança de impostos como IPI, PIS/Cofins e Imposto de Importação sobre os equipamentos usados nos data centers (você encontra mais detalhes sobre o programa no final desta matéria). O problema é que o programa era considerado essencial para atrair parte dos US$ 50 bilhões (aproximadamente R$ 257 bilhões) que o setor pretende investir na América Latina.

Redata era considerado essencial para atrair parte dos bilhões de dólares que o setor pretende investir no Brasil e na América Latina (Imagem: AlexLMX/Shutterstock)

O governo defende que ter esses data centers aqui é uma questão de segurança e soberania nacional. Hoje, 60% dos dados pessoais dos brasileiros são processados em outros países, longe do alcance direto das nossas leis de proteção. Além disso, depender de infraestrutura estrangeira deixa os serviços digitais mais caros e gera prejuízo para a economia do país. Em 2025, o Brasil gastou US$ 7,9 bilhões (R$ 41 bilhões) a mais do que recebeu nesse setor.

Empresas de tecnologia criticam a falta de votação. Para elas, o Brasil está perdendo a chance de ser competitivo nesse setor. De um lado, Alcolumbre justifica que o projeto chegou tarde demais ao Senado. De outro, o governo afirma que o texto já estava alinhado entre as Casas (mas já se percebia um impasse no Congresso sobre o tema). O maior obstáculo agora é uma lei de 2025 que proíbe novos benefícios fiscais. A volta do Redata depende de um novo acordo político entre o governo e os presidentes da Câmara e do Senado.

Glossário

O que é data center:

  • Um data center é uma instalação (física ou modular) onde ficam servidores, redes e sistemas de armazenamento que processam e guardam dados de empresas e serviços online;
  • Ele fornece energia, refrigeração, segurança e conexão para manter aplicativos e sites funcionando com alta disponibilidade;
  • Com o avanço das IAs, esse é um mercado em expansão em todo o mundo.

O que o PL do Redata determinava:

  • As empresas interessadas em investir no setor aqui no Brasil vão contar com a suspensão de tributos por cinco anos na compra de equipamentos.
  • A habilitação no Redata será autorizada pelo Ministério da Fazenda e envolve diversos tributos na compra de componentes eletrônicos – seja no mercado interno ou por importação. São eles: Imposto de Importação, PIS/Cofins, PIS/Cofins-Importação e Imposto sobre Produtos Industrializados (IPI).
  • A empresa vendedora dos equipamentos também será beneficiada, mas apenas para os produtos usados na fabricação dos computadores do data center.
  • No caso do IPI, a suspensão vale para componentes industrializados na Zona Franca de Manaus e listados pelo governo.
  • No caso do Imposto de Importação, a suspensão vale para produtos sem similar no mercado interno.
  • Depois de cumpridos todos os requisitos e entrega dos produtos, a suspensão será convertida em isenção definitiva.

Exemplos de contrapartidas presentes no PL:

  • Uso de energia de fonte limpa (hidrelétricas) ou renovável (solar e eólica);
  • Para ter direito aos benefícios, também é preciso estar em dia com os tributos federais;
  • Direcionar ao mercado interno um mínimo de 10% do fornecimento efetivo de processamento;
  • Realizar investimentos no país equivalentes a 2% do valor dos produtos comprados no mercado interno ou importados com o benefício fiscal;
  • Honrar a totalidade de sua demanda contratual de energia elétrica – seja com contratos de suprimento ou autoprodução de fontes limpas ou renováveis.

(Essa matéria usou informações de CNN Brasil e G1.)

O post Por que o Redata acabou? Entenda o fim dos incentivos para data centers no Brasil apareceu primeiro em Olhar Digital.

Por que o Redata acabou? Entenda o fim dos incentivos para data centers no Brasil Read More »