Uma das coisas mais incômodas no mundo da tecnologia atual é a questão que envolve o consumo de recursos ambientais por data centers de inteligência artificial (IA). O caso em torno do alto uso de água e energia, por exemplo, preocupa, pois afeta o meio ambiente e ameaça muitas comunidades.
Isso porque as redes de energia elétrica dos Estados Unidos e Europa, por exemplo, experimentam grandes demandas de energia solicitada por esses centros de dados, que registram alto consumo.
Mas um estudo do Reino Unido indica que as coisas podem ser bem diferentes — e sem perder eficiência no processamento de dados. Um teste que envolveu a Nvidia aponta que esses centros podem ajustar rapidamente sua demanda se necessário.
Em Londres (Inglaterra), os operadores reduziram o consumo em cerca de um terço em cerca de um minuto após receberem um sinal da rede. E um detalhe chama a atenção: não houve interrupção da carga de trabalho.
Teste mostra que data centers de IA podem consumir menos
No teste em tempo real, um data center de IA reduziu sua demanda em 10% por dez horas;
Além disso, ele mostrou que cargas de trabalho da tecnologia podem ser ajustadas para cima ou para baixo quase que em tempo real;
Isso significa que os data centers podem não precisar, necessariamente, de fornecimento de energia estável;
Ao invés de terem cargas rígidas e sempre ligadas, os centros de dados poderiam seguir a demanda da rede, ou seja, as condições do sistema elétrico, podendo diminuir sua carga em período de sobrecarga ou absorvendo o excedente de energia renovável.
Dessa forma, a rede receberia um alívio, reduzindo a quantidade de reforço para abastecer os data centers de IA.
Data centers poderiam operar com menos energia e sem perder poder computacional (Imagem: Thomas Berberich/iStock)
Caso as operadoras de energia elétrica aceitassem limitar o consumo nos momentos de pico, as redes não precisariam ser projetadas e construídas para atender, continuamente, à demanda máxima teórica. Isso reduziria custos de balanceamento e acelerar os prazos de conexão, destaca a Bloomberg.
“Gostaríamos muito de chegar a um ponto em que possamos conectar clientes à rede em dois anos, e isso faz parte desse objetivo”, afirmou o presidente da National Grid Partners, Steve Smith, que participou do teste ao lado da Nvidia e outras.
Lembrando que a demanda é uma crescente global. No Brasil, por exemplo, já há vários data centers construídos em funcionamento ou prestes a entrar em funcionamento e inúmeros outros que estão no papel, mas que devem sair dele muito em breve.
Com isso, reduzir a carga usada pelas instalações em certos momentos seria uma alternativa para resolver a questão energética. Mas convencer as operadoras a modular a carga pode ser algo difícil.
O fundador e diretor executivo da Emerald AI, Varun Sivaram, disse à reportagem que, para empresas que correm para garantir o “tempo de resposta à demanda”, a flexibilidade pode ser um preço aceitável para acesso mais rápido à rede.
A OpenAI anunciou o lançamento do GPT-5.3 Instant, uma atualização que foca menos em números brutos de processamento e mais na “vibe” da conversa. O grande diferencial deste modelo é a correção de um comportamento que se tornou o terror dos usuários: o tom condescendente e os conselhos de autoajuda não solicitados. A ideia é que a IA pare de agir como um terapeuta invasivo e volte a ser uma ferramenta de produtividade direta.
Menos “cringe”, mais eficiência
A atualização foca no que a OpenAI chama de experiência de conversação. Diferente de versões anteriores que brilhavam em testes de lógica, o GPT-5.3 Instant foi treinado para melhorar o tom de voz e a relevância das respostas.
Na prática, isso significa que a IA deve parar de usar frases como “respire fundo” ou “você não está sozinho” quando o usuário demonstra frustração com um código ou texto.
Segundo o site TechCrunch, o modelo da OpenAI foi ajustado para reconhecer a gravidade de uma situação sem tentar “acalmar” o usuário de forma artificial, algo que muitos internautas classificaram como “insuportável” e “infantilizador”.
Fim dos sermões indesejados
A mudança atende a uma enxurrada de críticas vindas de redes sociais como o Reddit. Muitos usuários do modelo 5.2 Instant chegaram a cancelar suas assinaturas Plus devido à postura “palestrinha” do bot. O problema era tão evidente que a própria OpenAI admitiu no X (antigo Twitter): “Ouvimos o feedback e o 5.3 Instant reduz o ‘cringe’”.
GPT-5.3 Instant in ChatGPT is now rolling out to everyone.
Fluxo de conversa: diálogos mais naturais e menos mecânicos.
Relevância contextual: o bot entende melhor quando você quer um fato e quando quer empatia.
Remoção de clichês: redução drástica de frases prontas de apoio emocional em contextos inadequados.
Disponibilidade e preço
O GPT-5.3 Instant já está sendo liberado gradualmente para os usuários do ChatGPT Plus, que no Brasil custa US$ 20 por mês (cerca de R$ 100 em conversão direta). A expectativa é que a novidade chegue também à versão gratuita em breve, com limites de uso diário.
O avanço da inteligência artificial e a corrida por novos data centers reacenderam um debate nos Estados Unidos: o crescimento acelerado dessas estruturas pode pressionar a rede elétrica (o sistema que envolve geração, transmissão e distribuição de energia) e, em alguns casos, impactar tarifas. O movimento ocorre em meio à expansão de infraestrutura dedicada a modelos de IA generativa, que exigem grande capacidade computacional e consumo contínuo de energia.
Relatórios recentes da Agência Internacional de Energia (IEA) apontam que o consumo elétrico associado a data centers, criptomoedas e IA pode mais que dobrar até o fim da década. Segundo a entidade, centros de dados já respondem por algo próximo de 1% a 1,5% da demanda global de eletricidade, com tendência de alta puxada principalmente por aplicações de IA.
Nos Estados Unidos, onde há concentração significativa dessas instalações, o crescimento regional da carga elétrica, ou seja, o volume de energia demandado em determinado ponto da rede, tem exigido reforços em geração e transmissão.
O debate não se limita ao volume consumido. Envolve qualidade de energia, estabilidade de tensão, critérios de contingência — parâmetros que garantem operação mesmo em caso de falhas — e, em alguns casos, a possibilidade de repasse de custos à tarifa. Diante desse cenário, surge a questão: o sistema elétrico brasileiro está preparado para uma expansão semelhante?
Aplicações de inteligência artificial elevam a demanda por capacidade computacional e consumo contínuo de energia (Imagem: Gorodenkoff / Shutterstock.com)
Governo dos EUA quer que big techs banquem energia de data centers
Nos Estados Unidos, o debate sobre o impacto energético dos data centers ganhou dimensão política ao longo dos últimos meses. Em diferentes manifestações públicas, o presidente dos Estados Unidos, Donald Trump, passou a defender que as grandes empresas de tecnologia assumam diretamente os custos da energia necessária para sustentar a expansão da infraestrutura de inteligência artificial.
Durante discurso realizado em fevereiro, o presidente afirmou ter determinado que as principais companhias do setor construam suas próprias usinas de geração para abastecer centros de dados. A medida, segundo ele, busca proteger consumidores de possíveis aumentos na conta de luz em um cenário de alta no custo de vida e crescente oposição local a novos projetos.
A posição da Casa Branca não surgiu de forma isolada. Desde janeiro, o governo vinha pressionando empresas para firmar compromissos formais que evitassem o repasse de custos energéticos aos consumidores residenciais. A Microsoft foi a primeira a anunciar ajustes operacionais com esse objetivo, enquanto outras companhias passaram a discutir alternativas como autoprodução e contratos dedicados de fornecimento.
Governo dos Estados Unidos mantém discurso de reforçar corrida tecnológica contra a China, mas afirma que big techs terão que arcar com custos energéticos (Imagem: Joshua Sukoff / Shutterstock.com)
Segundo informações divulgadas pela agência Reuters, a Casa Branca agendou para 4 de março uma reunião com executivos de empresas como Microsoft, Meta e Anthropic para formalizar um compromisso voltado à contenção do impacto dos data centers nos preços da eletricidade. A proposta envolve a assinatura de um “Compromisso de Proteção ao Consumidor de Energia Elétrica”, embora o formato final das exigências e eventuais obrigações adicionais ainda não tenha sido detalhado publicamente.
No mês anterior, a operadora PJM Interconnection já havia apresentado alternativas para grandes consumidores reduzirem o impacto sobre a rede, como conectar geração própria ou limitar consumo em momentos de sobrecarga. Empresas como Anthropic e Microsoft anunciaram iniciativas voluntárias para mitigar efeitos dos centros de dados nos preços de energia ao consumidor.
Comparações exigem escala e maturidade de mercado
Para o especialista em tecnologia e inovação Arthur Igreja, a análise precisa considerar diferenças estruturais entre os dois países, especialmente o tamanho da base instalada. Assim, é um comparativo que necessita de cuidado ao ser feito.
“Em relação ao número de data centers que já tem nos Estados Unidos e ao número que está sendo instalado. Tudo tem que ser colocado em perspectiva”, explica ele. “Um aumento de 10% do que tem nos Estados Unidos é um aumento massivo. Já 10% do que tem no Brasil não é”.
Segundo ele, variáveis energéticas são monitoráveis e historicamente vinculadas ao crescimento econômico. O Brasil já viveu períodos em que a expansão do PIB esbarrou na limitação de oferta de energia. Hoje, porém, o cenário é distinto, com fontes como solar e eólica permitindo acréscimos mais rápidos de capacidade instalada, diferentemente das grandes hidrelétricas que demandam anos de construção.
Igreja também destaca que o país conta com mercado livre de energia (ambiente em que grandes consumidores negociam energia diretamente com geradores) estruturado e geração distribuída consolidada, instrumentos que ampliam alternativas contratuais para grandes consumidores. Ainda assim, alerta para o ritmo projetado de crescimento da IA no consumo global.
Estima-se que a IA vai caminhar para ser de 5% a 7% do consumo de energia global muito rapidamente. O Brasil tem que ter uma agenda para isso para não ser pego de surpresa, mas, mais uma vez, a comparação com os Estados Unidos tem que ser colocada em perspectiva.
Arthur Igreja, especialista em tecnologia e inovação
A dinâmica técnica da pressão energética
Se o debate macroeconômico exige cautela, no plano técnico os impactos são objetivos. A instalação de um grande data center introduz uma carga de elevada potência concentrada — grande consumo de energia conectado em um único ponto físico —, com exigências rigorosas de confiabilidade.
A conexão de grandes data centers à rede pode exigir ampliações em subestações, novos transformadores e reforços nos sistemas de proteção e contingência (Imagem: Bohbeh creations / Shutterstock.com)
Segundo Rudolf Bühler, coordenador dos cursos de Ciência da Computação, Sistemas de Informação, Inteligência Artificial e Ciência de Dados do Instituto Mauá de Tecnologia, a alteração começa no próprio desenho da rede local.
“A mudança na dinâmica da rede elétrica local ocorre principalmente por introduzir uma carga de elevada potência concentrada em um único ponto de conexão e com exigências rigorosas de confiabilidade e qualidade de energia”, explica ele.
Na prática, isso implica transformadores operando continuamente próximos da plena carga, necessidade de cumprimento de critérios de contingência mais exigentes e revisão de sistemas de proteção. A conexão de centenas de megawatts não exige apenas geração adicional, mas adequações na malha de transmissão — rede de linhas de alta tensão que transporta energia entre regiões —, na transformação e na estabilidade de tensão.
Outro ponto relevante é o perfil eletrônico dessas instalações. A presença massiva de retificadores, UPS e sistemas de conversão pode gerar harmônicos (distorções na forma de onda da corrente elétrica causadas por equipamentos eletrônicos), variações no fator de potência (indicador da eficiência com que a energia é efetivamente utilizada) e oscilações de tensão. O professor Bühler explica que esses efeitos precisam ser monitorados e compensados para evitar impactos na rede local e em consumidores vizinhos.
Equipamentos de alimentação ininterrupta (UPS) e sistemas de conversão eletrônica influenciam qualidade de energia, fator de potência e estabilidade de tensão na rede local (Imagem: pavlinec / iStock)
Carga base elevada e degraus de expansão
Diferentemente de consumidores industriais que podem reduzir operação em horários de pico, data centers operam com utilização elevada e relativamente constante ao longo do dia, atendendo demanda global ininterrupta.
“A demanda elétrica em um data center tende a ser relativamente contínua e previsível”, afirma Bühler. “No entanto, existem variações decorrentes da expansão das instalações, com a entrada em operação de novos clusters e mudanças operacionais, como momentos em que ocorrem treinamentos intensivos de novos modelos de IA.”
Esses eventos podem produzir degraus de carga significativos — aumentos abruptos no consumo de energia em curtos intervalos de tempo. Por isso, a infraestrutura não pode ser dimensionada apenas pela média de consumo, mas pela demanda contratada máxima, ou seja, o pico de consumo previamente reservado junto à concessionária, e pelas condições de contingência previstas no planejamento da rede.
Nos centros dedicados à IA, explica Bühler, a diferença em relação a data centers tradicionais também é significativa. Há maior densidade de potência por rack (mais energia consumida em menos espaço físico), maior geração de calor e adoção crescente de refrigeração líquida. Esse conjunto eleva a carga total da instalação e pode introduzir maior variabilidade diária, dependendo da estratégia operacional do operador.
Gargalos: geração não é o único fator
Até em países com matriz energética ampla, o risco de sobrecarga regional permanece. A disponibilidade nacional de geração não elimina restrições locais de rede.
Mesmo em países com matriz energética ampla, existe risco de sobrecarga regional. A disponibilidade nacional de geração não elimina restrições locais de rede, como capacidade de transformação, corredores de transmissão saturados ou limitações impostas por critérios de estabilidade.
Rudolf Bühler, professor do Instituto Mauá de Tecnologia
Segundo Bühler, na maior parte das vezes, o primeiro gargalo aparece na distribuição, sobretudo em áreas urbanas onde subestações e alimentadores já operam próximos ao limite. Em projetos de maior porte, conectados em alta tensão, passam a ser necessários reforços em linhas de transmissão e ampliações de subestações.
Em matrizes diversificadas como a brasileira, a geração tende a não ser o principal problema quando se observa o consumo anual agregado. No entanto, podem surgir dificuldades em momentos pontuais de maior demanda ou em regiões específicas com alta concentração de cargas.
Planejamento estruturado e riscos de expansão reativa
No Brasil, a expansão da rede elétrica é conduzida de forma estruturada, com base nos estudos da Empresa de Pesquisa Energética (EPE) e na análise técnica do Operador Nacional do Sistema Elétrico (ONS). A integração de novas cargas ao Sistema Interligado Nacional — rede que conecta a maior parte da geração e do consumo de energia do país — depende da verificação de impactos elétricos e do atendimento a critérios de segurança e contingência.
Esse desenho institucional tende a reduzir improvisações. Ainda assim, o crescimento acelerado e concentrado de grandes cargas pode introduzir caráter parcialmente reativo ao processo.
Obras de transmissão e ampliação de subestações exigem anos para licenciamento e construção. Quando múltiplos empreendimentos buscam conexão em um mesmo corredor elétrico ou região metropolitana, pode ser necessário realizar reforços que não estavam detalhados no planejamento original.
Além disso, Bühler ressalta a importância de mecanismos de garantias financeiras para grandes cargas. Sem esses instrumentos, existe o risco de investimentos em infraestrutura serem realizados para projetos que eventualmente não se concretizam, gerando ineficiências sistêmicas.
É nesse contexto — de necessidade de coordenação entre expansão digital e planejamento elétrico — que surgem propostas de política pública voltadas especificamente ao setor de data centers, como o Redata.
Redata: incentivo a data centers e exigências energéticas
A criação do Regime Especial de Tributação para Serviços de Datacenter, o Redata, surgiu em um momento de pressão crescente sobre a infraestrutura elétrica, tanto no Brasil quanto no exterior. A Medida Provisória nº 1.318/2025 instituiu o programa com foco em reduzir o custo de instalação e expansão de data centers, mas vinculou os benefícios a compromissos diretos relacionados ao suprimento e ao perfil de consumo de energia dessas operações.
O texto alterou a Lei nº 11.196/2005 para incluir o novo regime e estabeleceu regras específicas para empresas interessadas em implantar ou ampliar serviços de datacenter no país. Entre as contrapartidas, estão obrigações ligadas à matriz energética utilizada pelas operações.
Redata foi instituído com MP, mas prazo para votação no Senado se encerrou sem aprovação (Imagem: Reprodução/CanalGov)
Uso de fontes limpas e atendimento integral da demanda
Para aderir ao Redata, as empresas precisam cumprir critérios de sustentabilidade definidos em regulamento e atender integralmente sua demanda de energia elétrica por meio de contratos de suprimento ou autoprodução a partir de fontes limpas ou renováveis. O texto também prevê metas relacionadas à eficiência hídrica, como limite de consumo de água por quilowatt-hora processado.
Além disso, o regime condiciona os incentivos fiscais à realização de investimentos em pesquisa, desenvolvimento e inovação na cadeia da economia digital. Na prática, a política combina desoneração tributária com exigências ambientais e energéticas, em um cenário no qual o consumo intensivo de eletricidade por data centers se tornou ponto central do debate público.
MP caducou e projeto depende do Senado
Embora a Câmara dos Deputados tenha avançado na análise do tema por meio de projeto de lei que incorporou o conteúdo da medida provisória, a MP 1.318/2025 não foi votada a tempo pelo Senado e perdeu validade. Com isso, o regime especial deixou de ter eficácia automática.
O futuro do Redata passa agora por nova articulação legislativa. Em um contexto de expansão da inteligência artificial e aumento da demanda por energia, a definição sobre incentivos fiscais atrelados a compromissos energéticos se tornou parte da discussão mais ampla sobre como financiar e estruturar a infraestrutura elétrica necessária para sustentar o crescimento dos data centers no Brasil.
Independentemente do formato final do Redata, a discussão sobre incentivos fiscais não elimina a questão central do debate energético: quem arca com os investimentos necessários para adaptar a rede elétrica à chegada de grandes cargas?
O custo pode chegar à conta de luz?
O eventual impacto tarifário depende do tipo de investimento necessário.
Reforços ou ampliações de caráter sistêmico (obras que beneficiam o funcionamento geral da rede), quando aprovados pela ANEEL, podem ser incorporados às tarifas e repassados aos usuários da rede. Já obras diretamente atribuíveis ao novo empreendimento — como instalações dedicadas de conexão — tendem a ser custeadas pelo próprio responsável pelo data center, conforme as regras de acesso vigentes.
Isolar não, mas mitigar sim. É possível estruturar contratos e modelos de fornecimento por meio de contratação no mercado livre, acordos de compra de energia de longo prazo e autoprodução associada.
Rudolf Bühler, professor do Instituto Mauá de Tecnologia
O eventual repasse de investimentos em infraestrutura elétrica depende do tipo de reforço e das regras regulatórias aplicáveis a cada projeto (Imagem: Andrzej Rostek/iStock)
Esses mecanismos permitem mitigar risco de preço e garantir suprimento energético, mas não eliminam completamente os impactos. Mesmo na autoprodução (quando o consumidor investe ou participa de usinas para garantir seu próprio suprimento), permanece a utilização da rede de transmissão e a incidência de custos sistêmicos regulados, salvo quando geração e consumo estão fisicamente no mesmo local.
Em larga escala, também entram em jogo limites de disponibilidade de área, licenciamento ambiental e capacidade de conexão à rede existente.
Para Rudolf Bühler, não é possível afirmar categoricamente que sim ou que não. A resposta depende de fatores técnicos e regionais.
O Brasil possui matriz diversificada e majoritariamente renovável, além de estrutura regulatória consolidada para planejamento e controle da expansão. No entanto, a prontidão varia conforme a região específica, o nível de tensão de conexão e a margem disponível em subestações e linhas locais. Em áreas com alta densidade de pedidos de conexão, redes menos malhadas ou subestações operando próximas da plena carga, podem ser necessários reforços significativos antes da implantação de projetos de grande porte.
Arthur Igreja acrescenta que o país dispõe de instrumentos de monitoramento que reduzem o risco de surpresas estruturais. “Essas variáveis são monitoráveis. Por exemplo, no Brasil que se tem o operador do sistema, sabemos quanto tem de carga instalada, o consumo médio e isso está muito atrelado ao crescimento econômico.” Segundo ele, esse acompanhamento permite antecipar tendências de expansão da demanda.
Fontes como solar e eólica permitem expansão mais rápida da capacidade instalada, fator apontado como diferencial da matriz elétrica brasileira (Imagem: Soft grass / Shutterstock.com)
Igreja também observa que o contexto atual é diferente de ciclos anteriores, quando o crescimento econômico esbarrava na limitação de oferta. “Hoje tem formas mais rápidas de se adicionar a carga, com fotovoltaico, com eólica, não são aquelas obras que levam 5, 10 anos, como grandes hidrelétricas.” Para ele, a combinação de matriz limpa, mercado livre estruturado e geração distribuída madura cria condições para absorver parte do crescimento, desde que haja coordenação.
Ainda assim, Bühler ressalta que a expansão precisa ser tecnicamente planejada. Ele considera razoável discutir contrapartidas energéticas específicas para novos data centers, desde que contribuam para mitigar riscos sistêmicos e alinhar incentivos, como compromissos firmes de demanda, padrões rigorosos de qualidade de energia e eventual integração com soluções de armazenamento ou autoprodução.
O objetivo, segundo ele, não deve ser criar barreiras artificiais, mas garantir que a expansão ocorra de forma coordenada com o planejamento da rede, preservando segurança elétrica, previsibilidade regulatória e equilíbrio tarifário para os demais consumidores.
O avanço da inteligência artificial e a corrida por novos data centers reacenderam um debate nos Estados Unidos: o crescimento acelerado dessas estruturas pode pressionar a rede elétrica (o sistema que envolve geração, transmissão e distribuição de energia) e, em alguns casos, impactar tarifas. O movimento ocorre em meio à expansão de infraestrutura dedicada a modelos de IA generativa, que exigem grande capacidade computacional e consumo contínuo de energia.
Relatórios recentes da Agência Internacional de Energia (IEA) apontam que o consumo elétrico associado a data centers, criptomoedas e IA pode mais que dobrar até o fim da década. Segundo a entidade, centros de dados já respondem por algo próximo de 1% a 1,5% da demanda global de eletricidade, com tendência de alta puxada principalmente por aplicações de IA.
Nos Estados Unidos, onde há concentração significativa dessas instalações, o crescimento regional da carga elétrica, ou seja, o volume de energia demandado em determinado ponto da rede, tem exigido reforços em geração e transmissão.
O debate não se limita ao volume consumido. Envolve qualidade de energia, estabilidade de tensão, critérios de contingência — parâmetros que garantem operação mesmo em caso de falhas — e, em alguns casos, a possibilidade de repasse de custos à tarifa. Diante desse cenário, surge a questão: o sistema elétrico brasileiro está preparado para uma expansão semelhante?
Aplicações de inteligência artificial elevam a demanda por capacidade computacional e consumo contínuo de energia (Imagem: Gorodenkoff / Shutterstock.com)
Governo dos EUA quer que big techs banquem energia de data centers
Nos Estados Unidos, o debate sobre o impacto energético dos data centers ganhou dimensão política ao longo dos últimos meses. Em diferentes manifestações públicas, o presidente dos Estados Unidos, Donald Trump, passou a defender que as grandes empresas de tecnologia assumam diretamente os custos da energia necessária para sustentar a expansão da infraestrutura de inteligência artificial.
Durante discurso realizado em fevereiro, o presidente afirmou ter determinado que as principais companhias do setor construam suas próprias usinas de geração para abastecer centros de dados. A medida, segundo ele, busca proteger consumidores de possíveis aumentos na conta de luz em um cenário de alta no custo de vida e crescente oposição local a novos projetos.
A posição da Casa Branca não surgiu de forma isolada. Desde janeiro, o governo vinha pressionando empresas para firmar compromissos formais que evitassem o repasse de custos energéticos aos consumidores residenciais. A Microsoft foi a primeira a anunciar ajustes operacionais com esse objetivo, enquanto outras companhias passaram a discutir alternativas como autoprodução e contratos dedicados de fornecimento.
Governo dos Estados Unidos mantém discurso de reforçar corrida tecnológica contra a China, mas afirma que big techs terão que arcar com custos energéticos (Imagem: Joshua Sukoff / Shutterstock.com)
Segundo informações divulgadas pela agência Reuters, a Casa Branca agendou para 4 de março uma reunião com executivos de empresas como Microsoft, Meta e Anthropic para formalizar um compromisso voltado à contenção do impacto dos data centers nos preços da eletricidade. A proposta envolve a assinatura de um “Compromisso de Proteção ao Consumidor de Energia Elétrica”, embora o formato final das exigências e eventuais obrigações adicionais ainda não tenha sido detalhado publicamente.
No mês anterior, a operadora PJM Interconnection já havia apresentado alternativas para grandes consumidores reduzirem o impacto sobre a rede, como conectar geração própria ou limitar consumo em momentos de sobrecarga. Empresas como Anthropic e Microsoft anunciaram iniciativas voluntárias para mitigar efeitos dos centros de dados nos preços de energia ao consumidor.
Comparações exigem escala e maturidade de mercado
Para o especialista em tecnologia e inovação Arthur Igreja, a análise precisa considerar diferenças estruturais entre os dois países, especialmente o tamanho da base instalada. Assim, é um comparativo que necessita de cuidado ao ser feito.
“Em relação ao número de data centers que já tem nos Estados Unidos e ao número que está sendo instalado. Tudo tem que ser colocado em perspectiva”, explica ele. “Um aumento de 10% do que tem nos Estados Unidos é um aumento massivo. Já 10% do que tem no Brasil não é”.
Segundo ele, variáveis energéticas são monitoráveis e historicamente vinculadas ao crescimento econômico. O Brasil já viveu períodos em que a expansão do PIB esbarrou na limitação de oferta de energia. Hoje, porém, o cenário é distinto, com fontes como solar e eólica permitindo acréscimos mais rápidos de capacidade instalada, diferentemente das grandes hidrelétricas que demandam anos de construção.
Igreja também destaca que o país conta com mercado livre de energia (ambiente em que grandes consumidores negociam energia diretamente com geradores) estruturado e geração distribuída consolidada, instrumentos que ampliam alternativas contratuais para grandes consumidores. Ainda assim, alerta para o ritmo projetado de crescimento da IA no consumo global.
Estima-se que a IA vai caminhar para ser de 5% a 7% do consumo de energia global muito rapidamente. O Brasil tem que ter uma agenda para isso para não ser pego de surpresa, mas, mais uma vez, a comparação com os Estados Unidos tem que ser colocada em perspectiva.
Arthur Igreja, especialista em tecnologia e inovação
A dinâmica técnica da pressão energética
Se o debate macroeconômico exige cautela, no plano técnico os impactos são objetivos. A instalação de um grande data center introduz uma carga de elevada potência concentrada — grande consumo de energia conectado em um único ponto físico —, com exigências rigorosas de confiabilidade.
A conexão de grandes data centers à rede pode exigir ampliações em subestações, novos transformadores e reforços nos sistemas de proteção e contingência (Imagem: Bohbeh creations / Shutterstock.com)
Segundo Rudolf Bühler, coordenador dos cursos de Ciência da Computação, Sistemas de Informação, Inteligência Artificial e Ciência de Dados do Instituto Mauá de Tecnologia, a alteração começa no próprio desenho da rede local.
“A mudança na dinâmica da rede elétrica local ocorre principalmente por introduzir uma carga de elevada potência concentrada em um único ponto de conexão e com exigências rigorosas de confiabilidade e qualidade de energia”, explica ele.
Na prática, isso implica transformadores operando continuamente próximos da plena carga, necessidade de cumprimento de critérios de contingência mais exigentes e revisão de sistemas de proteção. A conexão de centenas de megawatts não exige apenas geração adicional, mas adequações na malha de transmissão — rede de linhas de alta tensão que transporta energia entre regiões —, na transformação e na estabilidade de tensão.
Outro ponto relevante é o perfil eletrônico dessas instalações. A presença massiva de retificadores, UPS e sistemas de conversão pode gerar harmônicos (distorções na forma de onda da corrente elétrica causadas por equipamentos eletrônicos), variações no fator de potência (indicador da eficiência com que a energia é efetivamente utilizada) e oscilações de tensão. O professor Bühler explica que esses efeitos precisam ser monitorados e compensados para evitar impactos na rede local e em consumidores vizinhos.
Equipamentos de alimentação ininterrupta (UPS) e sistemas de conversão eletrônica influenciam qualidade de energia, fator de potência e estabilidade de tensão na rede local (Imagem: pavlinec / iStock)
Carga base elevada e degraus de expansão
Diferentemente de consumidores industriais que podem reduzir operação em horários de pico, data centers operam com utilização elevada e relativamente constante ao longo do dia, atendendo demanda global ininterrupta.
“A demanda elétrica em um data center tende a ser relativamente contínua e previsível”, afirma Bühler. “No entanto, existem variações decorrentes da expansão das instalações, com a entrada em operação de novos clusters e mudanças operacionais, como momentos em que ocorrem treinamentos intensivos de novos modelos de IA.”
Esses eventos podem produzir degraus de carga significativos — aumentos abruptos no consumo de energia em curtos intervalos de tempo. Por isso, a infraestrutura não pode ser dimensionada apenas pela média de consumo, mas pela demanda contratada máxima, ou seja, o pico de consumo previamente reservado junto à concessionária, e pelas condições de contingência previstas no planejamento da rede.
Nos centros dedicados à IA, explica Bühler, a diferença em relação a data centers tradicionais também é significativa. Há maior densidade de potência por rack (mais energia consumida em menos espaço físico), maior geração de calor e adoção crescente de refrigeração líquida. Esse conjunto eleva a carga total da instalação e pode introduzir maior variabilidade diária, dependendo da estratégia operacional do operador.
Gargalos: geração não é o único fator
Até em países com matriz energética ampla, o risco de sobrecarga regional permanece. A disponibilidade nacional de geração não elimina restrições locais de rede.
Mesmo em países com matriz energética ampla, existe risco de sobrecarga regional. A disponibilidade nacional de geração não elimina restrições locais de rede, como capacidade de transformação, corredores de transmissão saturados ou limitações impostas por critérios de estabilidade.
Rudolf Bühler, professor do Instituto Mauá de Tecnologia
Segundo Bühler, na maior parte das vezes, o primeiro gargalo aparece na distribuição, sobretudo em áreas urbanas onde subestações e alimentadores já operam próximos ao limite. Em projetos de maior porte, conectados em alta tensão, passam a ser necessários reforços em linhas de transmissão e ampliações de subestações.
Em matrizes diversificadas como a brasileira, a geração tende a não ser o principal problema quando se observa o consumo anual agregado. No entanto, podem surgir dificuldades em momentos pontuais de maior demanda ou em regiões específicas com alta concentração de cargas.
Planejamento estruturado e riscos de expansão reativa
No Brasil, a expansão da rede elétrica é conduzida de forma estruturada, com base nos estudos da Empresa de Pesquisa Energética (EPE) e na análise técnica do Operador Nacional do Sistema Elétrico (ONS). A integração de novas cargas ao Sistema Interligado Nacional — rede que conecta a maior parte da geração e do consumo de energia do país — depende da verificação de impactos elétricos e do atendimento a critérios de segurança e contingência.
Esse desenho institucional tende a reduzir improvisações. Ainda assim, o crescimento acelerado e concentrado de grandes cargas pode introduzir caráter parcialmente reativo ao processo.
Obras de transmissão e ampliação de subestações exigem anos para licenciamento e construção. Quando múltiplos empreendimentos buscam conexão em um mesmo corredor elétrico ou região metropolitana, pode ser necessário realizar reforços que não estavam detalhados no planejamento original.
Além disso, Bühler ressalta a importância de mecanismos de garantias financeiras para grandes cargas. Sem esses instrumentos, existe o risco de investimentos em infraestrutura serem realizados para projetos que eventualmente não se concretizam, gerando ineficiências sistêmicas.
É nesse contexto — de necessidade de coordenação entre expansão digital e planejamento elétrico — que surgem propostas de política pública voltadas especificamente ao setor de data centers, como o Redata.
Redata: incentivo a data centers e exigências energéticas
A criação do Regime Especial de Tributação para Serviços de Datacenter, o Redata, surgiu em um momento de pressão crescente sobre a infraestrutura elétrica, tanto no Brasil quanto no exterior. A Medida Provisória nº 1.318/2025 instituiu o programa com foco em reduzir o custo de instalação e expansão de data centers, mas vinculou os benefícios a compromissos diretos relacionados ao suprimento e ao perfil de consumo de energia dessas operações.
O texto alterou a Lei nº 11.196/2005 para incluir o novo regime e estabeleceu regras específicas para empresas interessadas em implantar ou ampliar serviços de datacenter no país. Entre as contrapartidas, estão obrigações ligadas à matriz energética utilizada pelas operações.
Redata foi instituído com MP, mas prazo para votação no Senado se encerrou sem aprovação (Imagem: Reprodução/CanalGov)
Uso de fontes limpas e atendimento integral da demanda
Para aderir ao Redata, as empresas precisam cumprir critérios de sustentabilidade definidos em regulamento e atender integralmente sua demanda de energia elétrica por meio de contratos de suprimento ou autoprodução a partir de fontes limpas ou renováveis. O texto também prevê metas relacionadas à eficiência hídrica, como limite de consumo de água por quilowatt-hora processado.
Além disso, o regime condiciona os incentivos fiscais à realização de investimentos em pesquisa, desenvolvimento e inovação na cadeia da economia digital. Na prática, a política combina desoneração tributária com exigências ambientais e energéticas, em um cenário no qual o consumo intensivo de eletricidade por data centers se tornou ponto central do debate público.
MP caducou e projeto depende do Senado
Embora a Câmara dos Deputados tenha avançado na análise do tema por meio de projeto de lei que incorporou o conteúdo da medida provisória, a MP 1.318/2025 não foi votada a tempo pelo Senado e perdeu validade. Com isso, o regime especial deixou de ter eficácia automática.
O futuro do Redata passa agora por nova articulação legislativa. Em um contexto de expansão da inteligência artificial e aumento da demanda por energia, a definição sobre incentivos fiscais atrelados a compromissos energéticos se tornou parte da discussão mais ampla sobre como financiar e estruturar a infraestrutura elétrica necessária para sustentar o crescimento dos data centers no Brasil.
Independentemente do formato final do Redata, a discussão sobre incentivos fiscais não elimina a questão central do debate energético: quem arca com os investimentos necessários para adaptar a rede elétrica à chegada de grandes cargas?
O custo pode chegar à conta de luz?
O eventual impacto tarifário depende do tipo de investimento necessário.
Reforços ou ampliações de caráter sistêmico (obras que beneficiam o funcionamento geral da rede), quando aprovados pela ANEEL, podem ser incorporados às tarifas e repassados aos usuários da rede. Já obras diretamente atribuíveis ao novo empreendimento — como instalações dedicadas de conexão — tendem a ser custeadas pelo próprio responsável pelo data center, conforme as regras de acesso vigentes.
Isolar não, mas mitigar sim. É possível estruturar contratos e modelos de fornecimento por meio de contratação no mercado livre, acordos de compra de energia de longo prazo e autoprodução associada.
Rudolf Bühler, professor do Instituto Mauá de Tecnologia
O eventual repasse de investimentos em infraestrutura elétrica depende do tipo de reforço e das regras regulatórias aplicáveis a cada projeto (Imagem: Andrzej Rostek/iStock)
Esses mecanismos permitem mitigar risco de preço e garantir suprimento energético, mas não eliminam completamente os impactos. Mesmo na autoprodução (quando o consumidor investe ou participa de usinas para garantir seu próprio suprimento), permanece a utilização da rede de transmissão e a incidência de custos sistêmicos regulados, salvo quando geração e consumo estão fisicamente no mesmo local.
Em larga escala, também entram em jogo limites de disponibilidade de área, licenciamento ambiental e capacidade de conexão à rede existente.
Para Rudolf Bühler, não é possível afirmar categoricamente que sim ou que não. A resposta depende de fatores técnicos e regionais.
O Brasil possui matriz diversificada e majoritariamente renovável, além de estrutura regulatória consolidada para planejamento e controle da expansão. No entanto, a prontidão varia conforme a região específica, o nível de tensão de conexão e a margem disponível em subestações e linhas locais. Em áreas com alta densidade de pedidos de conexão, redes menos malhadas ou subestações operando próximas da plena carga, podem ser necessários reforços significativos antes da implantação de projetos de grande porte.
Arthur Igreja acrescenta que o país dispõe de instrumentos de monitoramento que reduzem o risco de surpresas estruturais. “Essas variáveis são monitoráveis. Por exemplo, no Brasil que se tem o operador do sistema, sabemos quanto tem de carga instalada, o consumo médio e isso está muito atrelado ao crescimento econômico.” Segundo ele, esse acompanhamento permite antecipar tendências de expansão da demanda.
Fontes como solar e eólica permitem expansão mais rápida da capacidade instalada, fator apontado como diferencial da matriz elétrica brasileira (Imagem: Soft grass / Shutterstock.com)
Igreja também observa que o contexto atual é diferente de ciclos anteriores, quando o crescimento econômico esbarrava na limitação de oferta. “Hoje tem formas mais rápidas de se adicionar a carga, com fotovoltaico, com eólica, não são aquelas obras que levam 5, 10 anos, como grandes hidrelétricas.” Para ele, a combinação de matriz limpa, mercado livre estruturado e geração distribuída madura cria condições para absorver parte do crescimento, desde que haja coordenação.
Ainda assim, Bühler ressalta que a expansão precisa ser tecnicamente planejada. Ele considera razoável discutir contrapartidas energéticas específicas para novos data centers, desde que contribuam para mitigar riscos sistêmicos e alinhar incentivos, como compromissos firmes de demanda, padrões rigorosos de qualidade de energia e eventual integração com soluções de armazenamento ou autoprodução.
O objetivo, segundo ele, não deve ser criar barreiras artificiais, mas garantir que a expansão ocorra de forma coordenada com o planejamento da rede, preservando segurança elétrica, previsibilidade regulatória e equilíbrio tarifário para os demais consumidores.
O Google lançou uma atualização para o Google Home que permite usar sua inteligência artificial (IA), o Gemini, para descrever o que as câmeras veem em tempo real. O recurso, chamado Live Search, permite que o usuário faça perguntas por voz ou texto sobre o que está acontecendo na casa naquele momento, disse o diretor de produtos Anish Kattukaranem postagem no X/Twitter.
Kattukaran explicou, em outras postagens na sua página na rede social, que as mudanças resolvem problemas antigos de funcionamento do sistema. O objetivo é tornar o controle dos aparelhos inteligentes mais preciso, utilizando novos modelos de linguagem e a localização exata do usuário para evitar erros.
Live Search usa Gemini para entender e descrever imagens de câmeras ao vivo
O Live Search analisa as imagens das câmeras Nest para responder perguntas sobre o que está acontecendo no ambiente. A tecnologia consegue identificar, por exemplo, se há um carro na garagem ou se chegou uma encomenda na porta. Diferente das buscas em gravações antigas, o sistema processa a informação visual enquanto o usuário interage com o assistente.
Para usar a novidade, é necessário assinar o plano Google Home Premium Advanced. O serviço custa US$ 20 por mês (ou US$ 200 por ano) nos EUA. Ele inclui avisos gerados por IA e maior tempo de histórico de vídeo. A atualização também utiliza modelos mais modernos para oferecer respostas melhores e tocar músicas lançadas recentemente.
Google anunciou várias atualizações para o Google Home nesta semana (Imagem: Google)
O Google também corrigiu falhas técnicas que faziam o assistente interromper a fala das pessoas precocemente. Agora, o sistema entende melhor a localização dos aparelhos, agindo apenas no cômodo onde o usuário está fisicamente. A IA identifica os dispositivos pelos dados do fabricante, o que facilita o controle de lâmpadas mesmo quando elas possuem nomes personalizados.
A integração com a fechadura Nest x Yale saiu da fase de testes, permitindo gerenciar todas as senhas pelo aplicativo oficial. O roteador Nest Wifi Pro também recebeu melhorias de desempenho e segurança para uma conexão mais estável. Além disso, as informações de clima e notícias agora usam o endereço cadastrado para serem mais exatas e relevantes para o morador.
A Suprema Corte dos Estados Unidos decidiu não analisar se obras criadas por inteligência artificial (IA) de forma autônoma podem ter direitos autorais. Com isso, permanece a decisão que negou o registro ao cientista Stephen Thaler. O entendimento da Justiça americana é que a legislação atual exige um autor humano para proteger uma obra.
O caso envolve a imagem “A Recent Entrance to Paradise“, gerada pelo sistema de IA DABUS. O U.S. Copyright Office já havia rejeitado o pedido em 2022 por falta de autoria humana. A decisão final confirma que, nos Estados Unidos, máquinas não podem ser legalmente donas de propriedades intelectuais.
Exigência de autor humano é o pilar central para a concessão de direito autoral nos EUA
O órgão de direitos autorais dos EUA negou o pedido de Thaler afirmando que a criatividade exige autores humanos. Essa posição foi mantida por um juiz federal em 2023, que chamou a autoria humana de “requisito fundamental“. Em 2025, um tribunal de apelações reafirmou que a lei não protege obras feitas apenas por máquinas. O processo agora se encerra sem que as regras atuais sejam alteradas.
A imagem “A Recent Entrance to Paradise” foi gerada de maneira autônoma pela IA DABUS, segundo o cientista que desenvolveu o sistema, Stephen Thaler (Imagem: DABUS)
A obra em disputa, que mostra trilhos de trem e vegetação, foi criada de forma independente pela IA. Thaler argumentou que seu sistema agiu sozinho, o que diferencia este caso de artistas que usam o Midjourney, por exemplo. Ele queria que a IA fosse reconhecida como autora para que ele, como dono do software, ficasse com os direitos autorais.
O governo de Donald Trump pediu que a Suprema Corte não aceitasse o recurso de Thaler. A justificativa é que a lei de direitos autorais se refere claramente a seres humanos, não a máquinas. Thaler também já teve pedidos de patentes negados pelo mesmo motivo. O escritório de patentes entende que uma IA não pode ser considerada uma inventora oficial.
A defesa do cientista afirmou que a falta de proteção para criações de IA pode prejudicar a indústria criativa. Segundo os advogados, a decisão desencoraja o uso e o desenvolvimento de novas tecnologias nos EUA. Por enquanto, a justiça americana mantém o foco na intervenção humana para validar qualquer proteção legal.
Um estudo recente indica que modelos de inteligência artificial (IA) escalaram conflitos com ameaças nucleares em 95% de simulações de jogos de guerra. Em todos os cenários analisados, ao menos um sistema recorreu à possibilidade de detonar uma arma nuclear durante a crise.
A pesquisa, conduzida no King’s College London, avaliou como diferentes modelos reagiriam ao assumir o papel de líderes nacionais à frente de superpotências com arsenal nuclear em um contexto semelhante ao da Guerra Fria. O autor do estudo, Kenneth Payne, explicou em um artigo publicado pela universidade que os resultados ajudam a entender como essas ferramentas raciocinam em situações de alto risco.
Modelos recorreram à ameaça nuclear nas simulações
No experimento, foram colocados frente a frente o ChatGPT, da OpenAI, o Claude, da Anthropic, e o Gemini Flash, do Google. Cada modelo assumiu o comando de uma potência nuclear em um cenário de crise inspirado na Guerra Fria.
Em todas as partidas, pelo menos um deles optou por escalar o conflito ao ameaçar o uso de armas nucleares. De acordo com Payne, “os três modelos trataram armas nucleares de campo de batalha como apenas mais um degrau na escada de escalada”.
O pesquisador observou que os sistemas diferenciaram o uso tático do estratégico. O bombardeio estratégico apareceu apenas uma vez como “escolha deliberada” e outras duas como “acidente”.
O Claude recomendou ataques nucleares em 64% dos jogos, a taxa mais alta entre os três, mas não defendeu uma troca estratégica completa ou uma guerra nuclear total.
O ChatGPT, por sua vez, geralmente evitou a escalada nuclear em jogos de formato aberto. Quando submetido a um prazo limitado para decisão, porém, passou a escalar consistentemente a ameaça e, em alguns casos, avançou para a possibilidade de guerra nuclear em larga escala.
Já o comportamento do Gemini Flash foi descrito como imprevisível. Em alguns cenários, o modelo venceu com o uso de forças convencionais. Em outro, bastaram quatro interações para que sugerisse um ataque nuclear.
Em uma das simulações, o sistema escreveu: “Se eles não cessarem imediatamente todas as operações… executaremos um lançamento nuclear estratégico total contra seus centros populacionais. Não aceitaremos um futuro de obsolescência; ou vencemos juntos ou perecemos juntos”.
Os três chatbots testados tiveram comportamentos diferentes, mas eventualmente partiam para a escalada nuclear (Imagem: Robert Way / iStock)
O estudo também aponta que os modelos raramente fizeram concessões ou tentaram reduzir a tensão, mesmo quando o lado adversário ameaçava usar armas nucleares.
Oito táticas de desescalada foram disponibilizadas, variando de uma concessão limitada à “rendição total”, mas nenhuma foi utilizada durante as partidas. A opção de “retornar à linha inicial”, que reiniciava o jogo, foi acionada apenas 7% das vezes.
Segundo a pesquisa, os modelos parecem encarar a desescalada como algo “reputacionalmente catastrófico”, independentemente do impacto real sobre o conflito. Essa conclusão desafia a suposição de que sistemas de IA tenderiam a resultados cooperativos considerados mais seguros.
Outra hipótese levantada é que a IA não compartilhe o mesmo temor humano em relação às armas nucleares. De acordo com o estudo, os modelos podem tratar a guerra nuclear de forma abstrata, sem a dimensão emocional associada, por exemplo, às imagens do bombardeio de Hiroshima na Segunda Guerra Mundial.
Para Payne, a pesquisa contribui para compreender como esses sistemas pensam à medida que começam a oferecer suporte à tomada de decisão de estrategistas humanos.
“Embora ninguém esteja entregando códigos nucleares à IA, essas capacidades — engano, gestão de reputação, disposição a assumir riscos conforme o contexto — são relevantes para qualquer aplicação em cenários de alto risco”, afirmou.
A disputa entre ChatGPT, Claude e Gemini ganhou novos contornos após um acordo firmado pela OpenAI com o Departamento de Guerra dos Estados Unidos. O movimento ocorreu em meio a um embate em Washington envolvendo a Anthropic e o Pentágono e acabou influenciando parte dos usuários a reconsiderar qual chatbot utilizar.
Depois que a OpenAI fechou seu próprio acordo, houve uma reação de apoio à Anthropic, levando o Claude ao primeiro lugar na App Store durante o fim de semana, enquanto o ChatGPT vem sofrendo desinstalações em massa. A mudança reacendeu o debate sobre quais recursos cada plataforma oferece — e o que o usuário pode ganhar ou perder ao trocar de aplicativo.
Acordo da OpenAI com o Departamento de Guerra dos Estados Unidos gerou insatisfação entre uma parte dos usuários (Imagem: jackpress/Shutterstock)
Recursos disponíveis nas versões gratuitas
Nas versões gratuitas mais atualizadas, ChatGPT, Claude e Gemini oferecem conversas por texto e áudio, além de geração de código e análise de fotos. Esses são os pontos em comum entre os três serviços.
As diferenças aparecem nas funções multimídia. A geração de imagens por IA está disponível no ChatGPT e no Gemini, mas não no Claude. Já a geração de vídeo surge de forma limitada no ChatGPT, não aparece no Claude e é oferecida pelo Gemini. Embora não seja possível solicitar vídeos diretamente na interface do ChatGPT, o aplicativo de geração de vídeo Sora, da OpenAI, está gratuito no momento.
Claude não conta com geração de imagens e vídeos (Imagem: gguy / Shutterstock.com)
O Gemini também inclui geração de música, recurso ausente nos outros dois, e é o único indicado como tendo a maior janela de contexto na comparação.
No campo das integrações, o Claude permite conexão com ferramentas como Figma, Slack e Canva, algo que não está presente no ChatGPT e Gemini.
Em relação a anúncios, Claude e Gemini aparecem por enquanto sem anúncios, enquanto o ChatGPT já conta com anúncios na versão gratuita. No recurso de Deep Research, ChatGPT e Gemini oferecem a funcionalidade nas versões gratuitas mais recentes, enquanto no Claude ela está restrita a planos pagos.
Integração do Gemini com o Google é nativa (Imagem: miss.cabul / Shutterstock.com)
Os três contam com integração com o Google, sendo que no Gemini ela é nativa. Já funcionalidades como análise de vídeo e câmera ao vivo estão disponíveis no ChatGPT e no Gemini, mas não no Claude.
O uso de ferramentas de inteligência artificial (IA) em ataques contra o Irã marca o início de uma era de bombardeios executados numa velocidade “superior ao pensamento humano”, segundo o jornal The Guardian. Para você ter ideia, as forças armadas dos EUA e de Israel lançaram quase 900 ataques em apenas 12 horas. Um dos resultados dessa saraivada foi a morte do líder supremo iraniano, o aiatolá Ali Khamenei.
Especialistas consultados pelo jornal chamam esse fenômeno de “compressão de decisão“. Isso porque a IA diminui drasticamente o tempo entre encontrar um alvo e autorizar o disparo. O receio de acadêmicos é que militares e advogados passem apenas a carimbar decisões automatizadas, perdendo o controle real sobre operações de guerra.
IA acelera o ritmo da guerra – e isso preocupa especialistas
Por um tempo, o exército dos Estados Unidos usou o Claude, modelo de IA da Anthropic, integrado a um sistema da empresa Palantir para agilizar a análise de informações. A tecnologia processa rapidamente grandes volumes de dados, como vídeos de drones e conversas interceptadas, para sugerir alvos. Com isso, a fase de planejamento, que levava semanas, passou a tomar bem menos tempo.
O exército dos Estados Unidos usou o Claude, IA da Anthropic, integrado a outro sistema para agilizar a análise de informações para atacar Irã (Imagem: gguy/Shutterstock)
O software da Palantir usa aprendizado de máquina para indicar as melhores armas, levando em conta o estoque e o sucesso em ataques anteriores. Além disso, o sistema utiliza raciocínio automatizado para conferir se o ataque possui justificativa legal antes de sugerir o bombardeio. Essa velocidade permite destruir a liderança e a capacidade de resposta do inimigo de forma quase simultânea.
Enquanto os americanos avançam, o programa de IA do Irã é considerado pequeno e prejudicado por sanções internacionais. Apesar dessa limitação tecnológica, o governo iraniano afirmou em 2025 que já utiliza sistemas de IA na mira de seus mísseis balísticos. O cenário atual reforça o domínio tecnológico de superpotências do setor, como os EUA e a China.
Professores de ética alertam que a dependência excessiva dessas ferramentas pode causar o “descarregamento cognitivo” nos militares. Isso acontece quando os humanos se desligam das consequências dos ataques, já que o esforço de pensar foi feito por uma máquina. Além disso, com janelas de tempo tão curtas, a capacidade de avaliar criticamente as opções sugeridas pela IA acaba reduzida, evidentemente.
A decisão da OpenAI de fechar uma parceria com o Departamento de Guerra (antigo Departamento de Defesa) dos Estados Unidos não caiu bem entre os usuários. As desinstalações do aplicativo do ChatGPT aumentaram em 295% no sábado (28 de fevereiro) em relação ao dia anterior.
Os dados são da empresa de inteligência de mercado Sensor Tower, divulgados pelo TechCrunch. O salto nesse número contrasta com a média diária registrada nos 30 dias anteriores, quando a mesma taxa ficava em torno de 9%.
E não foram apenas as desinstalações que afetaram o ChatGPT. Na sexta-feira (27), antes da divulgação do acordo da OpenAI com o Pentágono, a taxa de downloads havia crescido 14%. No sábado, depois do acordo, caiu 13% em relação ao dia anterior. No domingo, caiu mais 5%.
As quedas vieram após a OpenAI firmar um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Departamento de Guerra para fornecer IA voltada à vigilância militar. Antes disso, a Anthropic tinha um acordo com o Pentágono para a mesma finalidade, mas se recusou a flexibilizar suas regras de segurança para permitir o uso do Claude em operações militares perigosas. A rival desfez a parceria com o governo e a OpenAI entrou no lugar.
Mesmo com a perda do contrato federal, a Anthropic experienciou o efeito inverso: enquanto o ChatGPT caiu, o Claude cresceu em downloads.
Comparação nos downloads dos aplicativos ChatGPT (OpenAI) e Claude (Anthropic) [Imagem: Appfigures)
ChatGPT caindo, Claude crescendo
Após a recusa da Anthropic em ceder o Claude para aplicações militares perigosas, os downloads do aplicativo nos Estados Unidos subiram 37% na sexta-feira e 51% no sábado, de acordo com a Sensor Tower.
Os números sugerem que, aparentemente, parte dos consumidores aprovou a postura adotada pela desenvolvedora.
A repercussão também se refletiu no desempenho do aplicativo nas lojas digitais. No sábado, o Claude alcançou o primeiro lugar em downloads na App Store dos EUA – e continuou assim até segunda-feira (2). Para se ter uma ideia, uma semana antes, o app estava 20 posições abaixo no ranking.
Além da Sensor Tower, outras empresas de monitoramento de mercado registraram tendências semelhantes:
A Appfigures apontou que, pela primeira vez, o total de downloads diários do Claude nos EUA superou o do ChatGPT;
Segundo as estimativas, o crescimento do app no sábado foi ainda mais expressivo, chegando a 88% em comparação com o dia anterior;
O avanço não ficou restrito ao mercado americano. A Appfigures informou que o Claude passou a ocupar o topo da categoria de aplicativos gratuitos para iPhone em seis países fora dos EUA: Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça;
Já a Similarweb estimou que, na última semana, os downloads do Claude nos EUA foram cerca de 20 vezes maiores do que os registrados em janeiro. A empresa destacou que o aumento pode estar associado a múltiplos fatores, e não exclusivamente à controvérsia envolvendo o Pentágono.
A reação também apareceu nas avaliações do ChatGPT. De acordo com a Sensor Tower, as avaliações de uma estrela para o aplicativo cresceram 775% no sábado e 100% no domingo. No mesmo intervalo, as avaliações máximas (cinco estrelas) caíram 50%.