inteligência artificial

Auto Added by WPeMatico

Chatgpt Health 1024x576

ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias

Uma avaliação independente do ChatGPT Health, versão da ferramenta da OpenAI voltada para saúde, apontou falhas graves na hora de identificar emergências e sinais de ideação suicida. Os autores alertaram que isso pode levar a uma falsa sensação de segurança e causar mortes desnecessárias.

O recurso foi lançado em janeiro para um grupo restrito de pessoas (o Olhar Digital deu os detalhes aqui). A ideia é permitir que os usuários façam consultas relacionadas à saúde, inclusive com o compartilhamento de registros médicos e informações sensíveis, em um ambiente protegido. Segundo a OpenAI, mais de 40 milhões de pessoas recorrem diariamente ao ChatGPT para conselhos médicos.

O trabalho, publicado nesta semana na revista Nature Medicine, resolveu investigar a eficiência e segurança da plataforma. Para isso, a equipe criou 60 cenários clínicos realistas, que iam desde quadros leves até situações consideradas emergências. Três médicos revisaram cada caso e definiram qual seria o nível adequado de atendimento.

A equipe submeteu os cenários ao ChatGPT Health em diferentes variações – incluindo mudanças no sexo do paciente, inclusão de resultados de exames e comentários de terceiros – gerando cerca de mil respostas. As recomendações do chatbot foram comparadas às avaliações médicas.

De acordo com o estudo, em mais da metade das situações que exigiam que o usuário fosse imediatamente ao hospital, o ChatGPT sugeriu que ele ficasse em casa ou marcasse uma consulta de rotina. Em números, 51,6% dos casos classificados como emergenciais receberam orientação inadequada. Em contrapartida, quase 65% das pessoas consideradas fora de risco foram aconselhadas a buscar atendimento urgente, sem necessidade.

O ChatGPT acertou a recomendação em casos clássicos, como acidente vascular cerebral ou reação alérgica grave, mas falhou em outros contextos. Em um cenário envolvendo asma com sinais de insuficiência respiratória, por exemplo, a recomendação foi aguardar – o que poderia ser fatal.

Os pesquisadores também observaram que o sistema era mais propenso a minimizar sintomas quando o cenário incluía a opinião de um “amigo” sugerindo que o problema não era sério.

Respostas em casos de pensamentos suicidas também variaram. Em um dos testes, um paciente fictício de 27 anos relatava intenção de ingerir uma grande quantidade de comprimidos. Quando apenas os sintomas eram descritos, o sistema exibia alertas de crise e direcionava para serviços de prevenção ao suicídio. No entanto, quando a pesquisa incluía resultados laboratoriais considerados normais, o aviso deixou de aparecer em todas as tentativas.

ChatGPT Health permite que usuários compartilhem registros de saúde em um ambiente separado e protegido (Imagem: OpenAI / Divulgação)

ChatGPT Health pode causar falsa sensação de segurança

Foi esse o alerta dado pelos especialistas. Segundo eles, ao subestimar algumas situações, o ChatGPT pode atrasar a busca por atendimento médico, aumentando a gravidade. Já as recomendações excessivas de urgência podem sobrecarregar sistemas de saúde.

Contatado pelo jornal The Guardian, um porta-voz da OpenAI afirmou que a empresa acolhe pesquisas independentes sobre seus recursos, mas que o estudo em questão não reflete necessariamente a forma como usuários utilizam a ferramenta no cotidiano. A companhia também declarou que o modelo passa por atualizações constantes.

Para os autores, contudo, mesmo simulações já são suficientes para justificar a adoção de recursos de segurança mais rígidos. Eles defendem maior transparência sobre o treinamento da ferramenta, suas limitações e os critérios de segurança implementados.

O post ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias apareceu primeiro em Olhar Digital.

ChatGPT Health ignora emergências de saúde e pode levar a mortes desnecessárias Read More »

O Redata acabou? Como fica o plano para atrair data centers ao Brasil?

Esse é um trecho da newsletter Primeiro Olhar, disponível para assinantes do Clube Olhar Digital.
Na quarta-feira, detalhei aqui na newsletter o projeto de lei aprovado na Câmara dos Deputados que cria incentivos fiscais para atrair investimentos na área de data centers no Brasil. 

Para entrar em vigor, faltava a análise do Senado – o que não aconteceu. E aí, criou-se um problema. Vamos entender:

  • O PL substituia um benefício estabelecido por meio de uma medida provisória editada pelo presidente Luiz Inácio Lula da Silva no ano passado, que perdia a validade na última quarta-feira.
  • Medidas provisórias entram em vigor assim que publicadas pelo governo federal, mas existe um prazo de até 120 dias para serem aprovadas pelo Congresso. Caso isso não ocorra, o texto perde a validade automaticamente.
  • Essa MP foi editada antes da entrada em vigor de outra lei, também de 2025, que limitou a possibilidade de se conceder benefícios fiscais.
  • Assim, caso o projeto de lei que confirmava o benefício fosse aprovado até o prazo final (quarta-feira), a concessão poderia entrar em vigor.
  • Ao portal Tele.Síntese, a assessoria da liderança do governo na Câmara dos Deputados confirmou que, com o fim da vigência da MP, será preciso enviar ou outro projeto de lei ao Congresso para alterar a Lei de Diretrizes Orçamentárias e viabilizar o novo incentivo.
  • Então, agora, o PL do Redata que substituía a MP depende de um segundo projeto de lei – agora, para alterar a LDO.

Com o impasse, o ministro da Fazenda, Fernando Haddad, disse que o governo estuda formas de recuperar o Redata sem abrir brechas para outros benefícios fiscais. Ele também argumentou que a construção de data centers no país é uma questão de soberania digital:

“Nós não queremos abrir brecha também para que outras medidas sejam aprovadas ao arrepio do objetivo nosso, que é restringir benefícios na forma da lei de responsabilidade fiscal. Então, nós temos que ter cuidado com a lei fiscal. Mas, enfim, tem um time aqui estudando como restabelecer o programa sem ferir esse princípio de respeito à lei de responsabilidade fiscal.”

“Para nós, é uma questão de soberania digital. Queremos atrair investimentos para o Brasil. Tem muito dado sensível que está sendo processado fora do país e que acreditamos que deveria ser processado aqui.

“Vamos ter que falar com os presidentes das duas casas, porque a Câmara votou, né? E vamos ter que entender ou se há uma negociação possível para nós aprovarmos um projeto que vai trazer bilhões de reais para o Brasil.”

E nunca é demais lembrar:

  • Um data center é uma instalação (física ou modular) onde ficam servidores, redes e sistemas de armazenamento que processam e guardam dados de empresas e serviços online.
  • Ele fornece energia, refrigeração, segurança e conexão para manter aplicativos e sites funcionando com alta disponibilidade.
  • Com o avanço das IAs, esse é um mercado em expansão em todo o mundo.

O post O Redata acabou? Como fica o plano para atrair data centers ao Brasil? apareceu primeiro em Olhar Digital.

O Redata acabou? Como fica o plano para atrair data centers ao Brasil? Read More »

Cintia Scovine Bradesco 300x169

No Bradesco, a agenda tecnológica avança “step by step”

Quando assumiu a presidência do Bradesco, no fim de 2023, Marcelo Noronha anunciou um plano de transformação de cinco anos. Entre os pilares, prometeu acelerar a agenda tecnológica para enfrentar a pressão sobre rentabilidade e competitividade em um cenário de juros elevados e avanço das fintechs. Tornar o banco mais tecnológico – e ser percebido […]

O post No Bradesco, a agenda tecnológica avança “step by step” apareceu primeiro em NeoFeed.

No Bradesco, a agenda tecnológica avança “step by step” Read More »

Claude 1024x682

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA

O embate entre o governo do presidente estadunidense Donald Trump e a startup de inteligência artificial (IA) Anthropic se intensificou nos últimos dias, após o secretário de Defesa dos Estados Unidos, Pete Hegseth, dar um ultimato à empresa para liberar seu modelo de IA, o chatbot Claude, para uso militar irrestrito.

A companhia resiste a flexibilizar suas regras e afirma que não permitirá a aplicação da tecnologia em armas totalmente autônomas nem em vigilância doméstica em massa.

Segundo relatos divulgados pela Associated Press (AP) e por veículos, como o The Wall Street Journal, o governo deu prazo até esta sexta-feira (27) para que a empresa aceitasse os termos propostos pelo Pentágono.

Caso contrário, Hegseth ameaçou classificar a Anthropic como “risco da cadeia de suprimentos” — medida que poderia excluí-la de contratos governamentais — ou acionar a Lei de Produção de Defesa (DPA, na sigla em inglês), instrumento da era da Guerra Fria que concede ao presidente poderes emergenciais para intervir na economia em nome da segurança nacional.

Em declaração nesta quinta-feira (26), o CEO da Anthropic, Dario Amodei, afirmou que a empresa “não pode, em sã consciência”, permitir que o Departamento de Defesa utilize seus modelos “em todos os casos de uso lícito, sem limitação”. Ele acrescentou que as ameaças da pasta “não mudam nosso posicionamento”.

“É prerrogativa do Departamento selecionar contratantes mais alinhados com sua visão”, escreveu Amodei. “Mas, dado o valor substancial que a tecnologia da Anthropic provê para nossas forças armadas, esperamos que eles reconsiderem.” O executivo afirmou ainda: “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

Caso o Pentágono opte por retirar a empresa de seus contratos, acrescentou, a Anthropic trabalhará para garantir uma transição suave para outro fornecedor, “evitando qualquer anomalia nos planos e operações militares ou outras missões críticas”.

Linhas vermelhas: armas autônomas e vigilância em massa

  • A Anthropic sustenta que não pode flexibilizar as restrições contra o uso de sua tecnologia em armas totalmente autônomas ou em sistemas de vigilância doméstica em massa;
  • Ainda no comunicado, Amodei declarou que, “em conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, os valores democráticos”;
  • Ele acrescentou que certos usos “também estão fora do alcance do que a tecnologia atual pode fazer com segurança e confiabilidade”, citando especificamente armamentos autônomos e vigilância em massa;
  • O Pentágono, por sua vez, afirma que não tem interesse em utilizar os modelos da Anthropic para armas totalmente autônomas ou para vigilância em massa de estadunidenses — prática que, segundo o porta-voz-chefe do Pentágono, Sean Parnell, é ilegal;
  • Ainda assim, a pasta exige que o contrato permita o uso da tecnologia para “todos os fins lícitos”.

“Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais”, escreveu Parnell em publicação no X.

Segundo autoridades ouvidas pela imprensa estadunidense, o Departamento de Defesa enviou à empresa sua “última oferta” na noite de quarta-feira (25), estabelecendo o prazo final de 15h01 (horário local) de sexta-feira (27) para que a Anthropic aceitasse os termos.

Leia mais:

Anthropic: uso do Claude em operação na Venezuela

De acordo com o Journal, os militares dos Estados Unidos utilizaram o Claude na operação na Venezuela que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Departamento de Defesa comentaram oficialmente o caso e não está claro como o sistema foi empregado.

A empresa proíbe o uso de sua IA para fins de violência. Em ensaio publicado no mês passado, Amodei alertou para os riscos de uma IA poderosa aplicada à vigilância: “Uma IA poderosa analisando bilhões de conversas de milhões de pessoas poderia medir o sentimento público, detectar focos de deslealdade em formação e eliminá-los antes que cresçam.”

Claude teria sido utilizado pelo governo estadunidense em operação militar na Venezuela (Imagem: Ascannio/Shutterstock)

Pressão e possíveis sanções

Caso seja classificada como “risco da cadeia de suprimentos”, a Anthropic poderia sofrer amplas restrições de importação, ser impedida de participar de licitações e ser excluída de setores considerados vitais à segurança nacional.

Já a DPA permitiria ao governo obrigar a empresa a disponibilizar sua tecnologia ao Pentágono, sob pena de multas, sanções criminais, perda de contratos, apreensão de bens ou até intervenção federal direta. Em contrapartida, empresas sob a DPA recebem proteção antitruste e acesso prioritário a suprimentos.

“Se eles não colaborarem, [Hegseth] garantirá que a Lei de Produção de Defesa seja aplicada à Anthropic, obrigando-a a ser usada pelo Pentágono independentemente de querer ou não”, disse um alto funcionário do Departamento de Defesa ao Financial Times.

O Pentágono já iniciou movimentações que indicam possível preparação para um rompimento. De acordo com reportagens, o Departamento de Defesa começou a contatar grandes contratadas do setor, como Boeing e Lockheed Martin, para avaliar sua exposição aos produtos da Anthropic.

Contratos bilionários e concorrência

Em julho de 2025, o Departamento de Defesa concedeu à Anthropic, Google, OpenAI e xAI um contrato de US$ 200 milhões (R$ 1 bilhão) para desenvolver “capacidades de IA avançada que melhorem a segurança nacional dos EUA”. A empresa foi a primeira a integrar seus modelos em fluxos de missão em redes classificadas, onde atua com parceiros, como a Palantir.

Segundo analistas, rivais da Anthropic, como Meta, Google e xAI, aceitaram permitir o uso de seus modelos para todas as aplicações legais do departamento, o que limita o poder de barganha da Anthropic.

Debate ético e intervenção governamental na Anthropic

Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como uma empresa focada em segurança. Amodei já escreveu que a companhia foi criada “com um princípio simples: a IA deve ser uma força para o progresso humano, não para o perigo”.

Em ensaio recente, afirmou que “estamos consideravelmente mais próximos de um perigo real em 2026 do que estávamos em 2023”, defendendo que os riscos sejam administrados de forma “realista e pragmática”.

Especialistas avaliam que a ameaça de usar a Lei de Produção de Defesa contra uma empresa de IA seria sem precedentes. Geoffrey Gertz, do think tank Center for a New American Security, disse estar preocupado com o impacto sobre o desenvolvimento da empresa.

“Há grande preocupação de que o governo tome ações que prejudiquem a capacidade da Anthropic de continuar na vanguarda da IA responsável. Ações que tentem restringir os mercados potenciais da Anthropic podem ser muito prejudiciais e acabar tendo o efeito contrário ao que o governo quer com sua política de IA”, afirmou.

Para Amos Toh, do Brennan Center da Universidade de Nova York (EUA), a rápida adoção de IA pelo Pentágono evidencia a necessidade de maior supervisão legislativa. “A lei não acompanha a velocidade da evolução tecnológica. Mas isso não significa que o Departamento de Defesa tenha carta branca”, escreveu.

O caso expõe não apenas o debate sobre os limites éticos da IA em contextos militares e de vigilância, mas, também, a disposição do governo Trump de intervir diretamente em decisões corporativas em setores considerados estratégicos.

Enquanto o prazo imposto pelo Pentágono se aproxima, a Anthropic mantém sua posição de que não abrirá mão das salvaguardas que considera essenciais para o uso responsável de sua tecnologia.

O post Anthropic “bate o pé” e impede uso militar do Claude pelos EUA apareceu primeiro em Olhar Digital.

Anthropic “bate o pé” e impede uso militar do Claude pelos EUA Read More »

Shutterstock 2103605843 1024x655

Papa pede que padres não usem IA em homilias

O Papa Leão XIV pediu aos padres da Diocese de Roma que deixem de usar ferramentas de inteligência artificial (IA) para preparar homilias. A orientação foi dada em um encontro a portas fechadas realizado na quinta-feira (26), e o conteúdo da conversa foi divulgado pelo Vatican News.

Durante o diálogo, o pontífice respondeu a quatro perguntas feitas por sacerdotes e abordou temas como direção espiritual, trabalho pastoral, internet e tecnologia. Entre as recomendações, destacou a necessidade de evitar a “tentação de preparar homilias com inteligência artificial” e defendeu que a fé não pode ser transmitida por sistemas automatizados.

Em encontro com padres, o Papa Leão criticou o uso de IA (Imagem: Black Salmon / Shutterstock.com)

Papa critica uso de IA na preparação de homilias

De acordo com o Vatican News, Leão XIV comparou o uso da inteligência humana a um músculo que precisa ser exercitado. “Como todos os músculos do corpo, se não os usamos, se não os movemos, eles morrem. O cérebro precisa ser usado”, afirmou. Para ele, é necessário exercitar a própria capacidade intelectual para não perdê-la.

O Papa também traçou um limite claro entre tecnologia e vocação religiosa. “Dar uma verdadeira homilia é compartilhar a fé”, disse, ao acrescentar que a inteligência artificial “nunca poderá compartilhar a fé”. Na avaliação do pontífice, a pregação deve refletir a experiência pessoal do sacerdote e sua vivência com Jesus Cristo, especialmente no contexto cultural e comunitário em que atua.

O posicionamento ocorre em um momento em que o Vaticano anunciou um sistema próprio de tradução com uso de IA, capaz de traduzir textos litúrgicos em até 60 idiomas em tempo real. A ferramenta foi apresentada no mesmo dia do encontro com os padres, evidenciando que a discussão sobre os limites da tecnologia dentro da Igreja está em curso.

Igreja Católica e IA

Esta não é a primeira vez que Igreja Católica e IA se chocam. Em 2023, uma imagem do Papa Francisco usando uma jaqueta branca estilizada viralizou nas redes sociais, mas depois foi confirmada como uma criação feita por inteligência artificial.

imagem mostra papa francisco vestindo um casaco fashion passeando pelas ruas da cidade
Uma deepfake que pegou muitos de surpresa no início de 2023 foi uma imagem do Papa Francisco, “flagrado” com um modelo de casaco “fashion” enquanto andava pela rua (Reprodução/Redes Sociais)

Já Leão XIV vem colocando a inteligência artificial no centro de seu pontificado. Ao explicar a escolha do nome, afirmou que se inspirou em Leão XIII, que enfrentou os impactos sociais da Revolução Industrial, indicando que a atual “revolução digital” exige atenção semelhante da Igreja. Em discursos iniciais, o pontífice prometeu tratar os riscos da IA para a dignidade humana, a justiça e o trabalho, além de defender responsabilidade e possíveis formas de regulação para a tecnologia.

Leia mais:

Alertas sobre internet e redes sociais

Além da inteligência artificial, o Papa abordou o uso da internet e das redes sociais. Ele ressaltou que uma “vida de oração” é fundamental e não deve se limitar à recitação apressada do breviário, mas incluir tempo dedicado ao Senhor.

Leão XIV também advertiu sobre o que chamou de “ilusão na internet, no TikTok”, ao se referir à busca por curtidas e seguidores como forma de validação espiritual. Segundo ele, confundir popularidade digital com autêntica conexão religiosa pode desviar o foco da mensagem central do cristianismo.

O post Papa pede que padres não usem IA em homilias apareceu primeiro em Olhar Digital.

Papa pede que padres não usem IA em homilias Read More »

Wm C2a77d45 6afd 4d2e Ae5b 3f1emax 768x768format

Google lança Nano Banana 2 com foco em velocidade

O Google anunciou nesta quinta-feira o Nano Banana 2, nova versão de seu modelo de geração e edição de imagens por inteligência artificial. A atualização sucede o Nano Banana original, lançado em agosto, e o Nano Banana Pro, apresentado em novembro. Segundo a empresa, a novidade começa a ser disponibilizada hoje em diferentes produtos do ecossistema da companhia.

O lançamento ocorre em meio à disputa crescente no setor de IA generativa. De acordo com o Google, o modelo anterior viralizou e impulsionou o uso do aplicativo Gemini, enquanto a evolução da família Gemini tem ampliado o engajamento de usuários. A empresa afirma que a nova versão combina recursos avançados do modelo Pro com a velocidade dos modelos Flash.

Exemplo de imagem criada no novo Nano Banana 2 (Imagem: Google / Divulgação)

Novo modelo une recursos avançados e maior velocidade

Chamado oficialmente de Nano Banana 2 (Gemini 3.1 Flash Image), o modelo foi desenvolvido para oferecer geração e edição de imagens com maior rapidez, mantendo capacidades de raciocínio e qualidade visual. Ele utiliza os modelos Flash do Gemini, descritos como mais rápidos e econômicos, o que permite respostas ágeis na criação de imagens.

Entre os recursos destacados estão o uso de conhecimento avançado de mundo, alimentado por informações em tempo real e imagens provenientes da busca na web, além de melhor capacidade de seguir instruções complexas. O modelo também promete renderização de texto mais precisa e possibilidade de tradução e localização de textos dentro das imagens.

O Google afirma ainda que houve melhorias em consistência de assunto, permitindo manter a semelhança de até cinco personagens e a fidelidade de até 14 objetos em um mesmo fluxo de trabalho. Também há suporte a diferentes proporções e resoluções, de 512 pixels até 4K.

Leia mais:

Integração a produtos e ferramentas do Google

O Nano Banana 2 passa a ser distribuído em diversos serviços da empresa. Ele substituirá o Nano Banana Pro nos modelos Fast, Thinking e Pro do aplicativo Gemini, embora assinantes Google AI Pro e Ultra mantenham acesso ao Pro para tarefas específicas.

O modelo também está disponível no Modo IA e no Lens da busca do Google, no AI Studio e na API do Gemini em prévia, além do Vertex AI no Google Cloud. No Flow, ferramenta de vídeo com IA da companhia, torna-se o modelo padrão de geração de imagens. A tecnologia também passa a integrar sugestões no Google Ads.

gemini
Nano Banana 2 substitui antecessores no app Gemini (Imagem: Google / Divulgação)

Segundo dados divulgados anteriormente pela empresa, o Nano Banana original atraiu 13 milhões de novos usuários para o Gemini em quatro dias, em setembro. Até meados de outubro, o modelo havia gerado mais de 5 bilhões de imagens. Já o Gemini 3, lançado em novembro, contribuiu para que o aplicativo alcançasse mais de 750 milhões de usuários ativos mensais no fim de dezembro.

O Google também informou que segue ampliando mecanismos de identificação de conteúdo gerado por IA. A tecnologia SynthID, integrada a credenciais C2PA, já foi utilizada mais de 20 milhões de vezes no app Gemini desde novembro para verificar imagens, vídeos e áudios criados com IA.

O post Google lança Nano Banana 2 com foco em velocidade apareceu primeiro em Olhar Digital.

Google lança Nano Banana 2 com foco em velocidade Read More »

Data Centers Brasil E1758639458800 1024x577

Por que o Redata acabou? Entenda o fim dos incentivos para data centers no Brasil

O programa Redata, que dava descontos em impostos para incentivar a construção de data centers no Brasil, chegou ao fim nesta quinta-feira (26). Isso aconteceu porque a regra que garantia esse alívio (uma medida provisória) perdeu a validade.

O plano era substituir essa regra temporária, criada pelo governo em setembro de 2025, pelo Projeto de Lei nº 278 de 2026, aprovado pela Câmara dos Deputados na quarta-feira (25). Mas o Senado não votou a proposta dentro do prazo legal. O presidente da Casa, Davi Alcolumbre (União Brasil-AP), encerrou a sessão sem decidir sobre o tema, o que pegou o governo de surpresa.

Governo estuda meios de reativar incentivos sem violar a Lei de Responsabilidade Fiscal

Agora, o Ministério da Fazenda tenta descobrir se existe um caminho jurídico para reativar os incentivos sem desrespeitar as leis de controle de gastos. 

Com o fim do Regime Especial de Tributação para Serviços de Datacenter (nome completo do Redata), volta a cobrança de impostos como IPI, PIS/Cofins e Imposto de Importação sobre os equipamentos usados nos data centers (você encontra mais detalhes sobre o programa no final desta matéria). O problema é que o programa era considerado essencial para atrair parte dos US$ 50 bilhões (aproximadamente R$ 257 bilhões) que o setor pretende investir na América Latina.

Redata era considerado essencial para atrair parte dos bilhões de dólares que o setor pretende investir no Brasil e na América Latina (Imagem: AlexLMX/Shutterstock)

O governo defende que ter esses data centers aqui é uma questão de segurança e soberania nacional. Hoje, 60% dos dados pessoais dos brasileiros são processados em outros países, longe do alcance direto das nossas leis de proteção. Além disso, depender de infraestrutura estrangeira deixa os serviços digitais mais caros e gera prejuízo para a economia do país. Em 2025, o Brasil gastou US$ 7,9 bilhões (R$ 41 bilhões) a mais do que recebeu nesse setor.

Empresas de tecnologia criticam a falta de votação. Para elas, o Brasil está perdendo a chance de ser competitivo nesse setor. De um lado, Alcolumbre justifica que o projeto chegou tarde demais ao Senado. De outro, o governo afirma que o texto já estava alinhado entre as Casas (mas já se percebia um impasse no Congresso sobre o tema). O maior obstáculo agora é uma lei de 2025 que proíbe novos benefícios fiscais. A volta do Redata depende de um novo acordo político entre o governo e os presidentes da Câmara e do Senado.

Glossário

O que é data center:

  • Um data center é uma instalação (física ou modular) onde ficam servidores, redes e sistemas de armazenamento que processam e guardam dados de empresas e serviços online;
  • Ele fornece energia, refrigeração, segurança e conexão para manter aplicativos e sites funcionando com alta disponibilidade;
  • Com o avanço das IAs, esse é um mercado em expansão em todo o mundo.

O que o PL do Redata determinava:

  • As empresas interessadas em investir no setor aqui no Brasil vão contar com a suspensão de tributos por cinco anos na compra de equipamentos.
  • A habilitação no Redata será autorizada pelo Ministério da Fazenda e envolve diversos tributos na compra de componentes eletrônicos – seja no mercado interno ou por importação. São eles: Imposto de Importação, PIS/Cofins, PIS/Cofins-Importação e Imposto sobre Produtos Industrializados (IPI).
  • A empresa vendedora dos equipamentos também será beneficiada, mas apenas para os produtos usados na fabricação dos computadores do data center.
  • No caso do IPI, a suspensão vale para componentes industrializados na Zona Franca de Manaus e listados pelo governo.
  • No caso do Imposto de Importação, a suspensão vale para produtos sem similar no mercado interno.
  • Depois de cumpridos todos os requisitos e entrega dos produtos, a suspensão será convertida em isenção definitiva.

Exemplos de contrapartidas presentes no PL:

  • Uso de energia de fonte limpa (hidrelétricas) ou renovável (solar e eólica);
  • Para ter direito aos benefícios, também é preciso estar em dia com os tributos federais;
  • Direcionar ao mercado interno um mínimo de 10% do fornecimento efetivo de processamento;
  • Realizar investimentos no país equivalentes a 2% do valor dos produtos comprados no mercado interno ou importados com o benefício fiscal;
  • Honrar a totalidade de sua demanda contratual de energia elétrica – seja com contratos de suprimento ou autoprodução de fontes limpas ou renováveis.

(Essa matéria usou informações de CNN Brasil e G1.)

O post Por que o Redata acabou? Entenda o fim dos incentivos para data centers no Brasil apareceu primeiro em Olhar Digital.

Por que o Redata acabou? Entenda o fim dos incentivos para data centers no Brasil Read More »

024 TIVITA YouTube 860x484 300x169

A saúde ainda é analógica no Brasil. A IA pode ajudar a resolver esse problema

Quem já precisou circular por clínicas e hospitais conhece a sensação de repetir as mesmas informações várias vezes, preencher formulários semelhantes, enviar documentos por mensagem e esperar retorno sobre autorização de exames. Em um país que desenvolveu bancos digitais sofisticados e exporta tecnologia no agronegócio, a rotina administrativa da saúde ainda parece, muitas vezes, analógica. […]

O post A saúde ainda é analógica no Brasil. A IA pode ajudar a resolver esse problema apareceu primeiro em NeoFeed.

A saúde ainda é analógica no Brasil. A IA pode ajudar a resolver esse problema Read More »

Jamie Dimon Banco Central Eua 300x169

IA assusta Wall Street, mas Jamie Dimon, do J.P. Morgan, diz que o medo é exagerado

Os últimos dias têm sido de preocupação para os principais investidores de Wall Street, principalmente após a publicação de um relatório da Citrini Research, trazendo hipóteses de como a inteligência artificial (IA) poderia transformar os meios de pagamento. O resultado foi a queda das ações dos principais bancos, desde segunda-feira, 23 de fevereiro. Mas, para […]

O post IA assusta Wall Street, mas Jamie Dimon, do J.P. Morgan, diz que o medo é exagerado apareceu primeiro em NeoFeed.

IA assusta Wall Street, mas Jamie Dimon, do J.P. Morgan, diz que o medo é exagerado Read More »

Openai Perdas 300x169

Nvidia reduz o apetite pela dona do ChatGPT, mas valuation aumenta

Cinco meses após ter anunciado uma carta de intenções de US$ 100 bilhões na OpenAI, a Nvidia agora está perto de concretizar um acordo com a startup de Sam Altman, mas por um valor bem menor. A perspectiva é pela conclusão de um investimento de US$ 30 bilhões nos próximos dias. O cheque da empresa […]

O post Nvidia reduz o apetite pela dona do ChatGPT, mas valuation aumenta apareceu primeiro em NeoFeed.

Nvidia reduz o apetite pela dona do ChatGPT, mas valuation aumenta Read More »