inteligência artificial

Auto Added by WPeMatico

Vale trocar de chatbot? Veja o que muda entre ChatGPT, Claude e Gemini

A disputa entre ChatGPT, Claude e Gemini ganhou novos contornos após um acordo firmado pela OpenAI com o Departamento de Guerra dos Estados Unidos. O movimento ocorreu em meio a um embate em Washington envolvendo a Anthropic e o Pentágono e acabou influenciando parte dos usuários a reconsiderar qual chatbot utilizar.

Depois que a OpenAI fechou seu próprio acordo, houve uma reação de apoio à Anthropic, levando o Claude ao primeiro lugar na App Store durante o fim de semana, enquanto o ChatGPT vem sofrendo desinstalações em massa. A mudança reacendeu o debate sobre quais recursos cada plataforma oferece — e o que o usuário pode ganhar ou perder ao trocar de aplicativo.

Acordo da OpenAI com o Departamento de Guerra dos Estados Unidos gerou insatisfação entre uma parte dos usuários (Imagem: jackpress/Shutterstock)

Recursos disponíveis nas versões gratuitas

Nas versões gratuitas mais atualizadas, ChatGPT, Claude e Gemini oferecem conversas por texto e áudio, além de geração de código e análise de fotos. Esses são os pontos em comum entre os três serviços.

As diferenças aparecem nas funções multimídia. A geração de imagens por IA está disponível no ChatGPT e no Gemini, mas não no Claude. Já a geração de vídeo surge de forma limitada no ChatGPT, não aparece no Claude e é oferecida pelo Gemini. Embora não seja possível solicitar vídeos diretamente na interface do ChatGPT, o aplicativo de geração de vídeo Sora, da OpenAI, está gratuito no momento.

Claude Anthropic
Claude não conta com geração de imagens e vídeos (Imagem: gguy / Shutterstock.com)

O Gemini também inclui geração de música, recurso ausente nos outros dois, e é o único indicado como tendo a maior janela de contexto na comparação.

Leia mais:

Integrações e diferenciais

No campo das integrações, o Claude permite conexão com ferramentas como Figma, Slack e Canva, algo que não está presente no ChatGPT e Gemini.

Em relação a anúncios, Claude e Gemini aparecem por enquanto sem anúncios, enquanto o ChatGPT já conta com anúncios na versão gratuita. No recurso de Deep Research, ChatGPT e Gemini oferecem a funcionalidade nas versões gratuitas mais recentes, enquanto no Claude ela está restrita a planos pagos.

O aplicativo Google Gemini aparece na tela. Gemini é uma aplicação de inteligência artificial produzida pela Google. Nova York, EUA 14.05.2025
Integração do Gemini com o Google é nativa (Imagem: miss.cabul / Shutterstock.com)

Os três contam com integração com o Google, sendo que no Gemini ela é nativa. Já funcionalidades como análise de vídeo e câmera ao vivo estão disponíveis no ChatGPT e no Gemini, mas não no Claude.

O post Vale trocar de chatbot? Veja o que muda entre ChatGPT, Claude e Gemini apareceu primeiro em Olhar Digital.

Vale trocar de chatbot? Veja o que muda entre ChatGPT, Claude e Gemini Read More »

IA no Irã: tecnologia permite ataques ‘mais rápidos que o pensamento’, diz jornal

O uso de ferramentas de inteligência artificial (IA) em ataques contra o Irã marca o início de uma era de bombardeios executados numa velocidade “superior ao pensamento humano”, segundo o jornal The Guardian. Para você ter ideia, as forças armadas dos EUA e de Israel lançaram quase 900 ataques em apenas 12 horas. Um dos resultados dessa saraivada foi a morte do líder supremo iraniano, o aiatolá Ali Khamenei.

Especialistas consultados pelo jornal chamam esse fenômeno de “compressão de decisão“. Isso porque a IA diminui drasticamente o tempo entre encontrar um alvo e autorizar o disparo. O receio de acadêmicos é que militares e advogados passem apenas a carimbar decisões automatizadas, perdendo o controle real sobre operações de guerra.

IA acelera o ritmo da guerra – e isso preocupa especialistas

Por um tempo, o exército dos Estados Unidos usou o Claude, modelo de IA da Anthropic, integrado a um sistema da empresa Palantir para agilizar a análise de informações. A tecnologia processa rapidamente grandes volumes de dados, como vídeos de drones e conversas interceptadas, para sugerir alvos. Com isso, a fase de planejamento, que levava semanas, passou a tomar bem menos tempo.

O exército dos Estados Unidos usou o Claude, IA da Anthropic, integrado a outro sistema para agilizar a análise de informações para atacar Irã (Imagem: gguy/Shutterstock)

O software da Palantir usa aprendizado de máquina para indicar as melhores armas, levando em conta o estoque e o sucesso em ataques anteriores. Além disso, o sistema utiliza raciocínio automatizado para conferir se o ataque possui justificativa legal antes de sugerir o bombardeio. Essa velocidade permite destruir a liderança e a capacidade de resposta do inimigo de forma quase simultânea.

Enquanto os americanos avançam, o programa de IA do Irã é considerado pequeno e prejudicado por sanções internacionais. Apesar dessa limitação tecnológica, o governo iraniano afirmou em 2025 que já utiliza sistemas de IA na mira de seus mísseis balísticos. O cenário atual reforça o domínio tecnológico de superpotências do setor, como os EUA e a China.

Professores de ética alertam que a dependência excessiva dessas ferramentas pode causar o “descarregamento cognitivo” nos militares. Isso acontece quando os humanos se desligam das consequências dos ataques, já que o esforço de pensar foi feito por uma máquina. Além disso, com janelas de tempo tão curtas, a capacidade de avaliar criticamente as opções sugeridas pela IA acaba reduzida, evidentemente.

Num episódio recente, um ataque atingiu uma escola no sul do Irã e matou 165 pessoas. E muitas delas eram crianças. A ONU classificou o ocorrido como uma grave violação das leis humanitárias, enquanto militares dos EUA investigam o caso. Apesar desses riscos, empresas como a OpenAI continuam a fechar acordos milionários para fornecer tecnologia ao Pentágono.

O post IA no Irã: tecnologia permite ataques ‘mais rápidos que o pensamento’, diz jornal apareceu primeiro em Olhar Digital.

IA no Irã: tecnologia permite ataques ‘mais rápidos que o pensamento’, diz jornal Read More »

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa

A decisão da OpenAI de fechar uma parceria com o Departamento de Guerra (antigo Departamento de Defesa) dos Estados Unidos não caiu bem entre os usuários. As desinstalações do aplicativo do ChatGPT aumentaram em 295% no sábado (28 de fevereiro) em relação ao dia anterior.

Os dados são da empresa de inteligência de mercado Sensor Tower, divulgados pelo TechCrunch. O salto nesse número contrasta com a média diária registrada nos 30 dias anteriores, quando a mesma taxa ficava em torno de 9%.

E não foram apenas as desinstalações que afetaram o ChatGPT. Na sexta-feira (27), antes da divulgação do acordo da OpenAI com o Pentágono, a taxa de downloads havia crescido 14%. No sábado, depois do acordo, caiu 13% em relação ao dia anterior. No domingo, caiu mais 5%.

As quedas vieram após a OpenAI firmar um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Departamento de Guerra para fornecer IA voltada à vigilância militar. Antes disso, a Anthropic tinha um acordo com o Pentágono para a mesma finalidade, mas se recusou a flexibilizar suas regras de segurança para permitir o uso do Claude em operações militares perigosas. A rival desfez a parceria com o governo e a OpenAI entrou no lugar.

Mesmo com a perda do contrato federal, a Anthropic experienciou o efeito inverso: enquanto o ChatGPT caiu, o Claude cresceu em downloads.

Comparação nos downloads dos aplicativos ChatGPT (OpenAI) e Claude (Anthropic) [Imagem: Appfigures)

ChatGPT caindo, Claude crescendo

Após a recusa da Anthropic em ceder o Claude para aplicações militares perigosas, os downloads do aplicativo nos Estados Unidos subiram 37% na sexta-feira e 51% no sábado, de acordo com a Sensor Tower.

Os números sugerem que, aparentemente, parte dos consumidores aprovou a postura adotada pela desenvolvedora.

A repercussão também se refletiu no desempenho do aplicativo nas lojas digitais. No sábado, o Claude alcançou o primeiro lugar em downloads na App Store dos EUA – e continuou assim até segunda-feira (2). Para se ter uma ideia, uma semana antes, o app estava 20 posições abaixo no ranking.

Leia mais:

Além da Sensor Tower, outras empresas de monitoramento de mercado registraram tendências semelhantes:

  • A Appfigures apontou que, pela primeira vez, o total de downloads diários do Claude nos EUA superou o do ChatGPT;
  • Segundo as estimativas, o crescimento do app no sábado foi ainda mais expressivo, chegando a 88% em comparação com o dia anterior;
  • O avanço não ficou restrito ao mercado americano. A Appfigures informou que o Claude passou a ocupar o topo da categoria de aplicativos gratuitos para iPhone em seis países fora dos EUA: Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça;
  • Já a Similarweb estimou que, na última semana, os downloads do Claude nos EUA foram cerca de 20 vezes maiores do que os registrados em janeiro. A empresa destacou que o aumento pode estar associado a múltiplos fatores, e não exclusivamente à controvérsia envolvendo o Pentágono.

A reação também apareceu nas avaliações do ChatGPT. De acordo com a Sensor Tower, as avaliações de uma estrela para o aplicativo cresceram 775% no sábado e 100% no domingo. No mesmo intervalo, as avaliações máximas (cinco estrelas) caíram 50%.

O post Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa apareceu primeiro em Olhar Digital.

Revés para a OpenAI: usuários estão desinstalando o ChatGPT em massa Read More »

Meta está testando sua própria assistente de compras de IA

A Meta começou a testar uma ferramenta de compras baseada em inteligência artificial. O recurso vem para competir com outros chatbots que já têm essa funcionalidade, como ChatGPT e Gemini, e inserir a IA da empresa no ramo do comércio eletrônico.

Por ora, o recurso aparece para alguns usuários que acessarem o navegador Meta AI pelo desktop nos Estados Unidos, com o nome “Shopping research” (Pesquisa de compras). A Bloomberg obteve acesso e fez o teste.

Quando um usuário faz uma solicitação de pesquisa para determinado produto, o chatbot apresenta uma seleção visual de itens, que inclui um carrossel de imagens, preços, informações da marca e um link direto para a compra.

O diferencial do recurso é que ele oferece uma breve explicação justificando a recomendação de cada item. Se a Meta AI tiver acesso às informações do usuário, pode personalizar ainda mais as respostas. O site relatou que, ao pedir dicas de jaquetas puffer, a ferramenta indicou uma variedade de itens da seção feminina de lojas que entregavam em Nova York, atrelando a sugestão ao gênero e à localização.

À Bloomberg, a big tech confirmou que a ferramenta está em testes, mas não deu detalhes adicionais. Não há uma previsão de lançamento oficial e, por ora, não é possível finalizar a compra diretamente pela interface da IA.

Ferramenta da Meta ainda não tem data para ser lançada oficialmente (Imagem: PJ McDonnell/Shutterstock)

Meta quer entrar no comércio eletrônico com IA

O recurso não é exatamente uma surpresa. No início do ano, durante uma teleconferência de resultados, o CEO da Meta, Mark Zuckerberg, já havia mencionado aos investidores que a empresa estava trabalhando no lançamento de ferramentas de compras que utilizam agentes de IA.

Além disso, o próprio mercado de IA já conta com ferramentas similares desenvolvidas por companhias rivais. A OpenAI, por exemplo, tem um assistente de compras dedicado para o ChatGPT. Gemini, do Google, e Perplexity também têm assistentes com a mesma proposta.

O post Meta está testando sua própria assistente de compras de IA apareceu primeiro em Olhar Digital.

Meta está testando sua própria assistente de compras de IA Read More »

Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono

A OpenAI firmou um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Pentágono para fornecer inteligência artificial (IA) voltada à vigilância militar. O acordo foi fechado após o colapso das negociações entre o Departamento de Defesa e a Anthropic, que recusou os termos exigidos pelo governo.

A divergência central envolve o monitoramento de cidadãos americanos e o uso da tecnologia em operações de segurança nacional. Enquanto a Anthropic priorizou restrições éticas sobre vigilância doméstica, a OpenAI aceitou as condições governamentais para integrar seus modelos de linguagem à infraestrutura de defesa dos EUA.

Anthropic interrompe negociações por restrições ao monitoramento de cidadãos

As conversas entre a Anthropic e o Pentágono falharam minutos antes do prazo final estabelecido pelo Secretário de Defesa, Pete Hegseth, segundo o jornal The New York Times. O impasse central foi a exigência do governo pelo uso irrestrito das ferramentas de IA para vigilância doméstica. A empresa se recusou a ceder em pontos que violariam suas políticas de segurança e ética de dados pessoais.

O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana (Imagem: Ahyan Stock Studios/Shutterstock)

O diretor de tecnologia do Departamento de Defesa, Emil Michael, liderou as tratativas de um contrato avaliado em US$ 200 milhões. O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana. A resistência da startup gerou atritos diretos com a cúpula do governo e resultou no fim do diálogo.

A Anthropic buscava garantir que seus modelos não fossem aplicados em ações de vigilância em solo americano. O Departamento de Defesa, contudo, demandava flexibilidade total para interpretar o que seria considerado monitoramento legal sob a legislação vigente. Essa divergência semântica e ética foi o principal gatilho para o encerramento do contrato na última sexta-feira (28).

O fracasso da parceria resultou na designação da Anthropic como risco à cadeia de suprimentos pelo governo federal. O presidente dos EUA, Donald Trump, ordenou que agências federais suspendessem o uso das tecnologias da empresa logo após o colapso do acordo.

OpenAI aceita termos do Pentágono e assume contrato de inteligência militar

Pouco após o recuo da Anthropic, o CEO da OpenAI, Sam Altman, anunciou um acordo com o Departamento de Defesa. A empresa assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono. A manobra foi vista como uma resposta estratégica para ocupar o vácuo deixado pela concorrente.

Logo da OpenAI em um smartphone
A OpenAI assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono (Imagem: Thrive Studios ID/Shutterstock)

A OpenAI concordou com cláusulas que permitem a utilização de seus sistemas para análise de dados de vigilância. Altman defendeu a posição afirmando que a empresa não deseja opinar sobre a legalidade de ações militares específicas, mas fornecer tecnologia de ponta. O acordo permite que o Pentágono utilize a infraestrutura da OpenAI para fins de segurança nacional.

Críticos e especialistas em privacidade consultados pelo The Verge questionam a conformidade do pacto com os princípios de segurança originais da OpenAI. A mudança na política de uso da empresa, ocorrida anteriormente, já havia removido a proibição explícita de aplicações para “fins militares e bélicos”. Essa alteração facilitou juridicamente a assinatura do contrato e o uso de modelos como o GPT-4.

O Pentágono planeja utilizar a tecnologia para acelerar o desenvolvimento de sistemas autônomos e o processamento massivo de informações de inteligência. A parceria estabelece a OpenAI como o principal fornecedor de IA generativa para a defesa dos Estados Unidos. E o movimento consolida uma fase na qual a eficiência operacional militar sobrepõe-se a restrições de monitoramento.

O post Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono apareceu primeiro em Olhar Digital.

Como a OpenAI aproveitou ‘vácuo’ da Anthropic para fornecer IA ao Pentágono Read More »

TSE aperta cerco contra IA e redes sociais nas eleições de 2026

O Tribunal Superior Eleitoral (TSE) aprovou por unanimidade, na noite de segunda-feira (02), a minuta das novas regras para o uso de inteligência artificial nas eleições de 2026. A principal novidade é que, faltando três dias para a votação, fica proibido espalhar conteúdos criados por IA que usem imagem ou voz de candidatos.

Essa regra vale tanto para o primeiro quanto para o segundo turno e continua valendo até 24 horas depois do fim da eleição. O objetivo é evitar que vídeos falsos (deepfakes) enganem o eleitor na última hora. Além disso, sites e redes sociais não podem usar IA para recomendar candidatos ou dar opinião sobre em quem você deve votar.

Justiça Eleitoral define como as redes sociais devem agir e como combater fake news

Na minuta aprovada pelo TSE, as grandes empresas de tecnologia precisam ter planos para monitorar e diminuir os riscos durante as eleições. Os sistemas de IA dessas redes não podem favorecer nenhum partido ou campanha específica, por exemplo. A ideia é garantir que os algoritmos não influenciem a sua escolha, proibindo qualquer tipo de recomendações automáticas que indiquem preferência eleitoral.

Outro ponto importante é a proibição total do uso de IA para criar fotos ou vídeos que mostrem candidatos em cenas de nudez ou sexo. Também não será permitido usar a tecnologia para criar propagandas que representem violência política contra a mulher. Quem desrespeitar essas regras terá o conteúdo apagado imediatamente e poderá responder por crime eleitoral.

Os juízes que cuidam das eleições agora têm mais poder para mandar apagar informações que sejam mentiras óbvias. O foco principal são aqueles boatos que tentam atacar as urnas eletrônicas ou o trabalho da própria Justiça Eleitoral.

Se uma empresa de tecnologia for avisada e não tirar o conteúdo ilegal do ar, ela poderá ser punida. Mas a justiça deixou claro que a suspensão de perfis só vai acontecer em casos de usuários que sejam comprovadamente falsos ou controlados por robôs. Isso serve para desarticular grupos que espalham mentiras sistematicamente sem prejudicar a liberdade de usuários reais.

A publicação do texto final dessas novas regras está prevista para até 5 de março de 2026. O grande desafio daqui para frente será fiscalizar tudo isso e agir rápido o suficiente, principalmente naquelas 72 horas de silêncio antes da votação. A ver se vão conseguir.

(Essa matéria usou informações de Agência Brasil.)

O post TSE aperta cerco contra IA e redes sociais nas eleições de 2026 apareceu primeiro em Olhar Digital.

TSE aperta cerco contra IA e redes sociais nas eleições de 2026 Read More »

Claude: Anthropic libera recurso de memória para usuários gratuitos

A Anthropic anunciou que está levando mais um recurso antes restrito a assinantes pagos para o plano gratuito do Claude. A partir de agora, usuários da versão gratuita do chatbot poderão optar por permitir que a ferramenta faça referência a conversas anteriores para informar suas respostas.

A empresa tornou o Claude capaz de lembrar interações passadas pela primeira vez em agosto do ano passado. No fim do ano, adicionou a capacidade de compartimentalizar memórias. Agora, a funcionalidade de memória passa a integrar também o plano gratuito.

A mudança ocorre em um momento oportuno: mais cedo, a Anthropic facilitou a importação de conversas anteriores de um chatbot concorrente para o Claude.

Após ativar a memória, o usuário pode desativar o recurso a qualquer momento. É possível apenas pausar a funcionalidade — preservando as memórias para uso futuro — ou excluí-las completamente, garantindo que não fiquem armazenadas nos servidores da Anthropic.

Desenvolvedora do Claude, Anthropic entrou em rota de colisão com o governo dos EUA (Imagem: gguy/Shutterstock)

Leia mais:

Anthropic e Claude: popularidade em alta e disputa com o governo dos EUA

  • O Claude vive um momento de popularidade crescente. Recentemente, o aplicativo alcançou o primeiro lugar entre os apps gratuitos na App Store;
  • Ao mesmo tempo, a Anthropic está envolvida em uma disputa contratual de alto risco com o governo dos Estados Unidos relacionada a salvaguardas de IA;
  • Na sexta-feira (27), o secretário de Defesa dos EUA, Pete Hegseth, classificou a empresa como um “risco na cadeia de suprimentos” depois que a Anthropic se recusou a assinar um contrato que, segundo a startup, iria contra seus princípios de não militarizar a IA;
  • Após a declaração de Hegseth, a Anthropic afirmou que vai contestar a designação.

Por enquanto, resta acompanhar como a situação irá evoluir e quais podem ser as implicações para a empresa.

O post Claude: Anthropic libera recurso de memória para usuários gratuitos apareceu primeiro em Olhar Digital.

Claude: Anthropic libera recurso de memória para usuários gratuitos Read More »

Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic

No último sábado (28), enquanto os Estados Unidos iniciavam a Operação Epic Fury – uma ofensiva aérea de larga escala contra alvos no Irã –, o Departamento de Defesa se viu em meio a uma contradição tecnológica sem precedentes.

Segundo informações da Reuters e do Wall Street Journal, o Pentágono utilizou ferramentas de inteligência artificial da Anthropic para coordenar os ataques, menos de 24 horas após o presidente Donald Trump ter ordenado o banimento da empresa, classificando-a como um “risco à segurança nacional”.

Inteligência artificial em campo

A ofensiva utilizou um arsenal diversificado, incluindo bombardeiros furtivos B-2 e mísseis Tomahawk. No entanto, o “cérebro” por trás de parte da operação foi o Claude, o modelo de linguagem da Anthropic que concorre diretamente com o ChatGPT.

De acordo com o WSJ, o Comando Central dos EUA (Centcom) integrou a ferramenta para avaliações de inteligência, identificação de alvos e simulação de cenários de batalha. A ironia é cronológica: o uso intensivo da IA ocorreu poucas horas depois de Trump assinar uma diretiva ordenando que as agências federais cessassem o uso dos programas da startup.

O cabo de guerra

O estopim da crise entre o governo e a Anthropic, conforme detalhado pelo portal Axios, foi a recusa do CEO da empresa, Dario Amodei, em atender a um ultimato do Pentágono. O Secretário de Defesa, Pete Hegseth, exigia “acesso irrestrito” aos modelos de IA, o que implicava na remoção de travas de segurança.

A Anthropic, que possui um contrato de US$ 200 milhões com o governo desde 2025, traçou uma linha ética clara:

  • Vigilância: recusa em permitir o uso da IA para monitoramento em massa de cidadãos.
  • Autonomia bélica: proibição do uso do sistema em armas totalmente autônomas e letais sem supervisão humana.

Em sua rede social, Trump criticou a postura da empresa, afirmando que o “egoísmo” da startup colocava tropas americanas em perigo. Por outro lado, a Anthropic defende que a tecnologia atual não é confiável o suficiente para operar armas letais sem o controle final de um ser humano, como reportado pelo G1.

Um divórcio complexo

Embora o governo tenha rotulado a Anthropic como um “risco à cadeia de suprimentos” – um selo geralmente reservado a adversários estrangeiros –, a desconexão não será imediata. O Wall Street Journal destaca que a IA da empresa está profundamente entranhada nas operações militares, tendo sido peça-chave até na captura do ex-presidente venezuelano Nicolás Maduro, em fevereiro.

Para substituir o Claude, o Pentágono já fechou acordos com a OpenAI e a xAI, de Elon Musk. No entanto, especialistas ouvidos pela imprensa americana alertam que o processo de transição pode levar pelo menos seis meses, dada a complexidade da integração dos sistemas via provedores como a Amazon e a Palantir.

A resistência do Vale do Silício

O caso da Anthropic parece ser o sintoma de um movimento maior. Segundo a Axios, grandes corporações americanas (de varejistas como Costco a gigantes da indústria como a 3M) começam a demonstrar uma “espinha dorsal” contra políticas da administração Trump, priorizando valores de mercado e diretrizes éticas em detrimento da conformidade imediata.

No campo de batalha do Irã, a Operação Epic Fury pode ter sido um sucesso militar, mas deixou exposta uma vulnerabilidade estratégica: a dependência de uma inteligência que o próprio governo não consegue (ou não é autorizado a) controlar totalmente.

O post Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic apareceu primeiro em Olhar Digital.

Como o Pentágono usou o Claude no Irã enquanto Trump bania a Anthropic Read More »

Além do EUV: ASML revela planos para dominar o futuro dos chips de IA

A ASML, gigante holandesa e peça-chave na engrenagem da tecnologia global, está traçando uma rota que vai muito além das famosas máquinas de litografia ultravioleta extrema (EUV). Em entrevista exclusiva à Reuters, a empresa revelou que planeja expandir seu portfólio para novas frentes de fabricação em um movimento estratégico para capturar uma fatia ainda maior do mercado de inteligência artificial.

Atualmente, a ASML é a única fornecedora no mundo das máquinas EUV, essenciais para que empresas como TSMC e Intel produzam os processadores mais avançados do planeta. No entanto, o objetivo agora é diversificar.

O grande foco da nova fase é o chamado empacotamento avançado. Se antes os chips eram projetados de forma plana, como casas térreas, a nova geração da IA exige estruturas que parecem arranha-céus, com múltiplas camadas de silício empilhadas e conectadas por furos nanométricos.

Essa mudança é vital para acelerar o processamento de modelos de linguagem e chatbots, como o ChatGPT. Conforme a complexidade aumenta, a precisão necessária para “colar” e conectar esses componentes torna-se um negócio altamente lucrativo.

“Olhamos não apenas para os próximos cinco anos, olhamos para os próximos 10, talvez 15 anos”, afirmou Marco Pieters, recém-nomeado Chief Technology Officer (CTO) da ASML.

O papel da IA na fabricação

A ASML também pretende aplicar inteligência artificial em seus próprios processos internos. Pieters, que possui experiência no desenvolvimento de software da companhia, indicou que a IA será usada para acelerar o software de controle das máquinas e otimizar a inspeção dos chips durante a construção.

Além disso, a empresa estuda como superar os limites físicos atuais. Hoje, o tamanho máximo de um chip que pode ser impresso é comparável ao de um selo postal. A ASML está pesquisando novas ferramentas de litografia e sistemas de escaneamento para permitir a criação de chips ainda maiores e mais potentes.

A dominância da ASML no setor é tão expressiva que seu valor de mercado já atinge os US$ 560 bilhões. Com as ações acumulando alta de mais de 30% apenas este ano, a expectativa de investidores sobre a gestão de Pieters e do CEO Christophe Fouquet é alta.

A empresa já deu os primeiros passos nessa nova direção com o lançamento do scanner XT:260, focado em memórias avançadas para IA. Sobre o futuro, Pieters é categórico: as novas ferramentas de empacotamento e conexão devem “coexistir ao lado do que temos feito nos últimos 40 anos”.

O post Além do EUV: ASML revela planos para dominar o futuro dos chips de IA apareceu primeiro em Olhar Digital.

Além do EUV: ASML revela planos para dominar o futuro dos chips de IA Read More »

WhatsApp: queda de braço com terceiros chega a outro nível com agentes de IA

A disputa pelo domínio da inteligência artificial (IA) dentro do WhatsApp ganhou um novo capítulo nesta segunda-feira (2), aprofundando o embate entre a Meta e um grupo que reúne as startups Zapia e Luzia, além das gigantes Microsoft e OpenAI.

No Brasil, o conflito já chegou ao Conselho Administrativo de Defesa Econômica (Cade) e também foi parar na Justiça, em embate que coloca em jogo o acesso à plataforma digital mais disseminada do país.

No centro da disputa está a oferta de chatbots de IA dentro do WhatsApp. Para as empresas envolvidas, marcar presença no aplicativo significa fincar posição estratégica no principal canal de comunicação digital dos brasileiros.

Após obter decisão judicial favorável para restringir concorrentes do Meta AI, a Meta, agora, enfrenta um novo movimento da Zapia, que promete elevar o nível de complexidade da briga.

Zapia tenta “contornar” políticas da Meta

  • A startup uruguaia, criada há dois anos, está, segundo o UOL, prestes a anunciar a oferta de agentes de IA — considerados símbolos da nova fase da IA;
  • Diferentemente dos chatbots tradicionais, esses agentes são descritos como robôs autônomos capazes de executar tarefas sozinhos, aprender as necessidades dos usuários e agir proativamente, antecipando demandas antes mesmo de serem solicitadas;
  • A novidade será lançada inicialmente no próprio aplicativo da Zapia, mas a empresa já testa a integração da função ao WhatsApp e pretende implementá-la futuramente na plataforma, segundo o UOL. Internamente, a chegada desses assistentes ao app da Meta é vista como “bem provável”;
  • Caso se concretize, o movimento representará não apenas uma intensificação da presença da Zapia no território da concorrente, mas também uma antecipação à oferta de agentes dentro do ecossistema da Meta — a Manus AI, adquirida pela companhia de Mark Zuckerberg, já liberou agentes, porém no Telegram.

Atualmente, a Zapia afirma atender seis milhões de pessoas na América Latina. Seu agente de IA realiza reservas, cria lembretes, gerencia agendas, responde dúvidas e executa tarefas, como a maioria dos chatbots disponíveis no mercado.

Agora, com o lançamento do Zapia Max, a empresa inaugura sua entrada na era dos agentes de IA. O novo sistema poderá interagir com outros aplicativos para pesquisar e comparar preços em diferentes lojas, detectar quedas de valores, organizar caixas de e-mail e editar documentos ou planilhas.

O motor dessa transformação, diz o UOL, é o OpenClaw, sistema de código aberto projetado para atuar como agente de IA — com capacidade de controlar um computador, executar tarefas complexas e automatizar fluxos de trabalho. Entre suas vantagens está a possibilidade de operar diretamente no aparelho do usuário e também via plataformas de mensagem, como WhatsApp, Telegram, Discord e Slack.

Só há um porém: em postagem de blog passada, a Zapia desqualificou o OpenClaw ante sua própria ferramenta. A empresa uruguaia afirma que não concederá controle irrestrito ao OpenClaw em sua aplicação. Segundo a empresa, o agente só navegará e executará ações em nome dos usuários mediante permissões especiais.

Leia mais:

Startup uruguaia lidera revolução dos agentes de IA em mensageiros, como o WhatsApp (Imagem: Reprodução/Zapia)

Agentes de IA em alta

Os agentes de IA tornaram-se alvo de interesse das grandes empresas de tecnologia. O OpenClaw deu origem ao Moltbook, rede social que chamou atenção por ser alimentada exclusivamente por robôs, com humanos atuando apenas como espectadores.

Seu fundador, o desenvolvedor Peter Steinberger, foi recentemente contratado pela OpenAI, com anúncio feito pelo próprio Sam Altman. Steinberger continuará mantendo o sistema e o transferirá para uma fundação que receberá recursos da desenvolvedora do ChatGPT.

A própria Meta também investiu pesado nesse segmento. No ano passado, a empresa adquiriu a Manus AI por US$ 3 bilhões (R$ 15,5 bilhões). A companhia nasceu na China e foi posteriormente realocada em Singapura, destacando-se no desenvolvimento de agentes de IA.

O embate entre Meta e as startups ganhou força em janeiro, quando a big tech proibiu desenvolvedores de IA de oferecer seus serviços no WhatsApp. Permaneceram autorizadas apenas empresas que utilizam IA generativa para aprimorar o atendimento ao cliente. Zapia e Luzia denunciaram a conduta ao Cade, que suspendeu a medida no Brasil após abrir investigação para apurar se a restrição prejudicava a concorrência.

Em outros países, a disputa assumiu contornos diferentes. Onde não conseguiu manter o banimento, como na Itália, a Meta passou a cobrar por mensagem trocada com chatbots. No Brasil, porém, após obter decisão favorável, a empresa não tem planos de implementar a cobrança por ora, aponta o UOL.

Para a Zapia, a restrição imposta pela Meta acabou acelerando a transformação de seu próprio aplicativo no principal canal de distribuição. A estratégia se completa com o lançamento simplificado dos agentes de IA.

A startup uruguaia, inclusive, conta com reforço financeiro relevante. A empresa recebeu investimento de R$ 36 milhões da Prosus Ventures, braço de investimentos da Prosus, companhia holandesa comandada pelo brasileiro Fabrício Bloisi, ex-líder do iFood. Além do aporte financeiro, a expectativa é que a Zapia se beneficie da expertise do grupo em situações adversas, compartilhada por outras empresas investidas.

Considerada uma gigante discreta do setor de tecnologia, a Prosus é dona de iFood, Decolar e OLX, além de deter participação na chinesa Tencent — controladora do WeChat e de jogos, como League of Legends, Fortnite e Valorant — e no Nubank. Coincidentemente, também é investidora da Luzia, outra empresa que disputa espaço no WhatsApp.

Sob a liderança de Bloisi, o plano é ampliar os recursos destinados à Zapia e direcionar investimentos para outras startups de IA, fortalecendo a presença do grupo no setor e adicionando novos capítulos à disputa que tem o WhatsApp como palco principal.

O que diz a Zapia

O Olhar Digital entrou em contato com a Zapia e aguarda retorno.

O post WhatsApp: queda de braço com terceiros chega a outro nível com agentes de IA apareceu primeiro em Olhar Digital.

WhatsApp: queda de braço com terceiros chega a outro nível com agentes de IA Read More »