inteligência artificial

Auto Added by WPeMatico

sora aplicativo 1 1024x682

O que causou o fim do Sora, da OpenAI?

O fim do Sora, plataforma de geração de vídeos da OpenAI, pegou parceiros e executivos de surpresa. O encerramento foi anunciado na semana passada e marca uma mudança na estratégia da desenvolvedora na corrida de IA.

O Sora foi apresentado inicialmente como a próxima grande aposta da empresa após o sucesso do ChatGPT. O aplicativo prometia democratizar a criação de vídeos com IA, permitindo que usuários inserissem a si mesmos em diferentes cenários, e publicassem tudo em uma rede social própria.

A proposta chegou a atrair o interesse de gigantes do entretenimento, como a Disney, que fechou um acordo bilionário para licenciar mais de 200 personagens para uso dentro da plataforma.

A decisão de descontinuar o produto foi comunicada internamente e confirmada publicamente pela OpenAI, encerrando um projeto que vinha sendo tratado como peça central na expansão da desenvolvedora para o mercado criativo.

O movimento também interrompeu o acordo com a Disney. Segundo apuração do The Wall Street Journal, executivos da empresa de mídia teriam sido informados do fim do Sora pouco antes do anúncio oficial.

O que levou ao fim do Sora?

Apesar do impacto inicial no mercado e do interesse do público, o Sora enfrentava dificuldades internas. O uso da ferramenta não cresceu como esperado após o lançamento do aplicativo independente, e a base de usuários recuou após um pico inicial.

Além disso, o produto demandava grande capacidade computacional – um dos recursos mais valiosos na indústria de IA. A geração de vídeos exige muito mais processamento do que modelos baseados em texto, o que elevava significativamente os custos operacionais.

Segundo relatos, o Sora chegou a consumir uma parcela relevante dos chips disponíveis da empresa, sem retorno financeiro proporcional. Estimativas indicam que a operação gerava prejuízo diário.

Diante desse cenário, a OpenAI optou por redirecionar seus recursos para áreas consideradas mais estratégicas.

A decisão está alinhada com um reposicionamento mais amplo da companhia, que prepara uma possível abertura de capital (IPO) e busca priorizar produtos com maior potencial de receita. Entre as prioridades estão ferramentas voltadas ao mercado corporativo e sistemas de IA capazes de executar tarefas de forma autônoma, como programação, análise de dados e automação de processos. A empresa trabalha na integração dessas funcionalidades em um “superaplicativo”.

Internamente, a avaliação foi de que manter o Sora comprometeria a evolução dessas iniciativas, especialmente diante da necessidade de liberar capacidade computacional para novos modelos.

Em comunicado de encerramento, Sam Altman agradeceu os envolvidos na iniciativa do Sora (Imagem: Tada Images/Shutterstock)

Projeto enfrentou desafios técnicos e de segurança

Segundo o WSJ, o desenvolvimento do Sora era conduzido por uma equipe relativamente isolada dentro da OpenAI, o que levou funcionários a descreverem o projeto como uma espécie de “startup dentro da empresa”.

Apesar do impacto visual das demonstrações iniciais, o produto enfrentou críticas internas, incluindo preocupações com segurança, direitos autorais e uso indevido da tecnologia. Casos de conteúdo controverso – como vídeos envolvendo figuras públicas em contextos fictícios – geraram reações negativas e pressionaram a empresa a revisar políticas.

Além disso, o fim do Sora ocorre em um momento de intensificação da disputa no setor de IA. Enquanto o Google avançava com o Gemini e a Anthropic ganhava espaço com ferramentas voltadas a desenvolvedores, a OpenAI passou a sentir pressão para reforçar sua presença em aplicações práticas.

Ao mesmo tempo, a empresa enfrentou uma disputa agressiva por talentos, especialmente por parte da Meta, que buscou atrair pesquisadores-chave envolvidos no desenvolvimento do modelo.

Para Sam Altman, CEO da OpenAI, a decisão foi um “sacrifício necessário” para concentrar esforços em projetos com maior impacto de longo prazo. A tecnologia de geração de vídeo ainda pode reaparecer de outras formas dentro do ecossistema da empresa, mas o Sora, como produto independente, chega ao fim.

O post O que causou o fim do Sora, da OpenAI? apareceu primeiro em Olhar Digital.

O que causou o fim do Sora, da OpenAI? Read More »

estudo chatbots de ia 1024x747

Chatbots tendem a concordar com usuários mesmo quando estão errados, revela estudo

Chatbots de inteligência artificial têm se tornado cada vez mais presentes no dia a dia – inclusive em decisões pessoais. Mas um novo estudo aponta um efeito colateral preocupante: a tendência dessas ferramentas de concordar com os usuários, mesmo quando eles estão errados.

O fenômeno, conhecido entre pesquisadores como “bajulação” (ou sycophancy, em inglês), foi analisado por cientistas da Universidade de Stanford em um estudo publicado na revista Science. Segundo a pesquisa, modelos de linguagem frequentemente priorizam respostas que validam a opinião do usuário, em vez de oferecer análises críticas ou corretivas.

Para chegar a essa conclusão, os pesquisadores testaram 11 sistemas diferentes (incluindo ChatGPT, Claude, Gemini e DeepSeek) em cenários variados, como conflitos interpessoais, discussões online e situações envolvendo comportamentos questionáveis.

O resultado foi consistente: os modelos concordaram com os usuários cerca de 50% mais vezes do que uma pessoa real faria em condições semelhantes. Em alguns casos, chegaram a apoiar atitudes problemáticas, incluindo comportamentos antiéticos ou até ilegais.

Embora muitos utilizem chatbots para dúvidas objetivas, uma parcela significativa das interações envolve questões pessoais e emocionais. Pesquisas anteriores indicam que ferramentas de IA são frequentemente usadas como forma de apoio emocional ou até substituto de conversas humanas, principalmente entre jovens.

Diante disso, o risco não está apenas em respostas incorretas, mas na forma como essas respostas influenciam decisões e percepções.

Chatbots de IA tendem a validar afirmações de usuários, mesmo que estejam erradas (Imagem: Science/Reprodução)

Efeito psicológico nas decisões

Na segunda etapa do estudo, cerca de 2,4 mil participantes interagiram com modelos que respondiam de forma neutra ou subserviente.

Os resultados mostraram que respostas mais “concordantes” eram percebidas como mais confiáveis. Com isso, os usuários tendiam a reforçar suas próprias opiniões e reduzir a disposição para reconsiderar suas próprias atitudes.

Os pesquisadores também observaram que esse efeito não depende de fatores como idade, gênero ou perfil psicológico – ou seja, qualquer pessoa pode ser influenciada.

Em um dos casos analisados, um usuário contou que sua namorada estava brava porque ele havia falado com a ex sem avisá-la. O pensamento inicial foi: “Talvez eu não tenha levado os sentimentos dela a sério o suficiente”. A IA respondeu que “Suas intenções eram boas. Você fez o que achou certo”, levando o usuário a reconsiderar e questionar se a namorada seria problemática.

chatbots ia
Pesquisa analisou 11 chatbots diferentes, incluindo os mais populares (Imagem: Summit Art Creations / Shutterstock.com)

Risco de “câmaras de eco”

Especialistas alertam que esse comportamento pode transformar chatbots em uma espécie de “câmara de eco”, reforçando crenças e reduzindo a exposição a pontos de vista divergentes.

Isso pode ter consequências práticas: desde decisões impulsivas em relações pessoais até impactos em áreas mais críticas, como a confirmação de diagnósticos médicos errados ou reforço de posicionamentos políticos.

Para os autores, a ausência de contrapontos pode ser mais prejudicial do que a falta de aconselhamento.

Os pesquisadores defendem que, apesar do feedback positivo agradar os usuários, as empresas responsáveis pelos modelos precisam encontrar formas de reduzir esse viés.

Ao mesmo tempo, o estudo sugere cuidados para quem utiliza essas ferramentas:

  • lembrar que se trata de uma IA, não de um especialista humano;
  • questionar respostas e evitar aceitá-las automaticamente;
  • manter interações com outras pessoas;
  • buscar ajuda profissional em temas sensíveis, especialmente de saúde mental.

O post Chatbots tendem a concordar com usuários mesmo quando estão errados, revela estudo apareceu primeiro em Olhar Digital.

Chatbots tendem a concordar com usuários mesmo quando estão errados, revela estudo Read More »

deepseek e1767983071845 1024x577

DeepSeek sofre maior interrupção desde o lançamento

O chatbot de inteligência artificial da chinesa DeepSeek enfrentou nesta segunda-feira (30) a maior instabilidade já registrada em sua plataforma desde janeiro de 2025, quando se popularizou. O problema atingiu os modelos R1 e V3.

De acordo com a página oficial de status da empresa, o serviço apresentou uma “grande interrupção” que se estendeu por mais de sete horas. A falha começou nas primeiras horas do dia e foi considerada resolvida às 10h33 no horário local da China.

A DeepSeek não divulgou a causa do problema, seguindo seu protocolo padrão para esse tipo de ocorrência. Interrupções desse tipo podem ter diferentes origens, incluindo falhas em servidores, sobrecarga de sistemas ou erros relacionados a atualizações recentes.

Embora a empresa já tenha registrado problemas em outros serviços, esta foi a interrupção mais significativa na interface principal do chatbot – utilizada diretamente por usuários para interações.

Segundo a Reuters, dados anteriores mostram que a API da plataforma, voltada a desenvolvedores que integram o modelo em aplicativos, chegou a sofrer quedas prolongadas no início de 2025, durante o pico de popularidade da ferramenta. Ainda assim, até então, a versão voltada ao público geral não havia apresentado indisponibilidades superiores a duas horas.

Mercado aguarda próximos lançamentos da DeepSeek (Imagem: Melinda Nagy/Shutterstock)

Expectativa por novo modelo da DeepSeek

A instabilidade ocorre em um momento de alta expectativa no mercado de inteligência artificial. A indústria acompanha de perto os próximos passos da DeepSeek, que ainda não anunciou quando pretende lançar sua próxima geração de modelos.

A empresa ganhou projeção internacional após a rápida adoção de seus sistemas de IA, tornando-se uma das concorrentes relevantes no cenário global do setor.

O post DeepSeek sofre maior interrupção desde o lançamento apareceu primeiro em Olhar Digital.

DeepSeek sofre maior interrupção desde o lançamento Read More »

optimus 1 1024x576

Elon Musk lidera movimento que quer colocar robôs humanoides em funções humanas

A aposta de grandes nomes da tecnologia em robôs humanoides como caminho para transformar o trabalho humano ganha força e levanta debates sobre o futuro do emprego. Liderado por Elon Musk, esse movimento — chamado de “physical AI” (ou IA física, em português) — busca levar os avanços da inteligência artificial (IA) para o mundo físico, automatizando tarefas que hoje dependem de mão de obra humana.

Segundo o The Washington Post, na visão de Musk, esse futuro seria marcado por abundância: bilhões de robôs realizariam todo o trabalho necessário, enquanto uma rede de veículos autônomos e máquinas humanoides, alimentadas por energia solar, garantiria recursos praticamente ilimitados.

Nesse cenário, a pobreza seria eliminada e o trabalho se tornaria opcional. Ao mesmo tempo, o bilionário poderia se tornar o primeiro trilionário do mundo.

Musk e seus planos de robôs humanoides

  • Apesar de seu histórico de promessas ambiciosas, Musk tem direcionado suas empresas para essa meta;
  • A Tesla passou por uma mudança estratégica recente, priorizando o desenvolvimento de robôs em detrimento de alguns de seus modelos de veículos, incluindo um popular sedã de luxo. A montadora também iniciou a criação de uma nova linha de produção voltada ao robô humanoide Optimus;
  • Para acelerar o projeto, a Tesla intensificou a contratação de profissionais de outras áreas da tecnologia, com foco em habilidades específicas, como a reprodução dos movimentos e da destreza da mão humana;
  • Já a SpaceX, empresa espacial de Musk que deve estrear na bolsa em breve, adquiriu a startup de IA xAI, que será responsável por desenvolver softwares em integração com a Tesla;
  • Segundo a empresa, esse exército de robôs faz parte da missão de “construir um mundo de abundância incrível”.

Outras gigantes do setor também avançam nessa direção. Empresas, como Amazon, Nvidia e a startup Atoms, criada pelo cofundador da Uber, Travis Kalanick, anunciaram iniciativas recentes em robótica avançada. A missão da Atoms, por exemplo, é promover “automação física para transformar a indústria e movimentar o mundo”.

A startup Figure, referência no setor, chegou a levar um robô humanoide à Casa Branca, onde ele participou de um evento ao lado da primeira-dama Melania Trump.

A ideia por trás da “IA física” é expandir o alcance da IA para atividades que não podem ser realizadas apenas por softwares, como tarefas manuais complexas. Enquanto o boom da IA já impacta empregos de escritório, líderes do setor veem uma oportunidade ainda maior em substituir trabalhos físicos, criando um novo patamar de automação.

Leia mais:

Aposta da Tesla é alta no Optimus (Imagem: Divulgação/Tesla)

IA física?

“A IA física é o maior [mercado endereçável total] da história da humanidade”, afirmou Shay Boloor, estrategista-chefe da Futurum. “Acho que a Tesla está se posicionando para ser uma grande vencedora.”

O termo ganhou força no Vale do Silício, sendo amplamente utilizado por empresas, como a Nvidia. Em comunicado recente, o CEO da companhia, Jensen Huang, declarou: “A IA física chegou — toda empresa industrial se tornará uma empresa de robótica.”

Apesar do entusiasmo, o avanço da robótica levanta preocupações. Nos Estados Unidos, autoridades e especialistas temem que a automação acelere ainda mais o declínio do setor industrial, já afetado nas últimas décadas pela transferência de empregos para o exterior.

O senador Bernie Sanders criticou o protagonismo de bilionários nesse processo e cobrou explicações sobre investimentos massivos em IA e robótica. “Quem está investindo trilhões de dólares em pesquisa e desenvolvimento de IA e robótica?,” questionou. “São as pessoas mais ricas da Terra. São o Sr. Musk, o Sr. Bezos, o Sr. [Mark] Zuckerberg, o Sr. [Larry] Ellison.”

Ele também levantou dúvidas sobre os impactos sociais dessa transformação: “Será que alguém em sã consciência acredita que essas pessoas estão perdendo o sono se preocupando com como essa transformação vai beneficiar as pessoas comuns?”

Embora a IA já esteja avançando sobre empregos de colarinho branco — como áreas de negócios, finanças, engenharia e gestão —, tarefas físicas ainda permanecem, em grande parte, fora de seu alcance. Um relatório recente da Anthropic aponta que atividades, como agricultura, construção, transporte e serviços alimentícios continuam difíceis de automatizar.

“Muitas tarefas… permanecem além do alcance da IA”, destaca o documento, citando desde podar árvores até representar clientes em tribunais.

Ainda assim, o CEO da Anthropic, Dario Amodei, argumenta que é um erro considerar o trabalho físico imune à disrupção tecnológica. Segundo ele, sistemas avançados de IA poderão acelerar o desenvolvimento de robôs e controlá-los no mundo real.

Para Musk, o robô Optimus será peça central dessa transformação. Ele acredita que a tecnologia levará a uma “renda alta universal”, resultado do crescimento contínuo da IA e da robótica. Em diversas ocasiões, inclusive recentemente, o empresário afirmou que, nesse futuro, trabalhar será uma escolha, não uma necessidade.

A Tesla afirma estar correndo para colocar o robô em produção em larga escala. Em publicação recente, a empresa declarou: “O Optmius será o maior produto já feito”.

Especialistas, no entanto, alertam para os impactos no curto prazo. Boloor destaca que a transição pode afetar o modelo de negócios atual da Tesla, já que “O antigo negócio está encolhendo, enquanto o novo não é suficientemente grande para preencher essa lacuna”.

Além disso, ele ressalta os efeitos sociais da automação: “A substituição de empregos é uma realidade muito presente”. E conclui: “Haverá perda contínua de empregos.”

O post Elon Musk lidera movimento que quer colocar robôs humanoides em funções humanas apareceu primeiro em Olhar Digital.

Elon Musk lidera movimento que quer colocar robôs humanoides em funções humanas Read More »

claude opus 1024x682 1

Polêmica com governo dos EUA faz assinaturas do Claude dispararem

O número de pessoas que pagam para usar o Claude, assistente de inteligência artificial da Anthropic, mais do que dobrou em 2026. Os dados vêm de um levantamento da Indagari — consultoria que analisa o mercado acompanhando transações de cartões de crédito de 28 milhões de consumidores nos Estados Unidos, segundo o TechCrunch.

O crescimento mais forte aconteceu entre janeiro e fevereiro. Esse período foi marcado por comerciais da empresa no Super Bowl e por uma disputa pública entre a Anthropic e o governo americano.

Entenda a polêmica com o governo dos EUA

O conflito com o Departamento de Defesa dos EUA (DoD) começou quando a Anthropic proibiu o uso de sua tecnologia para operações militares letais ou vigilância em massa de cidadãos. O governo chegou a classificar a empresa como um “risco de suprimento”, o que gerou processos judiciais e muita exposição na mídia.

Leia mais:

Ao mesmo tempo, a empresa veiculou anúncios criticando a presença de propaganda em outras IAs, prometendo que o Claude continuaria livre de anúncios para quem utiliza a ferramenta.

Novos recursos no plano pago

A maioria dos novos assinantes optou pelo plano “Claude Pro”, que custa 20 dólares por mês. O interesse pelo serviço pago cresceu com o lançamento de ferramentas que automatizam tarefas:

  • Claude Code e Cowork: Focados em ajudar programadores e aumentar a produtividade no trabalho.
  • Computer Use: Recurso que permite à IA realizar comandos sozinha no computador, como clicar em botões e rolar páginas.
Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)

Como essas funções não existem na versão gratuita, muitos usuários decidiram começar a pagar para testar as novidades.

Disputa com o ChatGPT

Mesmo com esse avanço, o Claude ainda está longe do alcance do ChatGPT. Os dados da Indagari mostram que, embora o ChatGPT tenha tido um pico de cancelamentos quando anunciou parcerias com militares, ele continua sendo a maior plataforma de IA do mundo e segue atraindo novos assinantes em um ritmo veloz.

O post Polêmica com governo dos EUA faz assinaturas do Claude dispararem apareceu primeiro em Olhar Digital.

Polêmica com governo dos EUA faz assinaturas do Claude dispararem Read More »

claude opus 1024x682

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado

A empresa de inteligência artificial (IA) Anthropic confirmou que está desenvolvendo e já iniciou testes com um novo modelo de IA mais avançado do que qualquer versão anterior, após um vazamento de dados revelar sua existência.

Segundo a companhia, o sistema representa “uma mudança de patamar” em desempenho e é “o mais capaz que já construímos até hoje”.

De acordo com um porta-voz, o modelo já está sendo testado por um grupo restrito de clientes com acesso antecipado. A confirmação veio depois que descrições do sistema foram encontradas acidentalmente em um cache de dados público, analisado pela revista Fortune.

Vazamento expõe novo modelo e estratégia da Anthropic

  • O material vazado incluía um rascunho de postagem de blog, disponível em um repositório público e não protegido até a noite de quinta-feira (26), no qual o modelo era identificado como Claude Mythos. No documento, a empresa afirmava que o sistema poderia representar riscos inéditos de segurança cibernética;
  • O mesmo conjunto de arquivos também revelou detalhes sobre um encontro exclusivo de CEOs na Europa, parte da estratégia da Anthropic para comercializar seus modelos de IA a grandes empresas;
  • Os documentos foram encontrados em um vazamento de dados público e desprotegido, segundo análise de Roy Paz, pesquisador sênior de segurança em IA da LayerX Security, e Alexandre Pauwels, pesquisador da Universidade de Cambridge;
  • Ao todo, cerca de três mil ativos ligados ao blog da empresa — que não haviam sido publicados oficialmente — estavam acessíveis, segundo Pauwels.

Após ser informada pela Fortune, a Anthropic desativou o acesso público ao repositório. Em nota, a empresa atribuiu o incidente a um “erro humano” na configuração de seu sistema de gerenciamento de conteúdo (CMS, na sigla em inglês), classificando os arquivos como “rascunhos iniciais de conteúdo considerados para publicação”.

Novo nível de modelos: Capybara

Além do nome Mythos, o rascunho também descrevia uma nova categoria de modelos chamada Capybara. Segundo o documento, “‘Capybara’ é um novo nome para uma nova camada de modelo: maior e mais inteligente do que nossos modelos Opus — que, até agora, eram os mais poderosos”.

A Anthropic atualmente organiza seus modelos em três níveis: Opus (mais avançados), Sonnet (intermediários) e Haiku (mais leves e rápidos). O Capybara surgiria como uma camada superior ao Opus, com maior capacidade — e também custo mais elevado.

“Comparado ao nosso melhor modelo anterior, Claude Opus 4.6, o Capybara alcança pontuações dramaticamente mais altas em testes de programação, raciocínio acadêmico e cibersegurança, entre outros”, diz o texto.

O documento afirma ainda que o treinamento do Claude Mythos já foi concluído e o descreve como, “de longe, o modelo de IA mais poderoso que já desenvolvemos”.

Questionada pela Fortune, a empresa confirmou o desenvolvimento do novo sistema: “Estamos desenvolvendo um modelo de propósito geral com avanços significativos em raciocínio, programação e cibersegurança”, disse o porta-voz. “Dada a força de suas capacidades, estamos analisando como lançá-lo.”

O material analisado indica que o lançamento será gradual, começando com um grupo restrito de usuários, devido ao alto custo operacional e ao fato de o modelo ainda não estar pronto para uso amplo.

Leia mais:

Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)

Riscos inéditos em cibersegurança

Um dos principais pontos destacados no rascunho é o potencial de risco do modelo na área de segurança digital. “Ao nos prepararmos para lançar o Claude Capybara, queremos agir com cautela extra e entender os riscos que ele apresenta — inclusive, além do que aprendemos em nossos próprios testes”, afirma o documento.

A empresa demonstra preocupação específica com o uso malicioso da tecnologia: o sistema estaria “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas” e “prenuncia uma onda de modelos capazes de explorar vulnerabilidades muito mais rapidamente do que os esforços de defesa”.

Na prática, isso significa que hackers poderiam utilizar o modelo para realizar ataques cibernéticos em larga escala. Por esse motivo, a estratégia inicial de lançamento prioriza defensores de segurança digital. “Estamos liberando o acesso antecipado para organizações, dando a elas uma vantagem inicial na melhoria da robustez de seus sistemas contra a onda iminente de exploits impulsionados por IA”, diz o texto.

A Anthropic não é a única a alertar para esse tipo de risco. Modelos recentes também têm ultrapassado limites considerados críticos em cibersegurança. Em fevereiro, a OpenAI classificou seu GPT-5.3-Codex como de “alta capacidade” para tarefas relacionadas à área.

A própria Anthropic já havia enfrentado desafios semelhantes com o Opus 4.6, capaz de identificar vulnerabilidades desconhecidas em códigos — uma característica de uso duplo, que pode tanto fortalecer defesas quanto facilitar ataques.

A empresa também revelou que grupos hackers, incluindo organizações ligadas ao governo chinês, já tentaram explorar seus sistemas.

Em um caso documentado, um grupo patrocinado pelo Estado chinês utilizou o Claude Code para infiltrar cerca de 30 organizações, incluindo empresas de tecnologia, instituições financeiras e agências governamentais. Após detectar a operação, a Anthropic investigou o caso por dez dias, baniu as contas envolvidas e notificou as vítimas.

Especialistas apontam que o vazamento ocorreu devido à configuração padrão do CMS utilizado pela empresa, que torna os arquivos públicos automaticamente, a menos que o usuário altere manualmente as permissões.

A Anthropic confirmou que “um problema com uma de nossas ferramentas externas de CMS levou ao acesso a conteúdo em rascunho”, novamente atribuindo a falha a erro humano. Embora muitos arquivos fossem materiais descartados — como imagens e banners —, alguns pareciam documentos internos, incluindo registros relacionados a benefícios de funcionários.

Entre os arquivos, também havia um PDF com detalhes de um retiro exclusivo para CEOs europeus, que será realizado no Reino Unido e contará com a presença do CEO da empresa, Dario Amodei.

O evento de dois dias é descrito como um encontro “íntimo”, voltado a “conversas reflexivas” em uma mansão do século XVIII transformada em hotel e spa. Os participantes, não identificados nominalmente, são descritos como alguns dos líderes empresariais mais influentes da Europa.

Segundo a empresa, o encontro faz parte de uma série de eventos organizados ao longo do último ano. “Esperamos receber líderes empresariais europeus para discutir o futuro da IA”, afirmou o porta-voz.

O post Anthropic, dona do Claude, trabalha em modelo de IA mais avançado apareceu primeiro em Olhar Digital.

Anthropic, dona do Claude, trabalha em modelo de IA mais avançado Read More »

gemini 2

Gemini agora permite importar conversas de outros chatbots

O Google está facilitando a vida de usuários que querem migrar para o Gemini. A empresa lançou um recurso que permite transferir conversas completas e dados pessoais de um chatbot (como Claude ou ChatGPT) para o Gemini.

Ao importar as informações, o usuário consegue retomar a conversa de onde parou, sem necessidade de treinar a IA do Google do zero em relação ao que já foi dito em outros aplicativos.

A ferramenta foi anunciada pela empresa na quinta-feira (26). São duas formas de realizar a migração para o Gemini:

Transferência de memórias

Nesse caso, o Gemini sugere um prompt específico que o usuário deve inserir em seu chatbot atual. A plataforma gera uma resposta contendo as informações pessoais relevantes, que pode ser copiada e colada diretamente no Gemini.

Esse processo permite que a ferramenta do Google oriente o usuário sobre quais tipos de informação seriam úteis conhecer, facilitando a transmissão desses dados para seu próprio arquivo. A companhia explica que, após importar essas memórias, o Gemini compreenderá os mesmos fatos fundamentais compartilhados com outros aplicativos, como interesses pessoais, nome de irmãos ou local onde cresceu.

Transferência de memórias no Gemini (Imagem: Google/Divulgação)

Importação completa do histórico de conversas

Esse processo envolve o upload de um arquivo zip contendo todas as conversas anteriores. A maioria dos chatbots, incluindo ChatGPT e Claude, permite a exportação de logs de conversas em formato zip de forma relativamente simples. Esse método possibilita que os usuários “continuem exatamente de onde pararam”, segundo a empresa.

Os usuários também podem pesquisar conversas antigas importadas para o Gemini. Essa funcionalidade de busca permite localizar informações específicas dentro do extenso histórico transferido.

Importação de conversas no Gemini
Importação de conversas no Gemini (Imagem: Google/Divulgação)

Estratégia de crescimento do Gemini

O movimento ocorre em meio a uma disputa intensa pela atenção dos consumidores no mercado de chatbots de IA. Todos os principais provedores buscam aumentar sua base de usuários. A ferramenta é uma tentativa do Google de facilitar a migração para o Gemini.

Atualmente, o ChatGPT é líder no mercado de chatbots para consumidores, com 900 milhões de usuários semanais. O Gemini ainda fica atrás, com 750 milhões de usuários semanais.

O post Gemini agora permite importar conversas de outros chatbots apareceu primeiro em Olhar Digital.

Gemini agora permite importar conversas de outros chatbots Read More »

search live 1024x517

Google expande Search Live para o mundo todo

O Google informou, nesta quinta-feira (26), a expansão global de seu recurso de busca conversacional com inteligência artificial (IA), o Search Live, para todos os idiomas e localizações onde o Modo IA está disponível. A expansão coloca a ferramenta ao alcance de usuários em mais de 200 países e territórios.

A funcionalidade permite que usuários direcionem a câmera do smartphone para objetos e recebam assistência em tempo real. O sistema possibilita conversas bidirecionais que utilizam o contexto visual capturado pela câmera do dispositivo.

O Search Live foi lançado pela primeira vez em julho de 2025. Antes da expansão global anunciada nesta quinta, o recurso estava disponível apenas nos Estados Unidos e na Índia.

A nova expansão é viabilizada pelo modelo de áudio e voz Gemini 3.1 Flash Live, desenvolvido pelo Google. Segundo a empresa, o modelo oferece conversas mais naturais e intuitivas.

Como usar o Search Live

  • Para acessar o Search Live, usuários precisam abrir o aplicativo Google em dispositivos Android ou iOS e tocar no ícone Live localizado abaixo da barra de pesquisa;
  • A partir daí, é possível fazer perguntas em voz alta para receber respostas em áudio e continuar a conversa com questões de acompanhamento;
  • O Google descreve o recurso como projetado para momentos que exigem ajuda em tempo real, quando digitar uma consulta não é suficiente;
  • Usuários podem ativar a câmera para adicionar contexto visual, permitindo que o sistema veja o que a câmera captura e ofereça sugestões úteis, além de links para mais informações na web.
Recurso auxilia o usuário na hora de realizar uma busca com o uso da câmera do aparelho (Imagem: Reprodução/Google)

O exemplo dado pela empresa ilustra situações, como perguntar sobre a instalação de uma nova estante. O sistema pode ver por meio da câmera e fornecer orientações específicas baseadas no contexto visual.

Usuários que já estão utilizando a câmera com o Google Lens podem acessar o Search Live tocando na opção “Live” na parte inferior da tela. Esta integração amplia as formas de acesso ao recurso conversacional.

Os usuários também têm a opção de explorar links da web para aprofundar suas pesquisas após receberem as respostas iniciais do sistema.

Expansão do Google Tradutor

Paralelamente ao lançamento global do Search Live, o Google anunciou a expansão do recurso Tradução Ao Vivo do Google Tradutor para iOS. A funcionalidade permite ouvir traduções em tempo real via fones de ouvido.

O Tradutor Ao Vivo também está se expandindo para mais países, incluindo Alemanha, Espanha, França, Nigéria, Itália, Reino Unido, Japão, Bangladesh e Tailândia. Com essa expansão, usuários de Android e iOS podem acessar traduções em tempo real em qualquer par de fones de ouvido em mais de 70 idiomas.

O post Google expande Search Live para o mundo todo apareceu primeiro em Olhar Digital.

Google expande Search Live para o mundo todo Read More »

wikipedia 1024x683

Wikipédia bane artigos escritos por IA

A Wikipédia determinou que seus autores não poderão mais escrever ou reescrever artigos com o uso de inteligência artificial (IA).

A decisão foi adicionada às diretrizes da plataforma e cita que a razão da proibição é o fato de haver a tendência de artigos escritos por IA violarem “diversas políticas de conteúdo fundamentais da Wikipédia“.

Segundo o The Verge, essa modificação aplica-se à versão em inglês do site. O Olhar Digital entrou em contato com a empresa para saber se a versão brasileira também está sob essa nova regulação e aguarda retorno.

Apesar da proibição, os usuários ainda poderão usar a IA em certos cenários, como o uso de grandes modelos de linguagem (LLMs, na sigla em inglês) para “sugerir correções básicas” nos textos, mas apenas se “não introduzir conteúdo próprio“.

Além disso, os editores podem usar a tecnologia para traduzir artigos de outro idioma para o inglês, mas as regras de traduções assistidas por modelos de linguagem devem ser seguidas. Elas dizem que os editores devem ter conhecimento suficiente do idioma original para garantir a precisão da tradução.

Editores ainda podem usar a tecnologia para traduzir artigos de outro idioma para o inglês em certos casos (Imagem: Primakov/Shutterstock)

Leia mais:

Mais detalhes sobre a nova política da Wikipédia

  • Além disso, a nova política aponta que algumas pessoas “podem ter estilos de escrita semelhantes aos de mestres em direito” e que os editores precisarão encontrar mais do que “sinais estilísticos ou linguísticos” para justificar restrições às suas capacidades de realizar traduções;
  • “É melhor considerar a conformidade do texto com as políticas de conteúdo essenciais e as edições recentes feitas pelo editor em questão”, diz a norma;
  • Essa prática de criação de artigos com IA na Wikipédia vem acontecendo há meses;
  • Isso fez com que a comunidade implementasse nova política para permitir a “exclusão rápida” de artigos mal escritos;
  • Além disso, os editores criaram o WikiProject AI Cleanup, que combate o conteúdo escrito por IA e ajuda outros editores a identificar esse tipo de texto.

As mudanças foram propostas por um usuário e deram início às discussões sobre os editores. A proposta foi então aprovada com “apoio esmagador“. Os defensores dela concluíram que essa política “visa problemas flagrantes com o uso de LLM, ao mesmo tempo que permite alguma margem para o que é considerado uso decente”.

O post Wikipédia bane artigos escritos por IA apareceu primeiro em Olhar Digital.

Wikipédia bane artigos escritos por IA Read More »

incendio floresta amazonia

Fogo recorde na Amazônia em 2024 triplica emissões de carbono

Uma equipe internacional de pesquisadores utilizou inteligência artificial (IA) para analisar as emissões de incêndios florestais na Amazônia em 2024, e os resultados são alarmantes. 

Segundo o estudo, publicado na revista Geophysical Research Letters, as emissões de carbono podem ter sido até três vezes maiores do que se estimava até agora, revelando uma dimensão inédita do impacto ambiental.

Em resumo:

  • Pesquisadores usaram IA para analisar incêndios na Amazônia em 2024;
  • Emissões de carbono podem ser até três vezes maiores que estimativas;
  • Incêndios atingiram níveis recordes, afetando Amazônia e Cerrado;
  • Satélites e modelos estimaram CO como indicador de CO₂ liberado;
  • Combustão lenta contribuiu significativamente para as emissões daquele ano.
Queimada na Floresta Amazônica brasileira para abrir espaço para pastagem. Crédito: Pedarilhosbr – Shutterstock

Incêndios de 2024 foram os maiores em 20 anos na Amazônia

Os incêndios florestais são recorrentes na região central da América do Sul, agravados pelo desmatamento e pela seca. Em 2024, a atividade de fogo alcançou seu nível mais alto em duas décadas, atingindo vastas áreas da Amazônia e do Cerrado, a savana tropical mais biodiversa do mundo, que cobre cerca de um quinto do Brasil e partes da Bolívia e do Paraguai.

O estudo combinou dados de satélite sobre monóxido de carbono com modelos de incêndios florestais. O monóxido de carbono foi usado como indicador para estimar a emissão de dióxido de carbono, principal gás de efeito estufa. Esse método revelou que as estimativas tradicionais subestimam significativamente o volume de carbono liberado.

De acordo com os pesquisadores, a produção real de carbono pode ter sido entre 1,5 e três vezes maior do que o apontado pelos modelos convencionais. Isso representa um desafio para os cálculos globais de carbono e para os modelos climáticos, que dependem de dados precisos sobre emissões para prever o aquecimento do planeta.

Incendio Floresta Amazonica
Área queimada e desmatada na Floresta Nacional de Jamanxim, Pará. Crédito: Marcio Isensee – Shutterstock

O estudo foi liderado pela Universidade Técnica de Dresden, em cooperação com o Instituto Meteorológico Real dos Países Baixos (KNMI) e a BeZero Carbon, de Londres, com financiamento da Agência Espacial Europeia (ESA). Uma descoberta importante foi que a combustão lenta, ou seja, brasas que continuam queimando por dias, contribuiu muito para as emissões de 2024.

Jos de Laat, cientista sênior do KNMI, explicou em um comunicado que a pesquisa analisou uma área de cerca de 4 milhões de km², principalmente próxima à fronteira entre Brasil e Bolívia. “Os incêndios e a poluição concentrados ali afetaram a qualidade do ar em toda a região”. Ele acrescentou que os métodos atuais não reproduzem com precisão o que os satélites captam, ignorando fontes importantes de emissões.

Smoke From Wildfires In Bolivia September 2024 1024x693
Fumaça de incêndios florestais na Amazônia boliviana, em setembro de 2024. Crédito: Dados modificados do Copernicus Sentinel (2024), processados ​​pela ESA.

Leia mais:

IA agiliza avaliação de grandes conjuntos de dados

Para melhorar a análise, os cientistas treinaram um sistema de IA capaz de processar grandes volumes de dados rapidamente. Isso permitiu avaliar múltiplos anos e regiões, mesmo com alta demanda computacional. Além disso, combinaram dados das missões Sentinel-2, Sentinel-3 e Sentinel-5P, da ESA, ampliando a precisão das estimativas.

O monóxido de carbono é mais fácil de detectar do espaço do que o dióxido de carbono, que já está presente na atmosfera em níveis elevados e quase constantes. Pequenas variações de CO2 passam despercebidas pelos satélites. Já o monóxido de carbono existe em concentrações muito baixas e variáveis, tornando o aumento gerado pelos incêndios mais fácil de medir.

A pesquisa faz parte do projeto internacional Sense4Fire, financiado pela ESA. O objetivo é entender melhor as condições que favorecem a ignição de incêndios e aprimorar estimativas de emissões de carbono causadas por chamas e brasas. Técnicas avançadas de sensoriamento remoto e modelos computacionais complexos foram aplicados para analisar a vegetação, umidade e condições da superfície.

Sentinel Amazonia Antes Epois 2024 1024x509
As imagens comparam estimativas de emissões de incêndios (à esquerda), feitas pelo sistema GFAS do Serviço de Monitoramento da Atmosfera Copernicus (CAMS), com dados reais captados pelo satélite Copernicus Sentinel-5P (à direita). As medições foram feitas sobre áreas do Brasil, Bolívia e Paraguai em setembro de 2024, mostrando diferenças entre modelos e observações diretas do espaço. Crédito: ESA (fonte de dados: J. De Laat et al, 2026).

Stephen Plummer, cientista da agência, destacou que as conclusões ajudam a revisar como calculamos as emissões de CO2, um dos principais gases do efeito estufa. Ele ressaltou que os satélites Sentinel fornecem dados precisos que permitem compreender melhor como a Terra reage aos incêndios e contribuem para melhorar políticas climáticas baseadas em ciência.

O Sentinel-5P, lançado em 2017, possui o espectrômetro Tropomi, capaz de medir gases como CO, metano e dióxido de nitrogênio com resolução inédita. Isso possibilita monitorar a poluição de incêndios em detalhes e integrar informações sobre vegetação e condições do solo, tornando as estimativas de emissões mais precisas do que os métodos tradicionais.

Jos de Laat acrescentou que os métodos e dados gerados serão incorporados em futuros projetos do programa Horizonte Europa e do Serviço de Monitoramento Atmosférico Copernicus (CAMS). Isso garante que as novas técnicas continuem a fornecer informações confiáveis e apoiem políticas públicas e científicas sobre mudanças climáticas.

O post Fogo recorde na Amazônia em 2024 triplica emissões de carbono apareceu primeiro em Olhar Digital.

Fogo recorde na Amazônia em 2024 triplica emissões de carbono Read More »