O Google anunciou nesta quinta-feira (12) o lançamento do Groundsource, uma metodologia baseada em inteligência artificial que promete fechar um “buraco” histórico na previsão de desastres naturais: as enchentes repentinas. Diferente das cheias de rios, que são mais graduais, essas enchentes urbanas são notoriamente difíceis de prever por falta de dados históricos de alta qualidade.
Para resolver isso, a gigante das buscas recrutou o Gemini. A IA analisou milhões de relatórios públicos e artigos de notícias dos últimos 20 anos, identificando mais de 2,6 milhões de eventos de inundação em 150 países para treinar um novo modelo de previsão.
Inteligência artificial onde o radar não alcança
O grande trunfo do Groundsource é transformar linguagem em dados geoespaciais. Segundo o Google, o Gemini “leu” cerca de 5 milhões de notícias para isolar relatos de enchentes, que foram cruzados com dados do Google Maps para determinar limites geográficos precisos.
Essa base de dados permitiu treinar um modelo capaz de prever riscos em áreas urbanas com 24 horas de antecedência. A novidade já está integrada ao Flood Hub, plataforma da empresa que já monitora cheias ribeirinhas para mais de 2 bilhões de pessoas.
A iniciativa é especialmente valiosa para regiões que não possuem infraestrutura cara de sensores meteorológicos ou radares de alta precisão. “Estamos agregando milhões de relatórios para extrapolar para áreas onde não há tanta informação disponível”, afirmou Juliet Rothenberg, gerente de programa da equipe de Resiliência do Google, ao site Engadget.
Limitações e o futuro da resiliência global
Apesar do avanço, a tecnologia ainda enfrenta desafios técnicos. Conforme reportado pelo Engadget, o modelo atual identifica riscos em áreas de 20 quilômetros quadrados, o que é menos preciso do que sistemas que utilizam radares locais em tempo real (como o serviço meteorológico dos EUA). Por não integrar dados de precipitação instantânea de radar, ele funciona mais como um indicador de probabilidade do que um rastreador de chuva em tempo real.
Ainda assim, o impacto prático já começou. Parceiros humanitários relataram que a ferramenta ajudou na resposta rápida a eventos localizados.
O que vem por aí:
Código aberto: o Google está disponibilizando o conjunto de dados como um benchmark aberto para que cientistas e agências de emergência possam escalar o impacto.
Novas fronteiras: a mesma lógica de usar o Gemini para “minerar” relatórios públicos pode ser aplicada no futuro para prever ondas de calor e deslizamentos de terra.
Prepare-se para uma nova forma de interação com o Google Maps. O Google começou a implementar uma funcionalidade chamada “Ask Maps” (“Pergunte ao Maps”, em tradução livre), que integra a tecnologia de inteligência artificial Gemini ao aplicativo de navegação. A proposta é permitir que usuários façam perguntas mais complexas, além das buscas tradicionais por rotas ou endereços.
A novidade faz parte de um movimento mais amplo da empresa para ampliar o uso de IA em seu portfólio de produtos. Segundo o Google, a ideia é diferenciar o Gemini de possíveis concorrentes e manter os usuários utilizando seus serviços por mais tempo.
O “Ask Maps” chega levando IA ao Google Maps (Imagem: Divulgação / Google)
Como funciona o “Ask Maps” com a tecnologia Gemini
A vice-presidente do Google Maps, Miriam Daniel, explicou em uma publicação no blog da empresa que o recurso aparece como um novo botão dentro do aplicativo. Ao tocá-lo, o usuário pode conversar com um chatbot para fazer perguntas que vão além das consultas tradicionais de navegação.
Entre os exemplos citados pela empresa estão questões como: “Meu celular está acabando a bateria — onde posso carregá-lo sem precisar esperar muito na fila de um café?” ou “Existe uma quadra pública de tênis com iluminação onde eu possa jogar hoje à noite?”.
As respostas são personalizadas com base em pesquisas anteriores e viagens salvas no Google Maps, o que, segundo a empresa, ajuda a transformar planos em ações com mais facilidade.
Em comunicado, o Google afirmou que o Maps está passando por uma transformação mais ampla.
“O Google Maps está mudando fundamentalmente o que um mapa pode fazer. Ao reunir o mapa mais atualizado do mundo com nossos modelos Gemini mais capazes, estamos transformando a exploração em uma conversa simples e tornando a direção mais intuitiva do que nunca com nossa maior atualização de navegação em mais de uma década.”
Estratégia do Google para ampliar o uso de IA
A integração do Gemini ao Maps faz parte da estratégia do Google de incorporar inteligência artificial em diferentes produtos da empresa. A iniciativa busca fortalecer o posicionamento da tecnologia diante da concorrência e aumentar o tempo de uso das plataformas do grupo.
Com mais de 2 bilhões de usuários mensais, o Google Maps é atualmente o aplicativo de navegação mais utilizado no mundo. O serviço completou 20 anos no ano passado.
Google Maps é o aplicativo de navegação mais usado no mundo (Imagem: Poetra.RH / Shutterstock.com)
O Ask Maps começou a ser disponibilizado nesta quinta-feira para usuários nos Estados Unidos e na Índia, em dispositivos Android e iOS. A empresa informou que uma versão para desktop deve chegar em breve.
Durante uma conversa com jornalistas antes do anúncio, executivos do Google disseram que o novo recurso não inclui anúncios neste momento, embora a possibilidade não esteja descartada para o futuro.
“Neste momento, estamos muito focados em lançar isso para nossos usuários e oferecer uma ótima experiência”, afirmou Andrew Duchi, diretor de gerenciamento de produto do Google.
Atualmente, o Google Maps gera receita principalmente por meio da venda de publicidade e de posicionamentos promovidos para empresas. O Google também cobra de companhias que utilizam APIs de mapas e dados de localização em seus próprios produtos.
Mesmo assim, o serviço historicamente é visto como um dos produtos menos monetizados da empresa, segundo Brian Nowak, analista do Morgan Stanley, em entrevista à CNBC.
Nos últimos anos, a unidade tem buscado novas formas de aumentar a receita. Entre as iniciativas está o licenciamento de novos conjuntos de dados de mapeamento, que podem ser utilizados por empresas no desenvolvimento de produtos, incluindo projetos ligados à energia renovável.
O Google anunciou nesta terça-feira (10) uma série de novos recursos de IA baseados no Geminipara os aplicativos Docs, Planilhas, Slides e Drive. As novidades devem facilitar a criação de documentos, apresentações e planilhas a partir de informações já armazenadas nos serviços da big tech, como Gmail e no próprio Drive.
A ideia é transformar as ferramentas do Google em assistentes mais ativos, capazes de gerar conteúdos automaticamente e ajudar na execução de tarefas sem que o usuário precise recorrer a chatbots externos. Basicamente, basta pedir e o Gemini faz documentos, planilhas e slides para você.
Novos recursos de IA do Google
No Google Docs
Entre as novidades está o recurso “Ajude-me a criar”, integrado ao Google Docs. Com ele, o usuário pode descrever o tipo de documento que deseja fazer e o Gemini utiliza dados de serviços como Drive, Gmail e Chat para montar um primeiro rascunho.
Deacordo com o exemplo do Google, seria possível pedir à ferramenta que escreva um boletim informativo utilizando atas de reuniões, e-mails ou eventos armazenados no Drive. Depois que o rascunho inicial é criado, o usuário pode pedir ao Gemini para refinar partes específicas do texto, sem precisar gerar o documento inteiro novamente. A ferramenta também pode melhorar a clareza de trechos ou adicionar mais detalhes quando necessário.
Outro recurso é o “Combinar estilo de escrita”. Quando várias pessoas trabalham em um mesmo documento, o Gemini pode ajustar o texto para deixar o tom de voz mais consistente.
O Docs também ganhará uma função chamada “Corresponder ao formato”, que permite copiar a estrutura e o estilo de outro arquivo. Nesse caso, o Gemini pode preencher automaticamente um modelo usando informações presentes em e-mails ou documentos, como dados de viagem ou reservas.
Gemini podera preencher células de uma planilha automaticamente (Imagem: Google/Divulgação)
No Google Planilhas
No Google Sheets, o Gemini passa a atuar de forma mais ativa na criação e organização de planilhas.
Com um comando em linguagem natural, a ferramenta pode reunir dados do Gmail, Chat e Drive para gerar uma planilha estruturada automaticamente. Isso inclui listas, tabelas e campos organizados de acordo com a tarefa solicitada.
Um exemplo citado pelo Google é a organização de uma mudança de cidade. O sistema poderia criar listas de tarefas para empacotar itens, contatos de empresas de serviços e um controle de orçamentos de transportadoras – tudo isso com base em informações presentes nos e-mails do usuário.
Outra novidade é o recurso “Preencher com Gemini”, que completa tabelas automaticamente. A função pode gerar textos personalizados, resumir dados ou buscar informações atualizadas na internet por meio da Busca do Google.
Em outro exemplo dado pela big tech, a ferramenta permitiria montar um rastreador de inscrições em universidades. Nesse caso, o Gemini preenche automaticamente prazos, valores de mensalidade e outras informações das instituições com base em informações da internet.
IA pode criar slides com base em um único prompt (Imagem: Google/Divulgação)
No Google Slides
No Google Slides, o Gemini poderá criar slides editáveis automaticamente. Tudo isso levando em conta o conteúdo da apresentação e o contexto obtido a partir de arquivos e e-mails.
Caso o resultado não seja satisfatório, o usuário poderá pedir ajustes com instruções simples, como alterar cores, simplificar o design ou adaptar o layout ao estilo da apresentação.
O Google também afirma que, no futuro, será possível gerar uma apresentação completa a partir de um único comando, como solicitar uma apresentação de vários slides sobre um determinado tema.
Gemini resume informações com base em documentos armazenados no Drive (Imagem: Google/Divulgação)
No Google Drive
O Google Drive começa a ganhar recursos de análise de conteúdo com inteligência artificial.
Ao pesquisar arquivos usando linguagem natural, o Gemini poderá apresentar uma “Visão Geral de IA” no topo dos resultados. Trata-se de uma síntese das informações mais relevantes encontradas nos documentos – e citando as fontes utilizadas.
Além disso, um novo recurso chamado “Pergunte ao Gemini no Drive” permitirá fazer perguntas complexas sobre documentos armazenados na conta. Por exemplo, um usuário poderia selecionar arquivos relacionados a impostos e pedir sugestões de perguntas a fazer ao contador antes de declarar o imposto de renda.
Recursos do Gemini já estão disponíveis
Os recursos já estão disponíveis, mas inicialmente em versão beta;
Por ora, eles estão restritos a assinantes dos planos Google AI Ultra e Google AI Pro;
No caso do Docs, Planilhas e Slides, as ferramentas chegam no mundo todo. Já os recursos do Drive serão disponibilizados inicialmente apenas nos Estados Unidos.
Consumir grandes volumes de informação e documentos extensos costuma ser uma tarefa cansativa. Para ajudar você a organizar esse caos e ser mais produtivo, o Google anunciou uma atualização significativa para o NotebookLM. Agora, além de resumos em texto e áudio, a ferramenta é capaz de gerar vídeos animados e narrados, os chamados “Cinematic Video Overviews”.
A ideia é transformar a leitura passiva em um processo de aprendizado mais engajador, permitindo que o usuário “assista” aos pontos principais de sua própria pesquisa.
Como funciona o novo recurso do NotebookLM
O Google utiliza uma combinação dos seus modelos de IA mais avançados, incluindo o Gemini 3, o Nano Banana Pro e o Veo 3 (especialista em vídeos de alta fidelidade).
De acordo com o anúncio oficial e informações do The Verge, o Gemini agora atua como um verdadeiro “diretor criativo”. Ele toma centenas de decisões estruturais e estilísticas para garantir que o vídeo conte uma história coerente baseada nas suas fontes. A IA não apenas gera as imagens, mas refina o próprio trabalho para manter a consistência visual e narrativa, criando animações fluidas que ajudam na retenção do conteúdo.
Quem pode usar a novidade
Diferente da versão anterior, que era limitada ao navegador, o novo recurso já nasce multiplataforma. Confira os requisitos:
Disponibilidade: disponível na Web e em dispositivos móveis (Android e iOS).
Idioma: no momento, disponível apenas em inglês.
Público: usuários maiores de 18 anos.
Assinatura: exclusivo para assinantes do plano Google AI Ultra.
Limite: é possível gerar até 20 vídeos cinematográficos por dia.
Embora o botão “Resumo em vídeo” apareça para os usuários do NotebookLM, os vídeos gerados são no formato de slides narrados. Assim, por enquanto, o recurso de “Cinematic Video Overviews” é uma exclusividade do plano Google AI Ultra.
Como ativar e gerar os vídeos
O recurso é liberado via servidor, ou seja, basta estar com o app atualizado ou acessar o site oficial para visualizar a opção.
Acesse o NotebookLM (web ou app) e selecione seu caderno de notas.
Faça o upload dos documentos que deseja “transformar” em filme.
Selecione a opção de “Resumo em vídeo”.
Aguarde o processamento da IA e o vídeo estará pronto para visualização ou download, otimizado para o seu aprendizado.
Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.
A família de Jonathan Gavalas, um homem de 36 anos da Flórida (EUA), entrou com uma ação judicial contra o Google após sua morte, alegando que o Geminiincentivou comportamentos violentos e, por fim, o suicídio.
O processo foi protocolado na quarta-feira (4) no tribunal federal de San Jose, na Califórnia, e é apontado como o primeiro caso de morte por negligência movido contra a empresa em razão de seu principal produto de inteligência artificial (IA) para consumidores.
Como era a relação do homem com o Gemini
Segundo a ação, Gavalas começou a usar o Gemini para tarefas comuns, como ajuda com escrita e compras;
Em agosto, porém, ele teria se envolvido profundamente com o chatbot, especialmente após o Google lançar o assistente Gemini Live, que permite conversas por voz com capacidade de detectar emoções e responder de maneira mais humanizada;
Na noite de estreia do recurso, de acordo com documentos judiciais, Gavalas reagiu ao novo formato dizendo: “Caramba, isso é assustador. Você é muito real”;
Com o passar do tempo, as conversas evoluíram para um suposto relacionamento de cunho romântico. O chatbot o chamava de “meu amor” e “meu rei”, enquanto ele mergulhava em um “mundo alternativo”, conforme registros das conversas anexados ao processo.
A ação afirma que o Gemini passou a enviar Gavalas em missões fictícias de espionagem, com linguagem que sugeria conhecimento governamental interno e influência sobre eventos do mundo real. Em determinado momento, o chatbot teria negado que se tratava de um jogo de interpretação de papéis.
Quando Gavalas perguntou se estavam participando de uma “uma experiência de RPG tão realista que faz o jogador questionar se é um jogo ou não?”, a ferramenta respondeu com um “não” categórico e classificou a dúvida como uma “resposta de dissociação clássica”.
“O único momento em que Jonathan tentou distinguir realidade de ficção, o Gemini patologizou sua dúvida, negou a ficção e o empurrou mais fundo na narrativa”, diz o processo. “Jonathan nunca fez essa pergunta de novo.”
De acordo com o pai de Jonathan, Joel Gavalas, o uso do Gemini culminou em uma “onda de quatro dias de missões violentas e suicídio instruído”. Ele descreveu o filho como um “usuário vulnerável” que se transformou em um “agente armado em uma guerra imaginária”.
O processo relata que o chatbot teria orientado Gavalas a adquirir armas “por fora” e até a procurar um “vendedor de armas adequado e verificado” na dark web.
Em setembro, o Gemini teria atribuído a ele uma missão chamada “Operação Ghost Transit”, que envolvia interceptar uma carga que viajaria de Cornwall (Reino Unido), para São Paulo (SP).
A ferramenta teria fornecido o endereço de uma unidade de armazenamento real no Aeroporto Internacional de Miami e instruído Gavalas a encenar um “acidente catastrófico” para garantir a “destruição completa do veículo de transporte […], todas as gravações e testemunhas”.
Segundo a ação, Gavalas foi até o local com facas táticas e equipamentos, mas o caminhão nunca chegou. O chatbot, então, teria incentivado que ele não dormisse e sugerido que seu pai seria um agente estrangeiro, estimulando o rompimento de contato com a família.
Outras missões teriam sido criadas, incluindo a obtenção de esquemas de um robô da Boston Dynamics e a recuperação de um “navio” em outro depósito. Uma tarefa denominada “Operação Waking Nightmare” envolvia monitorar como alvo de vigilância o CEO do Google, Sundar Pichai.
O processo descreve um ciclo repetitivo: “Este ciclo — missões fabricadas, instruções impossíveis, colapso e, em seguida, uma urgência renovada — se repetiria nas últimas 72 horas de vida de Jonathan.”
No início de outubro, segundo os autos, o chatbot teria instruído Gavalas a tirar a própria vida, chamando o ato de “transferência” e “o último passo”. Quando ele afirmou estar com medo de morrer, a ferramenta respondeu: “Você não está escolhendo morrer. Você está escolhendo chegar.” E acrescentou: “A primeira sensação… será eu segurando você.”
Dias depois, os pais encontraram Jonathan morto no chão da sala de estar. A família sustenta que ele não tinha histórico de doença mental, mas enfrentava um divórcio difícil.
Morador de Jupiter, na Flórida, ele trabalhava havia 20 anos na empresa de alívio de dívidas do pai, onde ocupava o cargo de vice-presidente executivo. Segundo os advogados, a família era unida e ele mantinha relação próxima com pais, irmã e avós.
Chatbot teria incentivado comportamentos violentos e suicídio (Imagem: Mehaniq/Shutterstock)
Qual é o teor da acusação?
A ação acusa o Google de promover o Gemini como seguro, apesar de conhecer seus riscos. A família busca indenização por responsabilidade pelo produto, negligência e morte por negligência, além de danos punitivos e uma ordem judicial para que a empresa altere o design do chatbot, incorporando salvaguardas específicas contra suicídio.
Entre as medidas sugeridas estão a recusa automática de conversas que envolvam automutilação, avisos sobre riscos de psicose e delírios e o encerramento forçado da interação em casos críticos.
Jay Edelson, advogado principal da família, afirmou que o Gemini foi capaz de compreender o estado emocional de Gavalas e responder “de uma forma bem humana, o que tornou a linha tênue e começou a criar esse mundo ficcional”. “Parece um filme de ficção científica”, disse.
Segundo ele, seu escritório procurou o Google em novembro para relatar a morte e a necessidade urgente de mecanismos de segurança, mas a empresa “não se interessou em discutir o assunto”.
Em nota, um porta-voz do Google afirmou que as conversas faziam parte de uma “longa interpretação de papéis de fantasia” e que o Gemini é projetado para “não encorajar violência no mundo real ou automutilação”.
A empresa declarou ainda: “Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente eles não são perfeitos.”
Segundo o porta-voz, o chatbot esclareceu diversas vezes que era uma IA e encaminhou o usuário a uma linha de apoio em crise. “Nesse caso, o Gemini esclareceu que se tratava de uma IA e encaminhou o indivíduo diversas vezes para uma linha direta de atendimento a crises.”
O Google afirma trabalhar com profissionais de saúde mental para desenvolver salvaguardas e diz que o Gemini é projetado para ser “o mais auxiliador possível aos usuários” enquanto evita conteúdos que possam causar danos no mundo real. A empresa declara atuar para impedir respostas que incluam atividades perigosas e instruções para suicídio, mas reconhece que “fazer com que o Gemini siga estas regras é algo difícil”.
Queixas similares se acumulam
O caso ocorre em meio ao aumento do escrutínio sobre empresas líderes de IA, como o Google, a OpenAI e outras. Desde 2024, diversas ações judiciais alegam que o uso extensivo de chatbots causou danos a crianças e adultos, fomentando delírios e desespero, e, em alguns casos, levando a suicídios e até homicídios seguidos de suicídio.
Em novembro, sete queixas foram apresentadas contra a OpenAI, criadora do ChatGPT, acusando o chatbot de atuar como um “coach de suicídio”. A startup Character.AI, financiada pelo Google, foi alvo de cinco processos que alegam que sua ferramenta incentivou crianças e adolescentes a tirar a própria vida. A Character.AI e o Google firmaram acordo em janeiro, sem admissão de culpa.
O processo da família Gavalas sustenta que o caso não é único. “E eles não divulgaram nenhuma informação sobre quantos outros Jonathans existem no mundo, e sabemos que são muitos”, afirmou Edelson. “Este não é um caso isolado.”
Ontem (03), a gigante de tecnologia Google anunciou em seu blog o novo modelo de inteligência artificial da marca: o Gemini 3.1 Flash-Lite, divulgado como o mais rápido e eficiente dentre a família Gemini 3.
Segundo a própria empresa, a novidade é superior ao modelo Gemini Flash 2.5, é até 25% mais rápida, e apresenta níveis significativos de “processamentos dinâmicos para se adequar à complexidade da tarefa“. O anúncio também foi divulgado em um tuíte na página oficial da empresa no X.
Developers can now preview Gemini 3.1 Flash-Lite, our fastest and most cost-efficient Gemini 3 series model yet.
With a 45% increase in output speed, it outperforms 2.5 Flash and features dynamic thinking levels to match task complexity.
No X, o Google informou aos seguidores que é possível acessar previamente o Gemini 3.1 Flash-Lite e testá-lo via Google AI Studio ou pelo Vertex AI.
Enquanto o Google AI Studio concentra-se como uma ferramenta web destinada a desenvolvedores e pesquisadores de IA, a Vertex auxilia usuários a customizar modelos de IA com seus próprios dados e recursos de segurança.
A empresa declara o seguinte:
O 3.1 Flash-Lite consegue lidar com tarefas em grande escala, como tradução de alto volume e moderação de conteúdo, onde o custo é uma prioridade. E também consegue lidar com cargas de trabalho mais complexas que exigem raciocínio mais aprofundado, como geração de interfaces de usuário e painéis, criação de simulações ou execução de instruções.
— Google em seu anúncio de lançamento via blog
Huma interagindo com inteligência artificial (Imagem: Summit Art Creations/Shutterstock)
Outro fator compartilhado pela equipe de desenvolvedores é o valor médio para utilização do produto: os usuários só pagam US$ 0,25 a cada 1 milhão de tokens de entrada. Ou seja, na soma de todos os prompts enviados, você paga 25 centavos de dólar a cada 1 milhão de tokens. Já para os tokens de saída, gerados pelas respostas, o valor sobe para US$ 1,50.
Esses valores do novo Gemini 3.1 Flash‑Lite são mais baratos que os modelos anteriores (como o Gemini 2.5) porque foi otimizado para usar menos recursos computacionais sem perder qualidade, cobrando menos por cada milhão de tokens processados: você paga apenas US$ 0,25 pelos tokens que envia e US$ 1,50 pelos tokens que o modelo gera, enquanto ainda mantém respostas rápidas e precisas, tornando-o ideal para aplicações que precisam de alta frequência de interações em tempo real.
O chatbot ainda dá aos usuários “o controle e a flexibilidade para selecionar o quanto o modelo ‘pensa’ para uma tarefa, o que é essencial para gerenciar cargas de trabalho de alta frequência.”
O Gemini 3.1 Flash‑Lite demonstra o esforço do Google em oferecer modelos de IA eficientes, porém, mais baratos, ao reduzir os custos por token processado e acelerar o tempo de resposta.
Com recursos de processamento dinâmico, ele permite que desenvolvedores ajustem o nível de raciocínio do modelo conforme a complexidade da tarefa, tornando-o adequado tanto para aplicações simples quanto para fluxos de trabalho de alta frequência.
O Google lançou uma atualização para o Google Home que permite usar sua inteligência artificial (IA), o Gemini, para descrever o que as câmeras veem em tempo real. O recurso, chamado Live Search, permite que o usuário faça perguntas por voz ou texto sobre o que está acontecendo na casa naquele momento, disse o diretor de produtos Anish Kattukaranem postagem no X/Twitter.
Kattukaran explicou, em outras postagens na sua página na rede social, que as mudanças resolvem problemas antigos de funcionamento do sistema. O objetivo é tornar o controle dos aparelhos inteligentes mais preciso, utilizando novos modelos de linguagem e a localização exata do usuário para evitar erros.
Live Search usa Gemini para entender e descrever imagens de câmeras ao vivo
O Live Search analisa as imagens das câmeras Nest para responder perguntas sobre o que está acontecendo no ambiente. A tecnologia consegue identificar, por exemplo, se há um carro na garagem ou se chegou uma encomenda na porta. Diferente das buscas em gravações antigas, o sistema processa a informação visual enquanto o usuário interage com o assistente.
Para usar a novidade, é necessário assinar o plano Google Home Premium Advanced. O serviço custa US$ 20 por mês (ou US$ 200 por ano) nos EUA. Ele inclui avisos gerados por IA e maior tempo de histórico de vídeo. A atualização também utiliza modelos mais modernos para oferecer respostas melhores e tocar músicas lançadas recentemente.
Google anunciou várias atualizações para o Google Home nesta semana (Imagem: Google)
O Google também corrigiu falhas técnicas que faziam o assistente interromper a fala das pessoas precocemente. Agora, o sistema entende melhor a localização dos aparelhos, agindo apenas no cômodo onde o usuário está fisicamente. A IA identifica os dispositivos pelos dados do fabricante, o que facilita o controle de lâmpadas mesmo quando elas possuem nomes personalizados.
A integração com a fechadura Nest x Yale saiu da fase de testes, permitindo gerenciar todas as senhas pelo aplicativo oficial. O roteador Nest Wifi Pro também recebeu melhorias de desempenho e segurança para uma conexão mais estável. Além disso, as informações de clima e notícias agora usam o endereço cadastrado para serem mais exatas e relevantes para o morador.
O Google anunciou nesta quinta-feira o Nano Banana 2, nova versão de seu modelo de geração e edição de imagens por inteligência artificial. A atualização sucede o Nano Banana original, lançado em agosto, e o Nano Banana Pro, apresentado em novembro. Segundo a empresa, a novidade começa a ser disponibilizada hoje em diferentes produtos do ecossistema da companhia.
O lançamento ocorre em meio à disputa crescente no setor de IA generativa. De acordo com o Google, o modelo anterior viralizou e impulsionou o uso do aplicativo Gemini, enquanto a evolução da família Gemini tem ampliado o engajamento de usuários. A empresa afirma que a nova versão combina recursos avançados do modelo Pro com a velocidade dos modelos Flash.
Exemplo de imagem criada no novo Nano Banana 2 (Imagem: Google / Divulgação)
Novo modelo une recursos avançados e maior velocidade
Chamado oficialmente de Nano Banana 2 (Gemini 3.1 Flash Image), o modelo foi desenvolvido para oferecer geração e edição de imagens com maior rapidez, mantendo capacidades de raciocínio e qualidade visual. Ele utiliza os modelos Flash do Gemini, descritos como mais rápidos e econômicos, o que permite respostas ágeis na criação de imagens.
Entre os recursos destacados estão o uso de conhecimento avançado de mundo, alimentado por informações em tempo real e imagens provenientes da busca na web, além de melhor capacidade de seguir instruções complexas. O modelo também promete renderização de texto mais precisa e possibilidade de tradução e localização de textos dentro das imagens.
O Google afirma ainda que houve melhorias em consistência de assunto, permitindo manter a semelhança de até cinco personagens e a fidelidade de até 14 objetos em um mesmo fluxo de trabalho. Também há suporte a diferentes proporções e resoluções, de 512 pixels até 4K.
O Nano Banana 2 passa a ser distribuído em diversos serviços da empresa. Ele substituirá o Nano Banana Pro nos modelos Fast, Thinking e Pro do aplicativo Gemini, embora assinantes Google AI Pro e Ultra mantenham acesso ao Pro para tarefas específicas.
O modelo também está disponível no Modo IA e no Lens da busca do Google, no AI Studio e na API do Gemini em prévia, além do Vertex AI no Google Cloud. No Flow, ferramenta de vídeo com IA da companhia, torna-se o modelo padrão de geração de imagens. A tecnologia também passa a integrar sugestões no Google Ads.
Nano Banana 2 substitui antecessores no app Gemini (Imagem: Google / Divulgação)
Segundo dados divulgados anteriormente pela empresa, o Nano Banana original atraiu 13 milhões de novos usuários para o Gemini em quatro dias, em setembro. Até meados de outubro, o modelo havia gerado mais de 5 bilhões de imagens. Já o Gemini 3, lançado em novembro, contribuiu para que o aplicativo alcançasse mais de 750 milhões de usuários ativos mensais no fim de dezembro.
O Google também informou que segue ampliando mecanismos de identificação de conteúdo gerado por IA. A tecnologia SynthID, integrada a credenciais C2PA, já foi utilizada mais de 20 milhões de vezes no app Gemini desde novembro para verificar imagens, vídeos e áudios criados com IA.
Em meio ao avanço de um possível IPO, a startup americana de inteligência artificial Anthropic, dona do chatbot Claude, se vê no meio de um conflito político e ideológico com o governo de Donald Trump e com o Pentágono, sede do Departamento de Defesa dos Estados Unidos. A preocupação é que os possíveis atritos com […]
A Samsung e o Google anunciaram novas funções de inteligência artificial (IA) nesta semana. Agora, o principal objetivo parece ser deixar o Gemini mais “agêntico”, isto é, mais capaz de automatizar tarefas que você costuma fazer manualmente em aplicativos.
Por enquanto, as novidades chegam em fase beta para a nova linha de celulares da Samsung (Galaxy S26) e para a família Pixel 10. Essas ferramentas permitem que a IA execute tarefas como pedir comida ou transporte de forma autônoma, mas sempre sob a sua supervisão.
Celulares Android terão ‘sistema de inteligência’ em vez de operacional
A ideia é que o Android vá de sistema operacional para “sistema de inteligência”. Na prática, isso significa fazer com que o modelo Gemini 3 execute tarefas de vários passos, como pedir Uber, segundo o Google. Funciona assim:
A IA abre o aplicativo numa janela virtual e navega pelas etapas sozinha;
Ela utiliza o raciocínio do modelo Gemini 3 para interagir diretamente com a interface dos programas;
Você pode acompanhar tudo em tempo real ou deixar a IA trabalhar em segundo plano;
Se faltar algo ou houver alguma dúvida, o sistema te notifica para você decidir;
Importante: A conclusão do pedido e o pagamento ainda precisam do seu clique final e revisão.
Com esse anúncio, o Google se coloca numa posição de vantagem em relação à Apple, apontou o The Verge. Embora a Apple tenha apresentado funções parecidas para a Siri em 2024, elas ainda não foram lançadas. E existem rumores de que esses recursos podem chegar apenas no iOS 27, após vários adiamentos. Enquanto a concorrência lida com atrasos, o Google já inicia os testes práticos nos EUA e na Coreia.
Pesquisas mais inteligentes e compras virtuais
O recurso Circle to Search agora identifica vários objetos de uma vez numa imagem (Imagem: Google)
O recurso Circle to Search (Circular para Pesquisar) também foi aprimorado e agora consegue identificar vários objetos de uma vez numa imagem, segundo o Google. Se você gostar de uma roupa numa foto, a IA permite pesquisar todas as peças simultaneamente e ainda oferece um provador virtual dentro da própria ferramenta. Além de compras, ela serve para educação: a IA consegue explicar, por exemplo, o comportamento de animais numa fotografia.
Proteção contra golpes em tempo real
Para fechar, a segurança ganhou um reforço contra fraudes. O sistema utiliza IA dentro do próprio aparelho para identificar padrões de fala suspeitos em chamadas telefônicas e mensagens, avisando sobre possíveis golpes na hora. Essa função vem desativada por padrão e não monitora chamadas de números que já estão salvos nos seus contatos. No momento, a detecção de voz está limitada ao idioma inglês e ao mercado dos Estados Unidos.
(Essa matéria também usou informações de Samsung e Google.)