Google

Auto Added by WPeMatico

google chrome skills 1 1024x582

Google introduz recurso no Chrome para salvar e reutilizar prompts de IA

O Google anunciou, nesta terça-feira (14), a adição de uma nova funcionalidade de inteligência artificial (IA) ao navegador Chrome. Chamada de Skills, a ferramenta permite que usuários salvem e reutilizem seus prompts de IA favoritos em diferentes páginas da web, sem precisar digitá-los novamente.

A funcionalidade se integra ao Gemini, já presente no Chrome, que permite fazer perguntas sobre páginas web, resumir informações ou realizar diversas tarefas. O Skills representa um avanço ao possibilitar que prompts de IA sejam acessados repetidamente com apenas um clique.

Você pode, por exemplo, pedir à IA que sugira pratos veganos em receitas da web – Imagem: Google

Como funciona a nova ferramenta do Google Chrome

  • Para usar o recurso, o usuário deve salvar o prompt de IA como uma Skill diretamente do histórico de chat;
  • A Skill pode então ser reutilizada no Gemini dentro do Chrome digitando uma barra (/) ou clicando no botão de mais (+). A função será executada na página atual e em quaisquer abas adicionais selecionadas;
  • O Google informa que as Skills podem ser editadas a qualquer momento, oferecendo flexibilidade para personalização conforme as necessidades do usuário;
  • Durante os testes iniciais, a empresa identificou que os primeiros usuários utilizaram Skills em áreas, como saúde e bem-estar — por exemplo, para calcular macros proteicos em receitas —, além de comparações de compras e escaneamento de documentos extensos para resumo;
  • Para facilitar o início do uso, o Google está lançando uma biblioteca de Skills com tarefas comuns em áreas, como produtividade, compras, receitas e orçamento. Os usuários podem adicionar essas Skills pré-programadas e personalizá-las editando os prompts.
Exemplos de Skills armazenadas
Acesso às Skills é feito a partir do apertar da barra (/) ou do mais (+) – Imagem: Google

Leia mais:

Disponibilidade e contexto competitivo

As Skills começaram a ser disponibilizadas nesta terça para usuários de desktop do Chrome logados em suas contas Google. Inicialmente, a funcionalidade funciona apenas se o idioma do navegador estiver configurado para inglês estadunidense.

O lançamento ocorre em meio ao acirramento da competição no mercado de navegadores, com empresas, como OpenAI (Atlas), Perplexity (Comet) e The Browser Company (Dia), introduzindo alternativas ao Chrome e Safari.

Como outras ações do Gemini no Chrome, as Skills solicitarão confirmação do usuário antes de executar certas ações, como enviar e-mails ou adicionar eventos ao calendário, garantindo controle sobre as operações realizadas.

Exemplos de Skills armazenadas
Ferramenta é organizada em página própria – Imagem: Google

O post Google introduz recurso no Chrome para salvar e reutilizar prompts de IA apareceu primeiro em Olhar Digital.

Google introduz recurso no Chrome para salvar e reutilizar prompts de IA Read More »

youtube 1024x682

Gemini amplia integração com Gmail e YouTube no Brasil

O Gemini, assistente de inteligência artificial do Google, agora consegue analisar o histórico de serviços como Gmail, YouTube, busca e Google Fotos para identificar quando pode oferecer respostas mais personalizadas. O recurso, chamado Inteligência Personalizada, foi anunciado nesta terça-feira (14) para o Brasil.

A proposta é adaptar as respostas com base na experiência de cada usuário, utilizando dados da própria conta para tornar as sugestões mais precisas. A funcionalidade já havia sido liberada anteriormente nos Estados Unidos.

Disponibilidade por planos

Inicialmente, o recurso será disponibilizado para assinantes dos planos pagos de IA do Google — Plus, Pro e Ultra. Segundo a empresa, a funcionalidade também chegará à versão gratuita do Gemini nas próximas semanas.

Para preservar a privacidade, a integração com outros aplicativos permanece desativada por padrão. O usuário pode escolher se deseja conectar o assistente a serviços da conta Google, além de selecionar apenas alguns deles para uso.

YouTube está entre as plataformas do Google que ganham mais integração com o Gemini – Imagem: Alex Photo Stock/Shutterstock

Mudança no funcionamento

Antes da atualização, o Gemini só acessava informações de outros aplicativos quando eles eram mencionados diretamente pelo usuário. Agora, o assistente passa a sugerir conteúdos por conta própria, sempre que identificar que isso pode ser útil.

“Este recurso representa nosso próximo passo para tornar o Gemini mais pessoal, proativo e poderoso”, afirmou Josh Woodward, vice-presidente da divisão do assistente de IA do Google.

Um exemplo apresentado pela empresa mostra um usuário pedindo sugestões de pneus para seu carro. A partir de imagens armazenadas no Google Fotos, o Gemini consegue indicar opções compatíveis com o veículo.

Limitações e controles

De acordo com o Google, esse tipo de sugestão não deve aparecer em interações mais complexas. A empresa também afirma que o assistente evita fazer inferências proativas sobre dados sensíveis, como informações de saúde, embora possa tratar desses temas caso sejam solicitados diretamente pelo usuário.

O Gemini permite ainda refazer respostas sem personalização ao clicar em “Tentar de novo”. Também é possível enviar feedback sobre sugestões inadequadas por meio da opção “Não gostei”.

O Google reconhece que o sistema pode enfrentar dificuldades com aspectos como passagem do tempo ou nuances pessoais, incluindo mudanças de relacionamento ou interesses. Nesses casos, o usuário pode corrigir a resposta imediatamente.

O post Gemini amplia integração com Gmail e YouTube no Brasil apareceu primeiro em Olhar Digital.

Gemini amplia integração com Gmail e YouTube no Brasil Read More »

tada images 1024x576

Google facilita criação de deepfakes pessoais com novas ferramentas

O Google acaba de lançar uma nova funcionalidade revolucionária no YouTube Shorts, permitindo que seus usuários criem avatares digitais realistas de si mesmos por meio de inteligência artificial (IA). Esta inovação surge logo após o encerramento da plataforma de geração de vídeos Sora, da OpenAI, destacando o avanço do Google em direção às tecnologias de criação de conteúdo geradas por IA.

Avatares realistas no YouTube Shorts

  • Os criadores agora têm à disposição uma ferramenta que possibilita a clonagem digital de sua própria imagem e voz;
  • Segundo o YouTube, os avatares criados serão capazes de “parecer e soar como você“, proporcionando uma maneira mais segura de utilizar IA na criação de novos conteúdos;
  • O processo para criar um avatar não envolve apenas um clique de botão, mas segue passos estruturados;
  • Em um post no blog do YouTube, a plataforma descreve que os usuários precisam gravar uma “selfie ao vivo”, capturando sua face e voz de maneira precisa;
  • Para obter os melhores resultados possíveis, é recomendada a utilização de um ambiente bem iluminado, silencioso e livre de distrações visuais.

Ao concluir a gravação, os usuários podem escolher a opção “fazer um vídeo com meu avatar” durante o processo de criação de conteúdo. Esse clipe gerado pode ter até oito segundos de duração, segundo o 9to5Google. Além disso, os avatares podem ser inseridos em Shorts elegíveis do feed de um criador, embora a especificidade desses critérios de elegibilidade não tenha sido detalhada pela plataforma.

Novidade vem de encontro ao fim do Sora, da OpenAI – Imagem: Tada Images/Shutterstock

Leia mais:

Restrições e Políticas de Uso do Google

Existem restrições importantes associadas ao uso dos avatares de IA. Eles podem ser utilizados apenas em vídeos originais do criador, que também detém controle total sobre a possibilidade de remixagem de seus Shorts. Além disso, caso os avatares não sejam empregados na criação de novos conteúdos por um período de três anos, eles serão automaticamente deletados.

Toda produção de conteúdo que utiliza avatares será explicitamente marcada como gerada por IA, com a aplicação de marcas d’água visíveis e identificadores digitais, como SynthID e C2PA. Estas medidas visam assegurar a transparência e autenticidade dos conteúdos distribuídos.

Nem todos terão acesso imediato a essa nova ferramenta. O YouTube revelou que a funcionalidade será disponibilizada gradualmente; no entanto, não especificou um cronograma nem definiu quais serão as primeiras regiões a receberem a novidade. Vale ressaltar que, para usar a função, os criadores devem ter no mínimo 18 anos e possuir um canal existente no YouTube.

Expansão dos recursos de IA do YouTube

Este lançamento se soma ao conjunto crescente de ferramentas de IA oferecidas pelo YouTube aos criadores, incluindo clipes de vídeo gerados por IA nos Shorts, dublagem automática por IA e um chatbot de análise de canal.

Todas essas funcionalidades são alimentadas pelos robustos modelos de IA do Google, o Gemini, que já permitem transformações avançadas de fotos em vídeos e a criação de música e imagens realistas a partir do zero.

O movimento do Google surge em um momento oportuno, quando um de seus principais concorrentes no campo da IA, a OpenAI, recua do segmento de geração de vídeos após encerrar a plataforma Sora em meio a desafios de direitos autorais e questões de deepfake. Este avanço posiciona o Google em uma posição cada vez mais competitiva no uso de IA para criação de conteúdo digital.

O post Google facilita criação de deepfakes pessoais com novas ferramentas apareceu primeiro em Olhar Digital.

Google facilita criação de deepfakes pessoais com novas ferramentas Read More »

loja apple 1 1024x683

Google lança app de ditado por voz com IA offline para iOS

O Google lançou, discretamente, nesta segunda-feira (6), um novo aplicativo de ditado chamado Google AI Edge Eloquent para dispositivos iOS. Com foco em oferecer uma experiência offline, essa novidade visa competir com outros aplicativos populares do mercado, como Wispr Flow, SuperWhisper e Willow.

O aplicativo está disponível gratuitamente para download. Para começar a usá-lo, o usuário precisa primeiramente baixar os modelos de reconhecimento automático de fala (ASR, na sigla em inglês) baseados na tecnologia Gemma, que permitem a transcrição em tempo real. Uma função interessante é que, após pausar, o aplicativo automaticamente elimina palavras de preenchimento, como “hum” e “ah”, refinando o texto transcrito.

Funcionalidades do Google AI Edge Eloquent

  • Entre as funcionalidades apresentadas, o app oferece opções abaixo da transcrição para transformar o texto em estilos “Pontos-chave”, “Formal”, “Curto” e “Longo”;
  • O aplicativo ainda permite desligar a integração com a nuvem, na qual modelos baseados em nuvem Gemini são utilizados para aprimorar o texto;
  • A personalização também é um ponto forte. O Google AI Edge Eloquent pode importar termos específicos, nomes e jargões do Gmail do usuário, além de possibilitar a adição de palavras customizadas à biblioteca. O histórico das sessões de transcrição é armazenado, permitindo busca facilitada entre as sessões;
  • Na descrição oficial na App Store, o Google destaca que o Eloquent foi projetado para converter discurso natural em textos profissionais e prontos para uso.
Por ora, nada de Android; apenas iOS, da Apple (Imagem: Denys.Kutsevalov/Shutterstock)

Leia mais:

“Diferente de softwares de ditado padrão, que transcrevem cada erro e hesitação, o Eloquent utiliza inteligência artificial para captar o significado desejado, eliminando ‘hums’ e ‘ahs’ além de correções feitas durante as frases, oferecendo um texto limpo e preciso”, detalha a empresa.

Por enquanto, o aplicativo está disponível somente para iOS, mas a descrição na App Store já menciona a futura integração com Android. Isso permitiria aos usuários definirem o app como teclado padrão para todas as entradas de texto, além de usufruírem de um botão flutuante, semelhante ao utilizado pelo Wispr Flow no Android.

O post Google lança app de ditado por voz com IA offline para iOS apareceu primeiro em Olhar Digital.

Google lança app de ditado por voz com IA offline para iOS Read More »

google vids 1024x682

Google lança Gemma 4 e novos recursos no Vids

O Google lançou a família de modelos de código aberto Gemma 4, trazendo para a comunidade de código aberto a tecnologia desenvolvida para os modelos de linguagem grande proprietários da empresa, como o Gemini 3 Pro. Essa nova família de modelos oferece quatro variantes distintas, que se diferenciam pelo número de parâmetros disponíveis.

Diversidade de modelos e capacidade de processamento do Gemma 4

  • Para dispositivos de borda, como smartphones, o Google disponibiliza os modelos “Effective” com dois bilhões e quatro bilhões de parâmetros;
  • Para máquinas mais potentes, as opções são os sistemas “Mixture of Experts” com 26 bilhões de parâmetros e “Dense” com 31 bilhões de parâmetros;
  • Em termos de inteligência, o Google afirma que conseguiu até então um nível sem precedentes de “inteligência-por-parâmetro” com a Gemma 4;
  • Essa afirmação é sustentada pelo desempenho das variantes de 31 bilhões e 26 bilhões de parâmetros, que conquistaram o terceiro e sexto lugares, respectivamente, no leaderboard de texto da Arena AI, superando modelos até 20 vezes maiores.

Todos os modelos Gemma 4 são capazes de processar vídeo e imagens, sendo ideais para tarefas, como reconhecimento óptico de caracteres. Os modelos menores, além disso, podem processar entradas de áudio e compreender fala. Outra funcionalidade destacada é a capacidade dos modelos de gerar código offline, possibilitando a programação sem a necessidade de uma conexão com a internet.

Além disso, a Gemma 4 foi treinada para operar em mais de 140 idiomas, refletindo a intenção da Google de criar modelos versáteis e acessíveis globalmente.

Os modelos Gemma 4 estão sendo disponibilizados sob a licença Apache 2.0, marcando uma mudança em relação aos modelos anteriores que estavam sob a licença própria da Gemma. Este licenciamento oferece maior flexibilidade para desenvolvedores modificarem os sistemas conforme necessário, permitindo controle total sobre dados, infraestrutura e modelos.

“Essa licença de código aberto proporciona uma base para completa flexibilidade do desenvolvedor e soberania digital, garantindo controle total sobre seus dados, infraestrutura e modelos”, declarou o Google. “Ela permite construir livremente e implantar com segurança em qualquer ambiente, seja on-premises ou na nuvem.”

Para aqueles interessados em explorar um dos sistemas Gemma 4, os pesos dos modelos estão disponíveis nas plataformas Hugging Face, Kaggle e Ollama. A movimentação da Google para tornar os modelos mais acessíveis reforça seu compromisso com a inovação colaborativa no campo da inteligência artificial (IA).

Google Vids também recebeu atualizações – Mamun_Sheikh/Shutterstock

Leia mais:

Google Vids recebe controle de avatares por comandos de texto

O Google também introduziu, nesta quinta-feira (2), novas funcionalidades no seu aplicativo de edição de vídeos, o Vids. Entre os novos recursos, destaca-se a capacidade de direcionar e customizar avatares usando comandos de texto. Além disso, o aplicativo agora suporta a integração com o Veo 3.1 e permite a exportação de vídeos diretamente para o YouTube, além de gravar com uma extensão do Chrome.

Utilizando comandos em linguagem natural, os usuários do Vids podem fazer com que os avatares “atuem” em cenas específicas. Isso inclui interações com produtos, adereços ou equipamentos.

O Google assegura que, mesmo com a natureza dinâmica dessas interações, o Vids mantém a consistência dos personagens. Além disso, os usuários podem personalizar os personagens, ajustando a aparência, roupas e cenários por meio de comandos, dependendo do tema do vídeo.

No mês passado, o Google havia adicionado os modelos de criação musical Lyria 3 e Lyria 3 Pro ao Vids, permitindo que os usuários adicionassem efeitos sonoros ou música aos seus clipes. Com este novo lançamento, a empresa introduziu o modelo de geração de vídeos Veo 3.1, que pode criar clipes de até oito segundos dentro da ferramenta de edição de vídeo do aplicativo.

Todos os usuários receberão dez gerações gratuitas por mês. Para aqueles com contas Google AI Ultra e Workspace AI Ultra, será possível gerar até mil vídeos Veo mensalmente.

Uma das funcionalidades mais aguardadas é a possibilidade de exportar vídeos diretamente para o YouTube. Com isso, elimina-se a etapa de download e posterior upload manual para o canal. Os vídeos exportados são, por padrão, privados, permitindo que o autor revise antes de torná-los públicos.

Além disso, uma nova extensão para o Chrome foi adicionada ao conjunto de suas ferramentas de vídeo. Essa extensão permite que os usuários capturem a tela com áudio ou vídeo, ampliando as possibilidades criativas dentro do ecossistema do Vids.

Desde o seu lançamento em 2024, voltado inicialmente para a criação de conteúdo empresarial, o Vids tem sofrido diversas atualizações. No ano passado, o aplicativo incorporou avatares de IA e expandiu seu uso para consumidores gerais. Em fevereiro deste ano, foram adicionados avatares em 2D e 3D no estilo cartoon, além do suporte a sete novos idiomas para narração, incluindo o português.

O post Google lança Gemma 4 e novos recursos no Vids apareceu primeiro em Olhar Digital.

Google lança Gemma 4 e novos recursos no Vids Read More »

gemini 2

Gemini agora permite importar conversas de outros chatbots

O Google está facilitando a vida de usuários que querem migrar para o Gemini. A empresa lançou um recurso que permite transferir conversas completas e dados pessoais de um chatbot (como Claude ou ChatGPT) para o Gemini.

Ao importar as informações, o usuário consegue retomar a conversa de onde parou, sem necessidade de treinar a IA do Google do zero em relação ao que já foi dito em outros aplicativos.

A ferramenta foi anunciada pela empresa na quinta-feira (26). São duas formas de realizar a migração para o Gemini:

Transferência de memórias

Nesse caso, o Gemini sugere um prompt específico que o usuário deve inserir em seu chatbot atual. A plataforma gera uma resposta contendo as informações pessoais relevantes, que pode ser copiada e colada diretamente no Gemini.

Esse processo permite que a ferramenta do Google oriente o usuário sobre quais tipos de informação seriam úteis conhecer, facilitando a transmissão desses dados para seu próprio arquivo. A companhia explica que, após importar essas memórias, o Gemini compreenderá os mesmos fatos fundamentais compartilhados com outros aplicativos, como interesses pessoais, nome de irmãos ou local onde cresceu.

Transferência de memórias no Gemini (Imagem: Google/Divulgação)

Importação completa do histórico de conversas

Esse processo envolve o upload de um arquivo zip contendo todas as conversas anteriores. A maioria dos chatbots, incluindo ChatGPT e Claude, permite a exportação de logs de conversas em formato zip de forma relativamente simples. Esse método possibilita que os usuários “continuem exatamente de onde pararam”, segundo a empresa.

Os usuários também podem pesquisar conversas antigas importadas para o Gemini. Essa funcionalidade de busca permite localizar informações específicas dentro do extenso histórico transferido.

Importação de conversas no Gemini
Importação de conversas no Gemini (Imagem: Google/Divulgação)

Estratégia de crescimento do Gemini

O movimento ocorre em meio a uma disputa intensa pela atenção dos consumidores no mercado de chatbots de IA. Todos os principais provedores buscam aumentar sua base de usuários. A ferramenta é uma tentativa do Google de facilitar a migração para o Gemini.

Atualmente, o ChatGPT é líder no mercado de chatbots para consumidores, com 900 milhões de usuários semanais. O Gemini ainda fica atrás, com 750 milhões de usuários semanais.

O post Gemini agora permite importar conversas de outros chatbots apareceu primeiro em Olhar Digital.

Gemini agora permite importar conversas de outros chatbots Read More »

search live 1024x517

Google expande Search Live para o mundo todo

O Google informou, nesta quinta-feira (26), a expansão global de seu recurso de busca conversacional com inteligência artificial (IA), o Search Live, para todos os idiomas e localizações onde o Modo IA está disponível. A expansão coloca a ferramenta ao alcance de usuários em mais de 200 países e territórios.

A funcionalidade permite que usuários direcionem a câmera do smartphone para objetos e recebam assistência em tempo real. O sistema possibilita conversas bidirecionais que utilizam o contexto visual capturado pela câmera do dispositivo.

O Search Live foi lançado pela primeira vez em julho de 2025. Antes da expansão global anunciada nesta quinta, o recurso estava disponível apenas nos Estados Unidos e na Índia.

A nova expansão é viabilizada pelo modelo de áudio e voz Gemini 3.1 Flash Live, desenvolvido pelo Google. Segundo a empresa, o modelo oferece conversas mais naturais e intuitivas.

Como usar o Search Live

  • Para acessar o Search Live, usuários precisam abrir o aplicativo Google em dispositivos Android ou iOS e tocar no ícone Live localizado abaixo da barra de pesquisa;
  • A partir daí, é possível fazer perguntas em voz alta para receber respostas em áudio e continuar a conversa com questões de acompanhamento;
  • O Google descreve o recurso como projetado para momentos que exigem ajuda em tempo real, quando digitar uma consulta não é suficiente;
  • Usuários podem ativar a câmera para adicionar contexto visual, permitindo que o sistema veja o que a câmera captura e ofereça sugestões úteis, além de links para mais informações na web.
Recurso auxilia o usuário na hora de realizar uma busca com o uso da câmera do aparelho (Imagem: Reprodução/Google)

O exemplo dado pela empresa ilustra situações, como perguntar sobre a instalação de uma nova estante. O sistema pode ver por meio da câmera e fornecer orientações específicas baseadas no contexto visual.

Usuários que já estão utilizando a câmera com o Google Lens podem acessar o Search Live tocando na opção “Live” na parte inferior da tela. Esta integração amplia as formas de acesso ao recurso conversacional.

Os usuários também têm a opção de explorar links da web para aprofundar suas pesquisas após receberem as respostas iniciais do sistema.

Expansão do Google Tradutor

Paralelamente ao lançamento global do Search Live, o Google anunciou a expansão do recurso Tradução Ao Vivo do Google Tradutor para iOS. A funcionalidade permite ouvir traduções em tempo real via fones de ouvido.

O Tradutor Ao Vivo também está se expandindo para mais países, incluindo Alemanha, Espanha, França, Nigéria, Itália, Reino Unido, Japão, Bangladesh e Tailândia. Com essa expansão, usuários de Android e iOS podem acessar traduções em tempo real em qualquer par de fones de ouvido em mais de 70 idiomas.

O post Google expande Search Live para o mundo todo apareceu primeiro em Olhar Digital.

Google expande Search Live para o mundo todo Read More »

Google: nova tecnologia TurboQuant permite à IA lembrar muito mais com menos espaço

Nesta terça-feira (24), o Google revelou o TurboQuant, uma tecnologia de compressão ultraeficiente que promete mudar a forma como as inteligências artificiais lidam com grandes volumes de informação. O sistema permite que os modelos “lembrem” de muito mais dados ao mesmo tempo em que ocupam menos espaço físico na memória do hardware, tudo isso sem perder a precisão nas respostas.

Para entender o impacto do TurboQuant, é preciso conhecer o KV Cache, que funciona como uma “memória de curto prazo” para a IA. Nessa memória temporária, o sistema anota as características mais importantes de uma conversa ou documento para não precisar reprocessar tudo do zero a cada nova interação.

Atualmente, essa “memória de curto prazo” é o grande vilão do consumo de hardware: quanto mais a IA precisa lembrar, mais memória RAM de alta performance ela exige, o que encarece o serviço e limita a capacidade dos chatbots. O TurboQuant consegue comprimir esses dados em pelo menos 6 vezes, permitindo que a IA lide com contextos imensos de forma muito mais leve e econômica.

PolarQuant e QJL: a matemática da eficiência

O funcionamento do TurboQuant baseia-se em dois pilares técnicos que simplificam o armazenamento de dados:

  • PolarQuant (troca de coordenadas): em vez de usar mapas complexos para localizar cada bit de informação, o algoritmo converte os dados para um sistema polar (baseado em ângulos e raios). Isso simplifica a geometria dos dados e remove o “peso morto” que métodos antigos de compressão carregavam.
  • QJL (o revisor de 1 bit): para garantir que nenhuma informação vital seja perdida ao “espremer” os dados, o Google utiliza o QJL. Ele atua como um revisor matemático que elimina distorções, garantindo que a IA continue precisa mesmo operando com arquivos reduzidos.

O “momento DeepSeek” do Google

Segundo o TechCrunch, a inovação está sendo comparada ao “momento DeepSeek” do Google, uma referência ao modelo chinês que provou ser possível alcançar alta performance com custos de hardware reduzidos. Em testes realizados com modelos como Gemma e Mistral, o TurboQuant não apenas economizou espaço, mas também aumentou a velocidade de processamento em até 8 vezes em aceleradores H100.

Embora ainda seja um avanço de laboratório que será detalhado na conferência ICLR 2026, a tecnologia deve ser integrada a sistemas de busca semântica e modelos como o Gemini, tornando as interações com IA muito mais ágeis. É importante notar, porém, que o TurboQuant foca na memória de uso (inferência) e não diminui a necessidade de RAM para o treinamento de novos modelos.

O post Google: nova tecnologia TurboQuant permite à IA lembrar muito mais com menos espaço apareceu primeiro em Olhar Digital.

Google: nova tecnologia TurboQuant permite à IA lembrar muito mais com menos espaço Read More »

design sem nome 12 1024x576

Lyria 3 Pro do Google gera músicas mais longas e completas com IA

O Google ampliou as capacidades de sua inteligência artificial (IA) de criação musical Lyria 3, que agora passa a gerar faixas com até três minutos de duração. A atualização chega com a versão Lyria 3 Pro, elevando em seis vezes o limite anterior, que era de apenas 30 segundos.

A mudança também amplia o controle do usuário sobre as composições. Além de definir estilo, humor ou instrumentação, agora é possível orientar melhor a estrutura das músicas geradas.

Controle aprimorado sobre arranjos musicais

O Lyria 3 Pro permite solicitar elementos específicos dentro da faixa, como introduções, refrões e pontes, oferecendo mais precisão na construção dos arranjos. A ferramenta segue a lógica de outros geradores de música por IA, como Suno e Udio, em que o usuário descreve o que deseja e o sistema produz a faixa correspondente.

O modelo também pode gerar letras a partir de prompts, incluindo referências vindas de texto, imagens ou vídeos, ampliando as possibilidades de criação dentro da plataforma.

Expansão para múltiplas plataformas Google

Uma das principais novidades está na integração com outros produtos do Google. Agora, é possível criar músicas diretamente dentro do Gemini, sem a necessidade de baixar aplicativos específicos.

O modelo também será incorporado ao Vertex AI para clientes corporativos, ao Google AI Studio e à API do Gemini para desenvolvedores, além de chegar ao Google Vids e à plataforma ProducerAI, adquirida recentemente pela empresa. A maior duração das faixas deve ser especialmente relevante para usuários do ProducerAI, que concorre diretamente com o Suno.

Integração com o Gemini é novidade comemorada pelo Google (Imagem: miss.cabul / Shutterstock.com)

Leia mais:

Preocupações sobre imitação e direitos autorais

A possibilidade de gerar músicas completas, em vez de trechos curtos, levanta questionamentos sobre imitação de artistas e violação de direitos autorais. Em comunicado, o Google afirmou que “Lyria 3 e Gemini não imitam artistas” e que, ao citar um criador em um prompt, o modelo utiliza isso apenas como inspiração ampla.

A empresa também informou que verifica as saídas do Lyria 3 Pro em relação a conteúdos existentes para evitar material que infrinja direitos. Além disso, as músicas geradas recebem uma marca d’água silenciosa SynthID, usada para identificar que foram criadas por inteligência artificial.

O post Lyria 3 Pro do Google gera músicas mais longas e completas com IA apareceu primeiro em Olhar Digital.

Lyria 3 Pro do Google gera músicas mais longas e completas com IA Read More »

google stitch 2

Google Stitch: big tech remodela design da platafoma

A ferramenta Google Stitch, voltada ao design de interfaces com uso de inteligência artificial (IA), está sendo reformulada para se tornar uma plataforma nativa de IA capaz de transformar descrições em linguagem natural em interfaces completas, interativas e de alta fidelidade.

A proposta é permitir que qualquer pessoa — de designers profissionais a iniciantes — possa criar, iterar e colaborar no desenvolvimento de software de forma mais rápida e intuitiva.

Segundo os desenvolvedores, o avanço da IA ao longo do último ano mudou profundamente a forma como softwares são criados, permitindo que descrições simples se convertam diretamente em aplicações funcionais. O Stitch foi lançado com o objetivo de dar vida a ideias desde o início do processo de design e, agora, evolui para ampliar esse conceito.

Vibe design no Google Stitch

  • A nova abordagem introduz o conceito de “vibe design”, em que o processo criativo começa não com wireframes, mas com intenções;
  • Em vez de desenhar estruturas iniciais, o usuário pode descrever objetivos de negócio, sensações desejadas para o usuário ou até referências inspiradoras;
  • A IA atua como um multiplicador de criatividade, possibilitando a exploração rápida de múltiplas ideias e contribuindo para resultados de maior qualidade;
  • Uma das principais mudanças é a reformulação completa da interface da plataforma, que passa a contar com um canvas infinito nativo de IA;
  • Esse espaço permite que ideias evoluam desde concepções iniciais até protótipos funcionais, reunindo diferentes formatos de entrada — como texto, imagens e código — em um único ambiente;
  • O objetivo é acompanhar o fluxo natural do design, que alterna entre momentos de expansão e refinamento até chegar a uma solução final.

Leia mais:

Nova abordagem introduz o conceito de “vibe design”, em que o processo criativo começa não com wireframes, mas com intenções (Imagem: Divulgação/Google)

O sistema também incorpora um novo agente de design capaz de analisar todo o histórico e evolução de um projeto. Esse agente trabalha em conjunto com o chamado “Agent manager”, que organiza o progresso e permite explorar múltiplas direções simultaneamente, mantendo o processo estruturado.

Outra novidade é a ampliação das ferramentas de design system. A plataforma agora permite extrair sistemas de design a partir de qualquer URL e introduz o arquivo DESIGN.md, um formato em markdown voltado para agentes de IA. Com ele, é possível exportar e importar regras de design entre diferentes ferramentas, facilitando a reutilização de padrões e evitando retrabalho em novos projetos.

A rapidez na prototipagem é outro destaque. O Stitch transforma designs estáticos em protótipos interativos de forma imediata, permitindo que o usuário visualize a jornada completa do usuário em tempo real.

Telas podem ser conectadas em segundos, e um simples comando de “Play” permite testar o fluxo da aplicação. A ferramenta também é capaz de sugerir automaticamente próximas etapas com base nas interações, mapeando jornadas de forma ágil.

Esse ciclo acelerado de feedback permite ajustes rápidos, seja em elementos específicos ou em fluxos completos, com o objetivo de validar e refinar ideias em menos tempo.

A colaboração também ganha um novo papel dentro da plataforma, passando a ser tratada como uma parceria criativa integrada à IA. Entre os recursos adicionados estão comandos por voz, que permitem ao usuário interagir diretamente com o sistema. O agente pode oferecer críticas em tempo real, sugerir soluções e até conduzir entrevistas para criação de páginas, além de executar alterações instantâneas a partir de instruções faladas.

Nesse contexto, a IA funciona como um “interlocutor criativo”, ajudando o usuário a desenvolver e refinar ideias por meio de diálogo contínuo, sem interromper o fluxo de trabalho.

Além do design, o Stitch também busca integrar-se ao restante do ecossistema de desenvolvimento. A ferramenta pode atuar como ponte para outras soluções utilizadas por equipes, por meio do servidor MCP e de um kit de desenvolvimento (SDK). Também é possível exportar projetos para ferramentas de desenvolvimento, garantindo continuidade entre as etapas de design e implementação.

De acordo com os desenvolvedores, o objetivo é reduzir significativamente o tempo entre a concepção de uma ideia e sua execução prática. A proposta é que tanto designers experientes quanto empreendedores em estágio inicial consigam transformar conceitos em produtos funcionais em minutos, e não mais em dias.

O post Google Stitch: big tech remodela design da platafoma apareceu primeiro em Olhar Digital.

Google Stitch: big tech remodela design da platafoma Read More »