O número de pessoas que pagam para usar o Claude, assistente de inteligência artificial da Anthropic, mais do que dobrou em 2026. Os dados vêm de um levantamento da Indagari — consultoria que analisa o mercado acompanhando transações de cartões de crédito de 28 milhões de consumidores nos Estados Unidos, segundo o TechCrunch.
O crescimento mais forte aconteceu entre janeiro e fevereiro. Esse período foi marcado por comerciais da empresa no Super Bowl e por uma disputa pública entre a Anthropic e o governo americano.
Entenda a polêmica com o governo dos EUA
O conflito com o Departamento de Defesa dos EUA (DoD) começou quando a Anthropic proibiu o uso de sua tecnologia para operações militares letais ou vigilância em massa de cidadãos. O governo chegou a classificar a empresa como um “risco de suprimento”, o que gerou processos judiciais e muita exposição na mídia.
Ao mesmo tempo, a empresa veiculou anúncios criticando a presença de propaganda em outras IAs, prometendo que o Claude continuaria livre de anúncios para quem utiliza a ferramenta.
Novos recursos no plano pago
A maioria dos novos assinantes optou pelo plano “Claude Pro”, que custa 20 dólares por mês. O interesse pelo serviço pago cresceu com o lançamento de ferramentas que automatizam tarefas:
Claude Code e Cowork: Focados em ajudar programadores e aumentar a produtividade no trabalho.
Computer Use: Recurso que permite à IA realizar comandos sozinha no computador, como clicar em botões e rolar páginas.
Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)
Como essas funções não existem na versão gratuita, muitos usuários decidiram começar a pagar para testar as novidades.
Disputa com o ChatGPT
Mesmo com esse avanço, o Claude ainda está longe do alcance do ChatGPT. Os dados da Indagari mostram que, embora o ChatGPT tenha tido um pico de cancelamentos quando anunciou parcerias com militares, ele continua sendo a maior plataforma de IA do mundo e segue atraindo novos assinantes em um ritmo veloz.
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
Os americanos Rich Veldran e Peter Mahoney, CEO e CCO da GoTo, estiveram pela primeira vez no Brasil na segunda quinzena de março, em uma visita que marcou a estreia de um tour da dupla pelos principais mercados da companhia de tecnologias de comunicação, colaboração e de trabalho remoto. A estadia em São Paulo durou […]
O post Por que o Brasil foi escolhido como palco da estreia da “turnê” global da GoTo apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
A empresa de inteligência artificial (IA)Anthropicconfirmou que está desenvolvendo e já iniciou testes com um novo modelo de IA mais avançado do que qualquer versão anterior, após um vazamento de dados revelar sua existência.
Segundo a companhia, o sistema representa “uma mudança de patamar” em desempenho e é “o mais capaz que já construímos até hoje”.
De acordo com um porta-voz, o modelo já está sendo testado por um grupo restrito de clientes com acesso antecipado. A confirmação veio depois que descrições do sistema foram encontradas acidentalmente em um cache de dados público, analisado pela revista Fortune.
Vazamento expõe novo modelo e estratégia da Anthropic
O material vazado incluía um rascunho de postagem de blog, disponível em um repositório público e não protegido até a noite de quinta-feira (26), no qual o modelo era identificado como Claude Mythos. No documento, a empresa afirmava que o sistema poderia representar riscos inéditos de segurança cibernética;
O mesmo conjunto de arquivos também revelou detalhes sobre um encontro exclusivo de CEOs na Europa, parte da estratégia da Anthropic para comercializar seus modelos de IA a grandes empresas;
Os documentos foram encontrados em um vazamento de dados público e desprotegido, segundo análise de Roy Paz, pesquisador sênior de segurança em IA da LayerX Security, e Alexandre Pauwels, pesquisador da Universidade de Cambridge;
Ao todo, cerca de três mil ativos ligados ao blog da empresa — que não haviam sido publicados oficialmente — estavam acessíveis, segundo Pauwels.
Após ser informada pela Fortune, a Anthropic desativou o acesso público ao repositório. Em nota, a empresa atribuiu o incidente a um “erro humano” na configuração de seu sistema de gerenciamento de conteúdo (CMS, na sigla em inglês), classificando os arquivos como “rascunhos iniciais de conteúdo considerados para publicação”.
Novo nível de modelos: Capybara
Além do nome Mythos, o rascunho também descrevia uma nova categoria de modelos chamada Capybara. Segundo o documento, “‘Capybara’ é um novo nome para uma nova camada de modelo: maior e mais inteligente do que nossos modelos Opus — que, até agora, eram os mais poderosos”.
A Anthropic atualmente organiza seus modelos em três níveis: Opus (mais avançados), Sonnet (intermediários) e Haiku (mais leves e rápidos). O Capybara surgiria como uma camada superior ao Opus, com maior capacidade — e também custo mais elevado.
“Comparado ao nosso melhor modelo anterior, Claude Opus 4.6, o Capybara alcança pontuações dramaticamente mais altas em testes de programação, raciocínio acadêmico e cibersegurança, entre outros”, diz o texto.
O documento afirma ainda que o treinamento do Claude Mythos já foi concluído e o descreve como, “de longe, o modelo de IA mais poderoso que já desenvolvemos”.
Questionada pela Fortune, a empresa confirmou o desenvolvimento do novo sistema: “Estamos desenvolvendo um modelo de propósito geral com avanços significativos em raciocínio, programação e cibersegurança”, disse o porta-voz. “Dada a força de suas capacidades, estamos analisando como lançá-lo.”
O material analisado indica que o lançamento será gradual, começando com um grupo restrito de usuários, devido ao alto custo operacional e ao fato de o modelo ainda não estar pronto para uso amplo.
Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)
Riscos inéditos em cibersegurança
Um dos principais pontos destacados no rascunho é o potencial de risco do modelo na área de segurança digital. “Ao nos prepararmos para lançar o Claude Capybara, queremos agir com cautela extra e entender os riscos que ele apresenta — inclusive, além do que aprendemos em nossos próprios testes”, afirma o documento.
A empresa demonstra preocupação específica com o uso malicioso da tecnologia: o sistema estaria “atualmente muito à frente de qualquer outro modelo de IA em capacidades cibernéticas” e “prenuncia uma onda de modelos capazes de explorar vulnerabilidades muito mais rapidamente do que os esforços de defesa”.
Na prática, isso significa que hackers poderiam utilizar o modelo para realizar ataques cibernéticos em larga escala. Por esse motivo, a estratégia inicial de lançamento prioriza defensores de segurança digital. “Estamos liberando o acesso antecipado para organizações, dando a elas uma vantagem inicial na melhoria da robustez de seus sistemas contra a onda iminente de exploits impulsionados por IA”, diz o texto.
A Anthropic não é a única a alertar para esse tipo de risco. Modelos recentes também têm ultrapassado limites considerados críticos em cibersegurança. Em fevereiro, a OpenAI classificou seu GPT-5.3-Codex como de “alta capacidade” para tarefas relacionadas à área.
A própria Anthropic já havia enfrentado desafios semelhantes com o Opus 4.6, capaz de identificar vulnerabilidades desconhecidas em códigos — uma característica de uso duplo, que pode tanto fortalecer defesas quanto facilitar ataques.
A empresa também revelou que grupos hackers, incluindo organizações ligadas ao governo chinês, já tentaram explorar seus sistemas.
Em um caso documentado, um grupo patrocinado pelo Estado chinês utilizou o Claude Code para infiltrar cerca de 30 organizações, incluindo empresas de tecnologia, instituições financeiras e agências governamentais. Após detectar a operação, a Anthropic investigou o caso por dez dias, baniu as contas envolvidas e notificou as vítimas.
Especialistas apontam que o vazamento ocorreu devido à configuração padrão do CMS utilizado pela empresa, que torna os arquivos públicos automaticamente, a menos que o usuário altere manualmente as permissões.
A Anthropic confirmou que “um problema com uma de nossas ferramentas externas de CMS levou ao acesso a conteúdo em rascunho”, novamente atribuindo a falha a erro humano. Embora muitos arquivos fossem materiais descartados — como imagens e banners —, alguns pareciam documentos internos, incluindo registros relacionados a benefícios de funcionários.
Entre os arquivos, também havia um PDF com detalhes de um retiro exclusivo para CEOs europeus, que será realizado no Reino Unido e contará com a presença do CEO da empresa, Dario Amodei.
O evento de dois dias é descrito como um encontro “íntimo”, voltado a “conversas reflexivas” em uma mansão do século XVIII transformada em hotel e spa. Os participantes, não identificados nominalmente, são descritos como alguns dos líderes empresariais mais influentes da Europa.
Segundo a empresa, o encontro faz parte de uma série de eventos organizados ao longo do último ano. “Esperamos receber líderes empresariais europeus para discutir o futuro da IA”, afirmou o porta-voz.
O Google está facilitando a vida de usuários que querem migrar para o Gemini. A empresa lançou um recurso que permite transferir conversas completas e dados pessoais de um chatbot (como Claude ou ChatGPT) para o Gemini.
Ao importar as informações, o usuário consegue retomar a conversa de onde parou, sem necessidade de treinar a IA do Google do zero em relação ao que já foi dito em outros aplicativos.
A ferramenta foi anunciada pela empresa na quinta-feira (26). São duas formas de realizar a migração para o Gemini:
Transferência de memórias
Nesse caso, o Gemini sugere um prompt específico que o usuário deve inserir em seu chatbot atual. A plataforma gera uma resposta contendo as informações pessoais relevantes, que pode ser copiada e colada diretamente no Gemini.
Esse processo permite que a ferramenta do Google oriente o usuário sobre quais tipos de informação seriam úteis conhecer, facilitando a transmissão desses dados para seu próprio arquivo. A companhia explica que, após importar essas memórias, o Gemini compreenderá os mesmos fatos fundamentais compartilhados com outros aplicativos, como interesses pessoais, nome de irmãos ou local onde cresceu.
Transferência de memórias no Gemini (Imagem: Google/Divulgação)
Importação completa do histórico de conversas
Esse processo envolve o upload de um arquivo zip contendo todas as conversas anteriores. A maioria dos chatbots, incluindo ChatGPT e Claude, permite a exportação de logs de conversas em formato zip de forma relativamente simples. Esse método possibilita que os usuários “continuem exatamente de onde pararam”, segundo a empresa.
Os usuários também podem pesquisar conversas antigas importadas para o Gemini. Essa funcionalidade de busca permite localizar informações específicas dentro do extenso histórico transferido.
Importação de conversas no Gemini (Imagem: Google/Divulgação)
Estratégia de crescimento do Gemini
O movimento ocorre em meio a uma disputa intensa pela atenção dos consumidores no mercado de chatbots de IA. Todos os principais provedores buscam aumentar sua base de usuários. A ferramenta é uma tentativa do Google de facilitar a migração para o Gemini.
Atualmente, o ChatGPT é líder no mercado de chatbots para consumidores, com 900 milhões de usuários semanais. O Gemini ainda fica atrás, com 750 milhões de usuários semanais.
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
O impacto que a inteligência artificial (IA) terá na vida das pessoas e das empresas será muito maior do que todas as grandes invenções da história. Por isso, segundo Luís Roberto Barroso, ex-ministro do Supremo Tribunal Federal (STF), é preciso começar a discutir como regular a tecnologia, mas sem criar regras que travem a pesquisa […]
O post Inteligência Artificial impõe desafio e necessidade de regulação, diz Barroso apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
Se, nos bastidores, a eleição presidencial e a guerra entre os EUA e o Irã dominam as conversas do South Summit Brazil, no palco o assunto é outro. A inteligência artificial domina praticamente todos os painéis. Um exemplo é a IA visível e invisível na Renner, que trouxe ao South Summit Brazil os primeiros resultados […]
O post Renner, Vivo e iFood: a IA está em todos os lugares no palco do South Summit Brazil apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
O Google informou, nesta quinta-feira (26), a expansão global de seu recurso de busca conversacional com inteligência artificial (IA), o Search Live, para todos os idiomas e localizações onde o Modo IA está disponível. A expansão coloca a ferramenta ao alcance de usuários em mais de 200 países e territórios.
A funcionalidade permite que usuários direcionem a câmera do smartphone para objetos e recebam assistência em tempo real. O sistema possibilita conversas bidirecionais que utilizam o contexto visual capturado pela câmera do dispositivo.
O Search Live foi lançado pela primeira vez em julho de 2025. Antes da expansão global anunciada nesta quinta, o recurso estava disponível apenas nos Estados Unidos e na Índia.
A nova expansão é viabilizada pelo modelo de áudio e voz Gemini 3.1 Flash Live, desenvolvido pelo Google. Segundo a empresa, o modelo oferece conversas mais naturais e intuitivas.
Como usar o Search Live
Para acessar o Search Live, usuários precisam abrir o aplicativo Google em dispositivos Android ou iOS e tocar no ícone Live localizado abaixo da barra de pesquisa;
A partir daí, é possível fazer perguntas em voz alta para receber respostas em áudio e continuar a conversa com questões de acompanhamento;
O Google descreve o recurso como projetado para momentos que exigem ajuda em tempo real, quando digitar uma consulta não é suficiente;
Usuários podem ativar a câmera para adicionar contexto visual, permitindo que o sistema veja o que a câmera captura e ofereça sugestões úteis, além de links para mais informações na web.
Recurso auxilia o usuário na hora de realizar uma busca com o uso da câmera do aparelho (Imagem: Reprodução/Google)
O exemplo dado pela empresa ilustra situações, como perguntar sobre a instalação de uma nova estante. O sistema pode ver por meio da câmera e fornecer orientações específicas baseadas no contexto visual.
Usuários que já estão utilizando a câmera com o Google Lens podem acessar o Search Live tocando na opção “Live” na parte inferior da tela. Esta integração amplia as formas de acesso ao recurso conversacional.
Os usuários também têm a opção de explorar links da web para aprofundar suas pesquisas após receberem as respostas iniciais do sistema.
Expansão do Google Tradutor
Paralelamente ao lançamento global do Search Live, o Google anunciou a expansão do recurso Tradução Ao Vivo do Google Tradutor para iOS. A funcionalidade permite ouvir traduções em tempo real via fones de ouvido.
O Tradutor Ao Vivo também está se expandindo para mais países, incluindo Alemanha, Espanha, França, Nigéria, Itália, Reino Unido, Japão, Bangladesh e Tailândia. Com essa expansão, usuários de Android e iOS podem acessar traduções em tempo real em qualquer par de fones de ouvido em mais de 70 idiomas.
A decisão foi adicionada às diretrizes da plataforma e cita que a razão da proibição é o fato de haver a tendência de artigos escritos por IA violarem “diversas políticas de conteúdo fundamentais da Wikipédia“.
Segundo o The Verge, essa modificação aplica-se à versão em inglês do site. O Olhar Digital entrou em contato com a empresa para saber se a versão brasileira também está sob essa nova regulação e aguarda retorno.
Apesar da proibição, os usuários ainda poderão usar a IA em certos cenários, como o uso de grandes modelos de linguagem (LLMs, na sigla em inglês) para “sugerir correções básicas” nos textos, mas apenas se “não introduzir conteúdo próprio“.
Além disso, os editores podem usar a tecnologia para traduzir artigos de outro idioma para o inglês, mas as regras de traduções assistidas por modelos de linguagem devem ser seguidas. Elas dizem que os editores devem ter conhecimento suficiente do idioma original para garantir a precisão da tradução.
Editores ainda podem usar a tecnologia para traduzir artigos de outro idioma para o inglês em certos casos (Imagem: Primakov/Shutterstock)
Além disso, a nova política aponta que algumas pessoas “podem ter estilos de escrita semelhantes aos de mestres em direito” e que os editores precisarão encontrar mais do que “sinais estilísticos ou linguísticos” para justificar restrições às suas capacidades de realizar traduções;
“É melhor considerar a conformidade do texto com as políticas de conteúdo essenciais e as edições recentes feitas pelo editor em questão”, diz a norma;
Essa prática de criação de artigos com IA na Wikipédia vem acontecendo há meses;
Isso fez com que a comunidade implementasse nova política para permitir a “exclusão rápida” de artigos mal escritos;
Além disso, os editores criaram o WikiProject AI Cleanup, que combate o conteúdo escrito por IA e ajuda outros editores a identificar esse tipo de texto.
As mudanças foram propostas por um usuário e deram início às discussões sobre os editores. A proposta foi então aprovada com “apoio esmagador“. Os defensores dela concluíram que essa política “visa problemas flagrantes com o uso de LLM, ao mesmo tempo que permite alguma margem para o que é considerado uso decente”.
Uma equipe internacional de pesquisadores utilizou inteligência artificial (IA) para analisar as emissões de incêndios florestais na Amazônia em 2024, e os resultados são alarmantes.
Segundo o estudo, publicado na revistaGeophysical Research Letters, as emissões de carbono podem ter sido até três vezes maiores do que se estimava até agora, revelando uma dimensão inédita do impacto ambiental.
Em resumo:
Pesquisadores usaram IA para analisar incêndios na Amazônia em 2024;
Emissões de carbono podem ser até três vezes maiores que estimativas;
Incêndios atingiram níveis recordes, afetando Amazônia e Cerrado;
Satélites e modelos estimaram CO como indicador de CO₂ liberado;
Combustão lenta contribuiu significativamente para as emissões daquele ano.
Queimada na Floresta Amazônica brasileira para abrir espaço para pastagem. Crédito: Pedarilhosbr – Shutterstock
Incêndios de 2024 foram os maiores em 20 anos na Amazônia
Os incêndios florestais são recorrentes na região central da América do Sul, agravados pelo desmatamento e pela seca. Em 2024, a atividade de fogo alcançou seu nível mais alto em duas décadas, atingindo vastas áreas da Amazônia e do Cerrado, a savana tropical mais biodiversa do mundo, que cobre cerca de um quinto do Brasil e partes da Bolívia e do Paraguai.
O estudo combinou dados de satélite sobre monóxido de carbono com modelos de incêndios florestais. O monóxido de carbono foi usado como indicador para estimar a emissão de dióxido de carbono, principal gás de efeito estufa. Esse método revelou que as estimativas tradicionais subestimam significativamente o volume de carbono liberado.
De acordo com os pesquisadores, a produção real de carbono pode ter sido entre 1,5 e três vezes maior do que o apontado pelos modelos convencionais. Isso representa um desafio para os cálculos globais de carbono e para os modelos climáticos, que dependem de dados precisos sobre emissões para prever o aquecimento do planeta.
Área queimada e desmatada na Floresta Nacional de Jamanxim, Pará. Crédito: Marcio Isensee – Shutterstock
O estudo foi liderado pela Universidade Técnica de Dresden, em cooperação com o Instituto Meteorológico Real dos Países Baixos (KNMI) e a BeZero Carbon, de Londres, com financiamento da Agência Espacial Europeia (ESA). Uma descoberta importante foi que a combustão lenta, ou seja, brasas que continuam queimando por dias, contribuiu muito para as emissões de 2024.
Jos de Laat, cientista sênior do KNMI, explicou em um comunicado que a pesquisa analisou uma área de cerca de 4 milhões de km², principalmente próxima à fronteira entre Brasil e Bolívia. “Os incêndios e a poluição concentrados ali afetaram a qualidade do ar em toda a região”. Ele acrescentou que os métodos atuais não reproduzem com precisão o que os satélites captam, ignorando fontes importantes de emissões.
Fumaça de incêndios florestais na Amazônia boliviana, em setembro de 2024. Crédito: Dados modificados do Copernicus Sentinel (2024), processados pela ESA.
IA agiliza avaliação de grandes conjuntos de dados
Para melhorar a análise, os cientistas treinaram um sistema de IA capaz de processar grandes volumes de dados rapidamente. Isso permitiu avaliar múltiplos anos e regiões, mesmo com alta demanda computacional. Além disso, combinaram dados das missões Sentinel-2, Sentinel-3 e Sentinel-5P, da ESA, ampliando a precisão das estimativas.
O monóxido de carbono é mais fácil de detectar do espaço do que o dióxido de carbono, que já está presente na atmosfera em níveis elevados e quase constantes. Pequenas variações de CO2 passam despercebidas pelos satélites. Já o monóxido de carbono existe em concentrações muito baixas e variáveis, tornando o aumento gerado pelos incêndios mais fácil de medir.
A pesquisa faz parte do projeto internacional Sense4Fire, financiado pela ESA. O objetivo é entender melhor as condições que favorecem a ignição de incêndios e aprimorar estimativas de emissões de carbono causadas por chamas e brasas. Técnicas avançadas de sensoriamento remoto e modelos computacionais complexos foram aplicados para analisar a vegetação, umidade e condições da superfície.
As imagens comparam estimativas de emissões de incêndios (à esquerda), feitas pelo sistema GFAS do Serviço de Monitoramento da Atmosfera Copernicus (CAMS), com dados reais captados pelo satélite Copernicus Sentinel-5P (à direita). As medições foram feitas sobre áreas do Brasil, Bolívia e Paraguai em setembro de 2024, mostrando diferenças entre modelos e observações diretas do espaço. Crédito: ESA (fonte de dados: J. De Laat et al, 2026).
Stephen Plummer, cientista da agência, destacou que as conclusões ajudam a revisar como calculamos as emissões de CO2, um dos principais gases do efeito estufa. Ele ressaltou que os satélites Sentinel fornecem dados precisos que permitem compreender melhor como a Terra reage aos incêndios e contribuem para melhorar políticas climáticas baseadas em ciência.
O Sentinel-5P, lançado em 2017, possui o espectrômetro Tropomi, capaz de medir gases como CO, metano e dióxido de nitrogênio com resolução inédita. Isso possibilita monitorar a poluição de incêndios em detalhes e integrar informações sobre vegetação e condições do solo, tornando as estimativas de emissões mais precisas do que os métodos tradicionais.
Jos de Laat acrescentou que os métodos e dados gerados serão incorporados em futuros projetos do programa Horizonte Europa e do Serviço de Monitoramento Atmosférico Copernicus (CAMS). Isso garante que as novas técnicas continuem a fornecer informações confiáveis e apoiem políticas públicas e científicas sobre mudanças climáticas.
A OpenAI suspendeu indefinidamente o desenvolvimento do “modo adulto” do ChatGPT. A modalidade permitiria ter conversas de natureza sexual com o chatbot, mas foi alvo de críticas dentro da própria desenvolvedora.
A informação foi divulgada pelo site Financial Times. A versão erótica foi arquivada como parte de uma estratégia mais ampla da empresa para focar em seus produtos principais e segue a interrupção do Sora, rede social de vídeos gerados por IA (mais detalhes abaixo).
A decisão ocorre após resistência interna de funcionários e investidores preocupados com os possíveis efeitos nocivos do conteúdo sexualizado de IA na sociedade. De acordo com o FT, a OpenAI quer dedicar mais tempo pesquisando os efeitos de longo prazo desse tipo de interação antes de tomar uma decisão definitiva sobre o produto.
A empresa afirmou que atualmente não há “evidência empírica” sobre esses impactos.
Na semana passada, o Wall Street Journal também reportou que o modo adulto havia sido adiado devido a preocupações internas relacionadas à moderação e proteção de crianças.
Mais cedo nesta semana, OpenAI comunicou interrupção do Sora (Imagem: Tada Images/Shutterstock)
Não foi só o ChatGTP erótico: OpenAI revisita suas prioridades
A suspensão indefinida do projeto ocorre em um momento em que a OpenAI reavalia suas prioridades. A companhia tem enfrentado pressão crescente de rivais no setor de IA, levando a uma estratégia que prioriza produtos centrais em detrimento de funcionalidades experimentais.
Ainda nesta semana, a desenvolvedora comunicou a descontinuação do Sora, aplicativo de geração de vídeos de IA. A ação também faz parte da estratégia de priorizar produtos mais consolidados e rentáveis.
O encerramento resultou na recisão do contrato de US$ 1 bilhão com a Disney. O Olhar Digital deu os detalhes aqui.