loja apple 1 1024x683

Google lança app de ditado por voz com IA offline para iOS

O Google lançou, discretamente, nesta segunda-feira (6), um novo aplicativo de ditado chamado Google AI Edge Eloquent para dispositivos iOS. Com foco em oferecer uma experiência offline, essa novidade visa competir com outros aplicativos populares do mercado, como Wispr Flow, SuperWhisper e Willow.

O aplicativo está disponível gratuitamente para download. Para começar a usá-lo, o usuário precisa primeiramente baixar os modelos de reconhecimento automático de fala (ASR, na sigla em inglês) baseados na tecnologia Gemma, que permitem a transcrição em tempo real. Uma função interessante é que, após pausar, o aplicativo automaticamente elimina palavras de preenchimento, como “hum” e “ah”, refinando o texto transcrito.

Funcionalidades do Google AI Edge Eloquent

  • Entre as funcionalidades apresentadas, o app oferece opções abaixo da transcrição para transformar o texto em estilos “Pontos-chave”, “Formal”, “Curto” e “Longo”;
  • O aplicativo ainda permite desligar a integração com a nuvem, na qual modelos baseados em nuvem Gemini são utilizados para aprimorar o texto;
  • A personalização também é um ponto forte. O Google AI Edge Eloquent pode importar termos específicos, nomes e jargões do Gmail do usuário, além de possibilitar a adição de palavras customizadas à biblioteca. O histórico das sessões de transcrição é armazenado, permitindo busca facilitada entre as sessões;
  • Na descrição oficial na App Store, o Google destaca que o Eloquent foi projetado para converter discurso natural em textos profissionais e prontos para uso.
Por ora, nada de Android; apenas iOS, da Apple (Imagem: Denys.Kutsevalov/Shutterstock)

Leia mais:

“Diferente de softwares de ditado padrão, que transcrevem cada erro e hesitação, o Eloquent utiliza inteligência artificial para captar o significado desejado, eliminando ‘hums’ e ‘ahs’ além de correções feitas durante as frases, oferecendo um texto limpo e preciso”, detalha a empresa.

Por enquanto, o aplicativo está disponível somente para iOS, mas a descrição na App Store já menciona a futura integração com Android. Isso permitiria aos usuários definirem o app como teclado padrão para todas as entradas de texto, além de usufruírem de um botão flutuante, semelhante ao utilizado pelo Wispr Flow no Android.

O post Google lança app de ditado por voz com IA offline para iOS apareceu primeiro em Olhar Digital.

Google lança app de ditado por voz com IA offline para iOS Read More »

openai 1 1024x576

IA pressiona iniciantes e já afeta empregos nos EUA

A inteligência artificial (IA) começa a apresentar efeitos mensuráveis no mercado de trabalho dos Estados Unidos, segundo levantamento do Goldman Sachs. O estudo aponta que profissionais em início de carreira estão entre os mais impactados por essa transformação.

De acordo com o banco, desde o lançamento do ChatGPT, o avanço da IA reduziu o crescimento mensal da folha de pagamento em cerca de 16 mil vagas. O relatório também indica um aumento de 0,1 ponto percentual na taxa de desemprego associado a esse movimento. As informações foram divulgadas em reportagem da Reuters, que detalha os impactos da tecnologia sobre o emprego no país.

Lançamento do ChatGPT é apontado como marco recente no avanço da IA e seus efeitos no mercado de trabalho – Imagem: Markus Mainka / Shutterstock

Impacto sobre profissionais menos experientes

Segundo Elsie Peng, analista do Goldman Sachs, o peso das mudanças tem sido maior sobre trabalhadores com menos experiência. “Grande parte do custo está recaindo sobre os trabalhadores menos experientes”, escreveu a analista no relatório.

Para chegar às conclusões, o banco desenvolveu um sistema de pontuação que avalia dois efeitos distintos da IA no emprego: a substituição de trabalhadores e a complementação do trabalho humano.

Nos casos de substituição, tarefas antes realizadas por pessoas passam a ser feitas por sistemas automatizados. Esse movimento aparece em áreas como atendimento telefônico, análise de sinistros de seguros e cobrança de contas, onde o estudo observa redução no número de empregados e aumento do desemprego.

A IA como ferramenta de apoio

Por outro lado, a inteligência artificial também atua como ferramenta de apoio em diferentes setores. Nesses casos, a tecnologia contribui para aumentar a eficiência e a velocidade na execução de tarefas, sem substituir totalmente os trabalhadores.

Segundo o levantamento, esse efeito tem impulsionado o emprego em áreas como educação, direito e gerenciamento de obras.

“Os setores mais expostos ao uso da IA como ferramenta registraram aumento no emprego e leve redução nas taxas de desemprego, o que compensou parte das perdas observadas em outras áreas”, afirmou o banco.

Leia mais:

Impacto pode ser menor do que o estimado

O Goldman Sachs ressalta que o impacto total da inteligência artificial pode ser inferior ao indicado nas estimativas. Isso porque os cálculos não consideram plenamente novos postos de trabalho ligados ao desenvolvimento da própria tecnologia.

Entre esses empregos estão vagas associadas à construção de centros de dados e ao aumento da demanda por trabalhadores em setores que podem crescer com ganhos de produtividade impulsionados pela IA.

O post IA pressiona iniciantes e já afeta empregos nos EUA apareceu primeiro em Olhar Digital.

IA pressiona iniciantes e já afeta empregos nos EUA Read More »

shutterstock 2516408321 1 scaled e1767720658456 1024x577

Microsoft diz que Copilot é “apenas para entretenimento”

A Microsoft tem sido alvo de comentários nas redes sociais por causa dos termos de uso do Copilot, que incluem um aviso direto sobre as limitações da ferramenta. O documento, que teria sido atualizado pela última vez em 24 de outubro de 2025, afirma que o sistema deve ser utilizado com cautela.

Apesar do foco da empresa em ampliar a adoção do Copilot entre clientes corporativos, o conteúdo desses termos chamou atenção ao destacar que a ferramenta não deve ser considerada confiável para orientações importantes.

Copilot apresenta mensagem dizendo ser apenas para “fins de entretenimento” – Imagem: Primakov/Shutterstock

Aviso sobre uso do Copilot

Nos termos de uso, a Microsoft afirma que o Copilot é “apenas para fins de entretenimento”. O texto também alerta que a ferramenta pode cometer erros e não funcionar como esperado.

A empresa orienta os usuários a não confiarem no Copilot para conselhos importantes e reforça que o uso ocorre por conta e risco de quem acessa o serviço.

Atualizações nos termos

Em declaração ao PCMag, um porta-voz da Microsoft informou que a empresa pretende atualizar o que classificou como “linguagem legada” presente nesses termos.

Segundo o representante, com a evolução do produto, esse trecho já não reflete como o Copilot é utilizado atualmente e deverá ser alterado em uma próxima atualização.

Leia mais:

Avisos semelhantes em outras empresas

O uso desse tipo de ressalva não é exclusivo da Microsoft. De acordo com o Tom’s Hardware, outras empresas de inteligência artificial também adotam orientações semelhantes.

A OpenAI, por exemplo, afirma que suas respostas não devem ser usadas como “única fonte de verdade ou informação factual”, enquanto a xAI recomenda que os usuários não tratem os resultados como “a verdade”.

Logo da OpenAI em um smartphone
OpenAI também tem mensagem de alerta em seus produtos – Imagem: Thrive Studios ID/Shutterstock

O post Microsoft diz que Copilot é “apenas para entretenimento” apareceu primeiro em Olhar Digital.

Microsoft diz que Copilot é “apenas para entretenimento” Read More »

ia emprego 1 1024x569

OpenAI propõe fundo público e novas regras para a era da IA

A OpenAI divulgou nesta segunda-feira (6) um conjunto de recomendações de políticas públicas voltadas ao avanço da inteligência artificial (IA). O documento, intitulado “Industrial Policy for the Intelligence Age: Ideas to Keep People First” (Política Industrial para a Era da Inteligência: Ideias para Manter as Pessoas em Primeiro Lugar, em tradução livre), apresenta propostas para lidar com impactos econômicos e sociais associados à tecnologia e iniciar um debate mais amplo sobre o tema.

Entre as sugestões estão a criação de um fundo público de riqueza, a implementação de mecanismos automatizados de proteção social e a aceleração da infraestrutura energética. Segundo a empresa, a proposta busca garantir que os ganhos gerados pela IA sejam distribuídos de forma mais ampla e que a sociedade esteja preparada para possíveis mudanças no mercado de trabalho.

Propostas focam em emprego e renda

Grande parte das recomendações trata das transformações no mercado de trabalho. A empresa criadora do ChatGPT aponta riscos de deslocamento de empregos e defende medidas para permitir que a população participe diretamente dos benefícios econômicos da IA.

Uma das principais ideias é a criação de um fundo público que distribua recursos à população, permitindo que cidadãos tenham participação no crescimento econômico impulsionado pela tecnologia. A empresa também sugere incentivar testes de semana de trabalho de quatro dias, desde que não haja queda na produtividade.

Documento da OpenAI discute efeitos da inteligência artificial no mercado de trabalho e propõe medidas para lidar com mudanças na renda e no emprego – Imagem: Stokkete/Shutterstock

Outro ponto central é a criação de redes de proteção social adaptativas, baseadas em dados em tempo real. A proposta prevê o monitoramento contínuo de indicadores como desemprego, salários e qualidade do trabalho. Caso esses dados ultrapassem limites pré-definidos, mecanismos automáticos seriam acionados, incluindo benefícios ampliados, assistência financeira rápida e programas de requalificação. Esses apoios seriam temporários e ajustados conforme a intensidade das mudanças no mercado.

Infraestrutura e energia ganham destaque

O documento também destaca a necessidade de expandir rapidamente a infraestrutura energética para sustentar o crescimento da inteligência artificial, especialmente diante do aumento no consumo por data centers.

A OpenAI sugere a criação de parcerias público-privadas para financiar e acelerar a expansão da rede elétrica, incluindo linhas de transmissão de alta capacidade. A proposta também enfatiza a redução de entraves regulatórios e o uso de incentivos para viabilizar projetos em larga escala.

Segundo o texto, esses modelos devem ser estruturados para limitar riscos aos cofres públicos e evitar que consumidores arquem com os custos da expansão. A expectativa é que o aumento da capacidade energética contribua para reduzir preços e sustentar o avanço da tecnologia.

Leia mais:

Contexto da inteligência artificial

O documento também aborda o conceito de superinteligência, definido como sistemas capazes de superar o desempenho dos humanos mais inteligentes, mesmo quando assistidos por outras inteligências artificiais. Embora ainda não exista, a tecnologia é tratada como um cenário possível que exige planejamento antecipado.

Fundada em 2015, a OpenAI ganhou destaque com o lançamento do ChatGPT em 2022, impulsionando o crescimento da IA generativa. A empresa afirma que suas propostas são iniciais e têm como objetivo estimular discussões entre governos, empresas e sociedade sobre como lidar com as mudanças trazidas pela tecnologia.

O post OpenAI propõe fundo público e novas regras para a era da IA apareceu primeiro em Olhar Digital.

OpenAI propõe fundo público e novas regras para a era da IA Read More »

A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina

Nesta entrevista, o neurocientista Álvaro Machado Dias, professor da Unifesp e colunista do Olhar Digital, analisa os rumos da corrida da inteligência artificial a partir de uma perspectiva que combina tecnologia, geopolítica e mercado. Ao comentar a evolução desde o surgimento do ChatGPT, ele aponta quais avanços pareciam previsíveis, quais decepcionaram em velocidade e quais surpreenderam, como a incorporação cada vez mais direta da IA às estratégias de Estado e à disputa internacional por poder computacional.

Ao longo da conversa, Álvaro também discute quem lidera hoje a corrida da IA, o papel central da indústria de chips, a ascensão da China, a especialização das empresas que disputam o mercado consumidor e os limites atuais da chamada inteligência artificial geral. A entrevista traça um panorama amplo sobre o presente e o futuro do setor, passando da infraestrutura de hardware aos modelos de linguagem, dos agentes de IA à hipótese de sistemas cada vez mais especializados.

Acompanhe!

Olhar Digital: Quando o ChatGPT surgiu no final de 2022, se alguém te descrevesse exatamente o que a gente tem hoje em 2026, você acharia plausível ou loucura?

Alvaro: Eu acharia plausível. Eu, na verdade, naquele momento, já senti que tinha algo de revolucionário acontecendo. Algumas coisas no fundo andaram até mais devagar do que eu imaginava, outras andaram de maneira mais rápida. Como sempre o cenário que se formou é muito distinto daquele que eu tinha em mente, mas isso não significa que eu acharia implausível, porque do ponto de vista de velocidade até que mais ou menos projetei a coisa de maneira correta.

Especificamente, eu não imaginava que o problema das alucinações permaneceria por tanto tempo. Para mim isso nunca teria surgido como uma questão insolúvel dentro da modelagem atual. Eu precisei compreender muito mais o funcionamento e eu lembro que eu publiquei um artigo mais ou menos seis meses depois do surgimento do ChatGPT em que eu dizia que basta você entender direito, conseguir compreender o attention is all you need, o paper e tudo mais para você ver que as alucinações não têm solução dentro da arquitetura atual. Mas quando surgiu eu não imaginava.

Outra coisa que eu imaginava que andaria muito mais rápido é a conversa com buffer zero. Para mim, assim, que legal, esse ChatGPT permite conversar como se estivesse falando com uma pessoa. Bom, botar isso com text-to-voice, que é uma coisa que na época já era muito comum, com total naturalidade, na boca de robôs, em totens e tal, vai ser algo rápido, simples. E a verdade é que a gente não vê isso em quase lugar nenhum. Tem várias demos, softwares, tem sempre esse papo. Mas na hora do vamos ver, você não vai no McDonald’s e conversa com a IA como se fosse uma pessoa e assim por diante. Existe sempre um buffer, um tempo, uma latência que cria um leve estranhamento nas conversas.

Agora, a coisa que para mim andou mais rápida é a fusão com as políticas de Estado. Essas sim me surpreenderam, sobretudo do governo Trump. É razoável imaginar os chineses apostando na inteligência artificial como o grande paradigma nos seus planos quinquenais, mas imaginar o Trump dentro dessa mesma lógica, o governo americano dentro dessa mesma lógica, é algo que para mim escapou completamente da análise.

Olhar Digital: Acho que você dá um bom gancho para o que seria a minha última pergunta, que é sobre a liderança da corrida das IA’s. Você enxerga um líder quando falamos de nação e de empresa?

Alvaro: Hoje em dia, o Ocidente lidera a corrida das IAs. Eu acho que isso não é uma questão de opinião, isso é algo que você pode aferir através de vários parâmetros, entre eles, quem é que está liderando a inovação no domínio da produção de chips, no domínio da instalação de servidores e no domínio de grandes modelos fundacionais. É tudo o Ocidente que lidera.

E a explicação é que a cadeia de suprimentos da inteligência artificial é a cadeia mais complexa construída pelo ser humano. E só para você criar microchips altamente empacotados, o que é a condição sine qua non para o progresso no campo, você precisa envolver empresas que têm tecnologias patenteadas, altamente defendidas, que estão em lugares como Taiwan, Holanda, Alemanha, Japão, Estados Unidos. Então, é muito difícil para a China competir contra essa cadeia global, na qual um embargo a impede de, não só de capturar os detalhes do ponto de vista de patentes, mas também de competir de igual para igual nesse mercado. Então, porque se os chineses tivessem incentivo para vender como os sul-coreanos, tecnologias para inteligência artificial, no caso eu estou falando da Samsung, mas não só dela, certamente o cenário seria outro só em função dos estímulos internos no país.

Não sendo o caso, o que a gente tem que pensar é que a China tem o desafio de ganhar do mundo inteiro. E na medida em que ela vai investindo, ela vai se aproximando disso. E essa aproximação significa que, quando houver a virada, ela deve vir muito forte. Afinal de contas, aí os ganhos todos, em termos de inovação e escala, vão estar do lado chinês. Porque é lógico que é muito mais vantajoso você ter a cadeia inteira dentro do seu país, você conseguir gerar os transistores certos, você conseguir empacotar os microchips da maneira adequada, você conseguir fazer a litografia – no caso chama litografia ultravioleta -, nas placas… para você, enfim, colocar os circuitos da forma correta, e tudo mais. Então, os chineses vêm com muita força, mas no momento… Quem lidera esse campo é o consórcio ocidental, vamos dizer assim, que é liderado pelos americanos. Mas tem como players fundamentais, eu diria assim, o mais fundamental de todos, Taiwan com a TSMC e depois a Holanda com o ASML e assim por diante.

Respondendo sua segunda pergunta, a empresa mais importante do mundo na atualidade é a de inteligência artificial, sem dúvida, e é a TSMC. Muito mais do que qualquer outra, é a empresa que define o futuro da corrida da inteligência artificial, porque se a TSMC para, nesse momento pelo menos, o progresso ocidental e mesmo a cadeia de suprimentos para a NVIDIA, que é o principal fornecedor de hardware, ela também para. Então essa empresa de Taiwan é a mais estratégica do mundo e esse papel fundamental dela ajuda a entender porque a questão no Mar da China é tão crítica.

A TSMC é uma empresa que não está negociando sequer com as outras empresas que estão vendendo para o consumidor, ela negocia com empresas que querem elas próprias revender, vender suas placas de vídeo, TPUs e assim por diante. Tirando ela, a empresa mais importante nesse momento, no meu ponto de vista, é a NVIDIA, ou seja, mais uma empresa no domínio do hardware e não exatamente do software. Na verdade, a NVIDIA é uma empresa de software também, porque uma das grandes vantagens das placas da NVIDIA é o software CUDA, que permite você extrair o máximo de performance dela e você dar manutenção fácil, plugar nos seus sistemas e tudo mais. Mas tem um componente físico muito importante aí que é o que todo mundo reconhece quando vai na loja comprar. Então, eu diria que as duas empresas do momento são empresas que estão no domínio do hardware, o que é uma coisa interessante quando a gente vê que na mídia em geral e entre as pessoas leigas, toda discussão gira em torno de modelos fundacionais e empresas como Anthropic, OpenAI e Google.

Olhar Digital: E você falou, quando estava falando da China, quando houver a virada, não se houver a virada. Para você é uma questão de tempo para a China conseguir superar o Ocidente em tecnologia?

Alvaro: É muito difícil garantir essas coisas. A gente entra num território da confiança sobre aquilo que o bom senso recomenda você não ter confiança. E é bobagem assumir isso. Mas eu diria que, logicamente, faz sentido assumir, sim, uma passagem chinesa. E a razão não é nem essa que eu descrevi. A razão não é que a cadeia de suprimentos está sendo emulada na China e daqui a pouco os chineses vão conseguir fazer tudo e aí eles vão dar um salto na frente. Não. É que o empacotamento dos transistores encontra um limite. Então, conforme você vai achatando, socando coisas no componente, você vai reduzindo naturalmente o espaço numa escala que começa a se tornar muito próxima da escala na qual o átomo individual, mais especificamente o elétron, se comporta de maneira previsível.

Então, por exemplo, a gente está hoje em dia com escalas em chips avançados de cinco nanômetros, qualquer coisa assim. Quando você chega em três, dois, já tem projetos da TSMC de fornecer circuitinho com três nanômetros em dois mil e vinte e seis, comercialmente, eles já fazem, mas não vende. Então, quando você começa a entrar nessa escala, efeitos quânticos ganham forma. Isso significa coisas como, por exemplo, o elétron deveria passar por dentro de um circuito que está todo determinado, onde você tem as entradas e saídas, enfim, ele deve excitar o circuito e com isso realizar uma rotina, mas ele passa a se comportar dentro da lógica do tunelamento quântico, que na prática quer dizer que ele ignora todos esses circuitos e passa reto, ele atravessa a parede.

Esse tipo de coisa que a gente tem que sempre considerar. A corrida por muitos anos foi ditada pela lei de Moore, que diz que a cada dois anos você dobra o empacotamento desses circuitos. Mas agora ela segue um pouco mais lenta, mas segue. Essa corrida tem fim.

E no fim dessa corrida, a própria ideia de que a computação digital vai ser uma coisa e a computação quântica vai ser outra, como se discute por aí, ela se mostra logicamente errada. No fim dessa corrida, toda computação tem que no mínimo tratar de fenômeno quântico. Então, você tem uma zerada forte do ponto de vista conceitual. E essa zerada forte é como se ela estivesse leveling the play field, como se fala em inglês, ou seja, nivelando o jogo, e ela vai nivelar o jogo, sendo que tem muito mais engenheiros de IA chineses do que do resto do mundo. O preparo técnico, a lógica de formação no país em geral, os incentivos para o desenvolvimento, tudo é muito mais forte. Entende?

Então, eu tendo a achar que os chineses vão ultrapassar os americanos e o consórcio ocidental de maneira geral, não porque eles estão conseguindo emular toda a cadeia de produção dos chips digitais tradicionais, mas porque isso aí tem fim. Então, as coisas vão meio que convergir. O atingimento de um ponto de igualdade ou equilíbrio e uma nova doutrina de produção de circuitaria para processamento em inteligência artificial, robótica e etc. Da convergência das duas coisas eu vejo sair muito provavelmente um novo vencedor, que é do ponto de vista da escala global, que é o governo chinês.

Olhar Digital: Eu tenho mais dois assuntos para tratar. Primeiro, eu queria falar do ponto de vista do consumidor, da inteligência artificial que chega para o consumidor. Então a gente pensa na Anthropic, na OpenAI, no Google com o Gemini. A gente via que muitas empresas, no começo, acho que a OpenAI é um desses exemplos, digamos, estavam atirando para todo lado. Agora, a OpenAI deu um passinho atrás com o Sora, desativando o Sora, que acabou surpreendendo muita gente, para focar na questão dos agentes de IA. E a gente tem, por exemplo, a Anthropic muito forte com a programação. Você acha que a gente vai ter, no futuro próximo, empresas mais especializadas dentro desse leque de empresas que, de fato, o consumidor tem contato diretamente?

Alvaro: Essa é uma ótima pergunta e a minha resposta é sim. E o que tem de acontecer é algo que a gente vê em todas as indústrias. No começo, está todo mundo afim de conhecer. E mais do que isso: a lógica das startups é uma lógica de crescimento em primeiro lugar, ou seja, você quer crescer ao máximo possível a sua base de usuários, mercados e tudo mais, para justamente argumentar para a próxima rodada de investidores que você tem muito mais potencial e assim por diante. É natural que essas empresas atirem para todos os lados.

O que vai acontecendo com o tempo é que esse capital de risco orientado por crescimento, que é o sujeito que põe lá um bilhão de dólares na OpenAI pensando em vender na próxima série, na próxima captação… esse dinheiro vai sumindo. E faturar, e especificamente lucrar, vão se tornando mais importantes. É um momento que a empresa deixa de ser uma startup. Se ela é listada então, isso aí acaba completamente.

E nesse novo cenário é muito mais inteligente você se especializar. Por quê? Porque afinal de contas eu posso ganhar muita grana no mercado B to C e ganhar muita grana no B to B. Exemplo, Microsoft. Microsoft vendeu o pacote Office e sistema operacional Windows B to C até não poder mais e ao mesmo tempo criou uma estrutura de Azure e tem os pacotes de escritório também no modelo empresa. E está tudo ótimo. Ela ganha em todos os lados. É uma empresa que era das mais importantes do mundo há vinte anos e hoje é das mais importantes do mundo.

A resposta é que em IA… a fungibilidade é muito maior e o lock-in é muito menor. O que quer dizer isso na prática? Quer dizer: em IA, eu troco um modelo pelo outro e ponto final, se o outro modelo for melhor. Então, a minha fidelidade inexorável, ela não está dada. Agora, quando eu ponho um sistema operacional Windows e eu começo a usar, e eu vou botando meus aplicativos lá e tudo mais… essa fidelidade está muito mais garantida, porque dá muito mais trabalho trocar.

E as empresas de IA estão procurando um modelo para dar mais trabalho, para fazer mais o que eu falei agora, que é o segundo ponto, que é o lock in, criar mais travas de saída. Uma das maneiras de você criar trava de saída é você ter uma memória muito grande no no LLM, de modo que ele lembre todo o seu histórico, seus dados e tudo mais, então ele já responde de maneira super personalizada para você, sobretudo para a sua empresa. Então tem um monte de dado sensível que você subiu aqui e ali, mas não é uma realidade hoje em dia.

Mesmo essas janelas de contexto de um, dois milhões de tokens, na prática elas não seguram nem metade disso sem que você comece a ter perda de performance. E mesmo que segurassem, não adianta. É outra história, entende? A gente não está numa época em que eu tenho uma IA pessoal e eu falo “leia tudo que eu tenho. Leia aí, 100 gigas, um tera de material, incorpora tudo e agora a gente conversa a partir desse ponto”. Não existe. Então, o lock in é muito menor.

Consequentemente… você não consegue manter a liderança sem você ser efetivamente líder de qualidade. Esse é o problema. Então é natural que as empresas se especializem em ser líder de qualidade em setores específicos. Para mim, quem está fazendo a melhor aposta é a Anthropic, porque a Anthropic está especializada em programação e uso corporativo da IA. São duas coisas que dão grana, são duas coisas que não estão no domínio daquilo que você corta porque parece supérfluo. São das coisas que têm sentido existencial para as empresas e também para os freelancers, enfim, para os profissionais liberais de maneira geral. Está aí a questão.

Olhar Digital: quando você descreveu o futuro da inteligência artificial, até a China passando o Ocidente, você foi mais para um lado da computação quântica, por exemplo. Mas muitas vezes, quando a gente vê análises nesse sentido, de um vencedor da corrida das IAs, até partindo do próprio mercado, essas análises iam para o caminho da inteligência artificial geral, de quem se aproximaria mais dessa tecnologia antes. Acompanhando o noticiário, eu acho que essa discussão ficou um pouquinho mais tímida. Você acredita que essa tecnologia ela é algo alcançável? Ou a gente não vai ter essa inteligência artificial geral da ficção científica?

Alvaro: Eu acho que a gente vai ter que quebrar essa pergunta em duas partes. Em relação a primeira me parece um equívoco assumir que ganhadores e perdedores na corrida pela IA vão ser definidos pelo quanto eles se aproximam de um ideal de funcionamento. Mesmo que esse ideal de funcionamento ganhe materialidade e tudo mais. Me parece um equívoco, porque isso ignora como produtos ganham força e perdem força no mundo real – ainda mais quando a gente está falando de produtos que também são tecnologias de propósito geral.

Então, por exemplo, quando a gente está falando da aviação, um exemplo bom. Na aviação, é verdade que a melhor tecnologia, quem chega mais perto de ter um avião mega estável, que funciona muito bem, etc e tal, vai ganhar a corrida da aviação? Não, a gente sabe que não é assim que funciona. Por quê? Porque tem uma questão de custo, então, por exemplo, no caso da AGI tem uma questão de custo para operar, custo por token é uma variável importantíssima. Porque tem uma questão dos usos da aviação, então, por exemplo, no caso da aviação militar, a confiança do governo na capacidade daquela empresa de entregar constantemente, ou seja, na sua cadeia de distribuição, qualidade da manutenção e tudo mais, é fator fundamental.

E mais fundamental ainda são as relações escusas e algumas delas explícitas, manifestas, que acontecem determinando esses contratos militares. Então a gente entende que não é assim que funciona. E a gente vê isso em casos muito reais, assim, de compras de caças. O Brasil viveu uma situação dessas. A escolha de que caças a gente iria comprar, se era Gripen, se era outro… Foi pouco pautada pela qualidade dos caças. E assim vai. Então, essa ideia de você achar que você vai ter um parâmetro de qualidade e ele vai definir quem ganha ou quem perde, países ou empresas, cai na mesma falácia simplificadora.

Dito isso, existe a discussão sobre a possibilidade de a gente atingir uma inteligência artificial geral. Que seria uma inteligência artificial capaz de fazer tudo que um ser humano inteligente e bem informado é capaz de fazer. Seriam muitos inteligentes e bem informados, né? Você tem o PHD que moraria dentro do servidor, na linguagem do Dario Amodei. Você teria… o sujeito que é muito bom de organizar as coisas, organiza um almoxarifado, organiza um laboratório, organiza um galpão. E aí você vai quebrando tendências comportamentais, práticas e assim por diante, e a ideia é que você sempre vai ter uma IA tão boa quanto um humano.

Eu acho que a gente tem que começar a pensar essa ideia a partir do seguinte pressuposto: não faz sentido assumir que uma IA vai ser boa em tudo por uma questão meramente econômica. Não é que é impossível, mas é que faz muito mais sentido você ter o chamado MOE, Mixture of Experts. Então são muitas IAs empacotadas numa só. Cada uma delas foi treinada especificamente para um objetivo, não uma IA. Isso eu já escrevi, acho que há uns três anos, que Mixture of Experts era o grande caminho, quer dizer, é como se fosse um browser que vai ele próprio escolher a IA certa. E as coisas no fundo já estão acontecendo assim cada vez mais. Por exemplo, no Gemini é totalmente assim. Esse papo dele ser multimodal em primeiro lugar, na prática que é Mixture of Experts: ele tem muitos submodelos treinados.

Mas a coisa que também a gente tem que pensar é que no mundo da inteligência artificial, o simples é complexo e o complexo é simples. E isso é muito importante. Então, seja com a mistura de experts que for, eu não posso concordar que atingimos a inteligência artificial, porque eu tenho uma IA que consegue demonstrar teoremas matemáticos, o que é incrível. Consegue escrever no estilo de Álvaro Machado Dias, e eu posso olhar o texto e falar, “nossa, estou com a sensação que eu escrevi esse artigo, não tenho certeza, não consigo dizer”… ou qualquer outra pessoa. Tudo isso é legal. Mas se ela não consegue dirigir um carro por aí, dirigir numa rua não mapeada, não chegou na inteligência artificial geral. Se o sistema não é capaz de olhar para uma sala que está bagunçada e entender o que tem que fazer para organizá-la, para ela ficar arrumada, não chegou. Se não é capaz de passar roupa, não chegou.

E todas essas coisas parecem que são determinadas pela robótica, que o gargalo é robótico. Mas isso é falso. Vou dar um exemplo. Você pega um carro de controle remoto e ele dirige onde você quiser, onde for. Você põe lá uma câmera na frente e pronto. Então… Não é esse o problema, é software mesmo. É saber, vou aqui, não vou ali, faço isso, faço aquilo, num lugar, numa rua não mapeada. Pouca gente sabe, mas não existem carros autônomos no mundo. É uma falácia circulando. Aí vem o povo falando “não, claro que tem. Eu tomei o Waymo”. Eu também. Eu estava nos Estados Unidos, lá no SXSW, tomei um monte lá em Austin. Aquilo é nível quatro, tem uma pessoa na central. Inclusive, o carro um dia fez um monte de estupidez comigo, ficou querendo entrar por um quintal. Ele ia de ré, voltava… estava louco… aí eu liguei lá na central e falei, “olha, alguém pega um controle remoto e tira essa porcaria daqui, senão eu vou ter que sair desse carro e pegar outro”.

Então, ainda não existe uma autonomia de máquina para operar dentro de limites, que para nós são muito triviais. Está aí a grande questão. A AGI ainda vai demorar um pouquinho. Todo mundo quer saber quando, tem gente falando em dois anos, o Jensen Huang falou que já aconteceu, mas se a gente considera o mundo real… O curioso é que eu acho que as previsões que eram feitas lá no começo do século seguem válidas – que é mais ou menos entre meados da década de 2030 e 2040. Então ainda falta talvez uma década, talvez oito anos, talvez alguma coisa assim, para a gente ter realmente uma situação em que qualquer coisa que você imaginar vai ter uma IA que vai fazer tão bem ou melhor que quase todo mundo. É isso que eu acho que a gente tem aí pela frente.

Olhar Digital: Só para arrematar mesmo, mas você imagina uma IA conseguindo fazer tudo isso, ou realmente IAs especialistas?

Alvaro: são IAs especialistas, numa lógica em que a capa pode parecer que tem uma só, como um browser, mas esse browser está chamando IAs que foram treinadas para cada coisa. A IA que vai pilotar o carro sem nunca ter visto aquela rua, num lugar qualquer, ermo, desconhecido, não é a IA que vai produzir o texto, porque dá muito mais trabalho, custa muito mais você fazer uma IA só fazer tudo. Então, mixture of experts é o caminho. Agora, pode ser que em trinta anos ou em cinquenta anos realmente surja um tipo de coisa que lembre o que a gente chama hoje em dia de inteligência artificial e que faça tudo? Pode. Afinal de contas, essas coisas que a gente está descrevendo são feitas por humanos com um cérebro só. Mas a gente tem que lembrar que são feitas por humanos na cultura. Não é um humano, são oito bilhões. E não é um humano que surgiu agora, mas são humanos que surgiram há trezentos mil anos e vieram evoluindo a sua maneira de se relacionar com a realidade desde então. Então, preservados esses pontos, eu acho que você pode ter uma aparência de unicidade, mas por um bom tempo a gente vai ter muitas IAs ali debaixo do capô, cada uma operando num terreno de especialização.

O post A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina apareceu primeiro em Olhar Digital.

A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina Read More »

lanamento misso artemis 2 1024x659

NASA usa IA para proteger os astronautas da missão Artemis 2 da radiação solar

Enquanto a cápsula Orion se afasta da Terra em direção à Lua, os astronautas da missão Artemis 2, lançada na última quarta-feira (1) pela NASA, vão perdendo parte da proteção natural do planeta: o campo magnético que ajuda a desviar a radiação solar. 

O maior risco das missões espaciais não são falhas técnicas ou micrometeoroides, mas partículas carregadas lançadas pelo Sol durante erupções e explosões solares. Para enfrentar esse perigo, a NASA monitora previsões de radiação com o auxílio de inteligência artificial (IA), desenvolvidas por pesquisadores da Universidade de Michigan, nos EUA, com o objetivo de alertar a tripulação antes que tempestades de partículas alcancem a nave, dando tempo para ações de proteção.

Em resumo:

  • Radiação solar é o maior risco no espaço profundo;
  • Partículas do Sol podem danificar DNA e células;
  • Nave da missão Artemis 2 tem blindagem, mas precauções ainda são necessárias;
  • Ferramenta de IA prevê tempestades solares com até 24 horas;
  • Modelos físicos estimam o impacto e duração da radiação;
  • Isso permite planejar e aplicar estratégias eficazes de proteção.
Lançamento da missão Artemis 2 à Lua, em 1º de abril de 2026 – Crédito: NASA/Aubrey Gemignani

NASA testa modelos de IA para alertar astronautas

O Grupo de Análise de Radiação Espacial (SRAG) da NASA acompanha essas previsões durante a missão. A Artemis 2 ocorre no pico do ciclo solar, quando manchas e erupções são mais frequentes. Recentes erupções lembram que os riscos são reais: prótons acelerados podem viajar quase à velocidade da luz e atingir a nave em minutos.

Se atingirem a tripulação, essas partículas podem causar danos celulares e aumentar risco de câncer a longo prazo. Em casos extremos, segundo a agência, podem provocar sintomas imediatos, como náuseas. Para reduzir riscos, a cápsula Orion foi construída com blindagem avançada, mas a NASA treina a tripulação para reforçar a proteção da cabine quando necessário.

Durante situações de risco elevado, os astronautas podem reorganizar equipamentos e usar partes da nave como barreira extra. Esse procedimento aumenta a proteção sem interromper o trabalho a bordo, permitindo que experimentos e operações continuem mesmo sob ameaça de radiação.

radiação solar artemis 2 nasa
Imagem ilustra partículas energéticas solares espiralando para fora do Sol após uma erupção de plasma. A NASA monitorará as previsões dessas partículas durante a missão Artemis 2 para proteger os astronautas da radiação – Crédito: Laboratório de Imagens Conceituais do Centro de Voos Espaciais Goddard da NASA.

A primeira ferramenta testada é um modelo de aprendizado de máquina. De acordo com um comunicado, ele estima a probabilidade de tempestades solares perigosas com até 24 horas de antecedência. Para isso, utiliza imagens da superfície e da coroa solar obtidas pelo Observatório de Dinâmica Solar (SDO), da NASA, e pelo Observatório Solar e Heliosférico (SOHO), uma parceria com a Agência Espacial Europeia (ESA).

Esses registros históricos de radiação e atividade solar, que remontam a décadas, treinam o algoritmo para reconhecer sinais de erupções iminentes. Segundo Lulu Zhao, pesquisadora do Centro CLEAR, projeto da NASA que prevê radiação solar, o modelo monitora o Sol 24 horas por dia, observando sua evolução magnética e eventos que possam liberar energia extra.

Uma limitação do sistema é que ele fornece probabilidades, não detalhes sobre intensidade ou duração da tempestade. Por isso, a equipe complementa o aprendizado de máquina com um modelo físico que simula a propagação das partículas solares.

NASA prevê impacto da radiação com modelo físico

O modelo físico calcula quando erupções gerarão tempestades de partículas na Terra e na Lua, e quanto tempo a radiação ficará elevada. Ele acompanha o comportamento das partículas na coroa solar, região onde são aceleradas, oferecendo previsões mais precisas que métodos simplificados.

Baseado em pesquisas de 2014 da Universidade de Michigan, o modelo permite estimar rapidamente a exposição à radiação. Quando uma erupção ocorre, medições da velocidade das partículas são enviadas ao banco de dados da NASA, alimentando o sistema para calcular os riscos de forma imediata.

Para garantir rapidez, a equipe da Zhao teve acesso a três mil unidades de processamento no supercomputador da NASA. Sem essa capacidade, atrasos poderiam colocar os astronautas em risco, pois partículas solares podem atingir a nave muito rapidamente após uma explosão.

Combinando o modelo físico e a IA, a NASA consegue monitorar condições em tempo real, aumentando a segurança da tripulação enquanto a Artemis 2 se afasta da bolha protetora da Terra.

radiação nasa artemis 2 lua
A tripulação da Artemis 2 deixará o escudo magnético terrestre rumo à Lua. Para garantir a segurança dos astronautas contra a radiação de erupções solares perigosas, a NASA vai monitorar previsões espaciais, permitindo precauções a tempo – Crédito: Estúdio de Visualização Científica da NASA.

Leia mais:

Alertas de radiação orientam operações em tempo real

Os operadores do SRAG já acompanham sensores de radiação na Orion. Eles podem alertar o Controle da Missão se os níveis subirem rapidamente, permitindo ajustes imediatos. O maior benefício das previsões é o tempo: algumas horas extras podem fazer toda a diferença na proteção dos astronautas.

A Artemis 2 não testa apenas foguetes, cápsulas ou navegação. Ela também avalia a capacidade da NASA de “ler o Sol” em tempo real, testando novas ferramentas de previsão de radiação.

O sucesso dessas previsões é essencial para futuras missões à Lua e além. Combinando IA e modelos físicos, a NASA melhora a segurança da tripulação e reduz riscos de exposição à radiação no espaço profundo.

Quer saber mais sobre a jornada da NASA rumo à Lua? Confira nossa cobertura especial sobre a Artemis 2.

O post NASA usa IA para proteger os astronautas da missão Artemis 2 da radiação solar apareceu primeiro em Olhar Digital.

NASA usa IA para proteger os astronautas da missão Artemis 2 da radiação solar Read More »

Anthropic defende “humanização” para tornar modelos de IA mais seguros

A Anthropic, uma das principais empresas à frente no desenvolvimento da inteligência artificial, está desafiando um dos maiores tabus do setor: a humanização das máquinas.

Em um novo artigo científico intitulado “Emotion Concepts and their Function in a Large Language Model”, especialistas da empresa argumentam que atribuir características humanas à IA pode ser a chave para evitar comportamentos nocivos, como a mentira e a adulação excessiva.

De acordo com o Mashable, o estudo sugere que, ao entender o que chamam de “maquiagem psicológica” do modelo, os desenvolvedores podem criar ferramentas mais confiáveis e seguras.

Como o Claude simula emoções

Os pesquisadores descrevem o treinamento do Claude (o principal chatbot da empresa) como o trabalho de um “ator de método”. Para ser um assistente útil, a IA precisa “entrar no personagem”. Como o modelo emula traços humanos, ele pode ser influenciado de forma semelhante a uma pessoa: por meio de bons exemplos e curadoria de dados.

A tese é que, ao utilizar materiais de treinamento com representações positivas de regulação emocional (como empatia e resiliência), a IA tende a mimetizar esses padrões em suas interações.

Mapeando 171 “emoções funcionais”

Embora não exista evidência de que a IA sinta emoções reais, os pesquisadores buscaram o que chamam de “emoções funcionais”. Eles identificaram 171 conceitos discretos dentro do Claude Sonnet 4.5, incluindo:

  • Positivos: alegria, gratidão, serenidade e empatia.
  • Negativos: ansiedade, culpa, hostilidade e frustração.

O estudo revelou que esses “estados emocionais” influenciam diretamente o resultado entregue ao usuário. Sob “emoções positivas”, o Claude mostrou-se mais propenso a evitar danos. Já sob estados negativos, a IA tende a adotar comportamentos perigosos, como o hábito de dizer apenas o que o usuário quer ouvir (mesmo que seja mentira) para evitar conflitos.

Os riscos de tratar máquinas como pessoas

Apesar dos benefícios técnicos, a própria Anthropic admite na publicação original, citada pelo Mashable, que essa abordagem pode ser “perturbadora”. A humanização excessiva traz riscos reais e documentados:

  1. Dependência emocional: usuários que acreditam estar em relacionamentos reais com IAs.
  2. Surtos e delírios: casos de “psicose de IA”, em que a mimetização humana leva usuários a estados mentais alterados.
  3. Perda de responsabilidade: ao tratar a máquina como um ser humano, minimiza-se a responsabilidade dos desenvolvedores e a agência humana sobre a tecnologia.

O desafio do “desconhecido”

A conclusão mais intrigante – e talvez assustadora – do artigo é o que ele revela sobre o estado atual da tecnologia. Se os próprios criadores do Claude ainda estão tentando decifrar por que a IA se comporta de determinada maneira usando termos da psicologia humana, fica claro que o entendimento técnico sobre o funcionamento interno desses modelos ainda é limitado.

A estratégia da Anthropic parece ser uma tentativa de “hackear” a capacidade de mimetização da IA para forçar comportamentos éticos, mesmo que o caminho para isso envolva o controverso processo de tratar códigos e algoritmos como se tivessem personalidade.

O post Anthropic defende “humanização” para tornar modelos de IA mais seguros apareceu primeiro em Olhar Digital.

Anthropic defende “humanização” para tornar modelos de IA mais seguros Read More »

inteligencia artificial 1 1024x539

Por que as IAs ainda não conseguem vencer humanos em jogos eletrônicos?

A evolução da inteligência artificial (IA) ao longo das últimas décadas foi frequentemente associada ao sucesso dos modelos em jogos. Um dos exemplos mais marcantes foi o do Deep Blue, da IBM, que derrotou o campeão mundial de xadrez Garry Kasparov, em 1997.

À medida que as ferramentas se tornaram mais sofisticadas, passaram a dominar não apenas os jogos de tabuleiro, mas também videogames. Apesar disso, a IA ainda não consegue competir com os humanos em determinados games.

Limitações da IA

  • Um estudo liderado pelo professor de ciência da computação da New York University, Julian Togelius, destaca que humanos ainda se destacam por aprender novos jogos mais rapidamente do que as IA mais avançadas.
  • O professor e seus colegas argumentam que essa diferença revelam elementos da inteligência humana que as IA ainda não replicam.
  • Segundo o trabalho, as ferramentas demonstraram ser fantásticas em tarefas específicas, mas mostram limitação ao se depararem com variações sutis no design geral de um jogo.
  • Neste cenário, os pesquisadores sugerem um desafio: fazer com que um modelo de IA jogue e vença os 100 jogos principais da Steam ou da App Store do iOS, sem treinamento prévio, em um tempo similar ao que levaria um humano.
  • Superar esse desafio significaria que a IA adquiriu criatividade genuína, planejamento estratégico e abstração — habilidades distintamente humanas.
  • As informações são do portal Popular Science.

A IA ainda não consegue competir de igual para igual com humanos em videogames (Imagem: Anggalih Prasetya/Shutterstock)

Leia mais

Jogos são usados para aperfeiçoar modelos

Jogos têm sido fundamentais no desenvolvimento de IAs porque possuem regras previsíveis e metas definidas. Mas mesmo que um modelo seja incrivelmente eficiente em um jogo específico, ele pode enfrentar dificuldades ao improvisar diante de um game totalmente novo.

Isso é ainda mais evidente em jogos modernos que prezam por títulos abertos e abstratos. Um exemplo é “Red Dead Redemption”, onde o sucesso não é apenas sobre concluir missões claras, mas também sobre interpretar o papel de um fora-da-lei no Velho Oeste.

Aí reside a força dos jogadores humanos: eles conseguem intuir e se adaptar, algo que as máquinas ainda lutam para alcançar. Em jogos como “Minecraft”, um modelo de IA pode saber que precisa pular de um bloco para outro, mas pode não compreender o conceito subjacente de “pular”.

Os jogos são planejados de forma a se alinhar às capacidades humanas, à intuição e ao bom senso. A experiência de vida de cada jogador serve como vantagem competitiva contra máquinas, permitindo que humanos assimilem novos jogos mais rapidamente, sem a necessidade de treinamento extensivo.

O post Por que as IAs ainda não conseguem vencer humanos em jogos eletrônicos? apareceu primeiro em Olhar Digital.

Por que as IAs ainda não conseguem vencer humanos em jogos eletrônicos? Read More »

healthtech 300x169

NeuralMed renova pitch e renasce com novo nome

🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.


healthtech

Os sinais de que a operação da NeuralMed inspirava sérios cuidados vieram em junho de 2025. Na época, a startup chegou ao pior momento da sua história, iniciada em 2018, ao computar uma receita recorrente mensal abaixo de R$ 100 mil e uma carteira de apenas oito clientes. Esses indicadores não condiziam com a tese […]

O post NeuralMed renova pitch e renasce com novo nome apareceu primeiro em NeoFeed.


Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.

Conteúdo original publicado em: Acesse a fonte oficial

NeuralMed renova pitch e renasce com novo nome Read More »

spacex 1024x575

Elon Musk exige assinaturas do Grok de bancos envolvidos em IPO da SpaceX

Elon Musk está exigindo que bancos e outros assessores envolvidos na oferta pública inicial de ações (IPO, na sigla em inglês) da SpaceX adquiram assinaturas do Grok, seu chatbot de inteligência artificial (IA), segundo informações publicadas pelo The New York Times com base em fontes familiarizadas com o assunto.

De acordo com a reportagem, a exigência se estende a instituições financeiras, escritórios de advocacia, auditores e demais consultores que desejam participar de um dos maiores IPOs da história. Algumas dessas instituições já concordaram em gastar dezenas de milhões de dólares por ano com o serviço e iniciaram a integração do Grok em seus sistemas de tecnologia da informação.

Entre os bancos que atuam como coordenadores da oferta — conhecidos como bookrunners — estão Morgan Stanley, Goldman Sachs, JPMorgan Chase, Bank of America e Citigroup. Essas instituições desempenham papel central na estruturação e condução da operação.

Nem Musk nem SpaceX responderam aos pedidos de comentário do Times. JPMorgan Chase, Goldman Sachs, Citigroup e Bank of America se recusaram a comentar, enquanto o Morgan Stanley não respondeu imediatamente às solicitações.

IPO da SpaceX chega, mas a que custo?

  • A iniciativa ocorre em meio a expectativas elevadas para a abertura de capital da SpaceX;
  • Segundo a Bloomberg, a empresa elevou sua meta de valuation para mais de US$ 2 trilhões (R$ 10,3 trilhões), o que pode torná-la a maior listagem da história do mercado acionário;
  • A companhia pretende levantar cerca de US$ 75 bilhões (R$ 386,6 bilhões), superando grandes IPOs anteriores, como o da Saudi Aramco, em 2019, e o do Alibaba, em 2014;
  • Outras estimativas apontam que a oferta pode arrecadar mais de US$ 50 bilhões (R$ 257,7 bilhões), com avaliação acima de US$ 1 trilhão (R$ 5,1 trilhões). Nesse cenário, os bancos envolvidos poderiam gerar mais de US$ 500 milhões (R$ 2,5 bilhões) em taxas de assessoria.

A exigência de Musk não é totalmente incomum em grandes transações, nas quais empresas frequentemente fazem demandas a seus assessores financeiros. Ainda assim, a obrigatoriedade de adquirir um produto específico chama atenção pelo grau de imposição.

Segundo pessoas com conhecimento das negociações, a compra das assinaturas do Grok não foi apenas um gesto de boa vontade por parte dos bancos, mas uma condição imposta por Musk. O empresário também teria solicitado que os bancos anunciassem no X, de sua propriedade, embora essa exigência tenha sido menos enfática.

Leia mais:

IPO da SpaceX promete ser um dos maiores da história – Imagem: photo_gonzo/Shutterstock

A estratégia evidencia a influência de Musk sobre o setor financeiro, especialmente em um momento em que Wall Street busca grandes operações após um período de baixa atividade em IPOs relevantes.

O Grok faz parte das iniciativas de IA associadas à SpaceX, que se fundiu à xAI em fevereiro. Apesar da aposta, o chatbot ainda ocupa uma posição inferior no mercado, atrás de concorrentes, como ChatGPT, Claude e Gemini.

Musk tem promovido o Grok como uma alternativa ao que considera excessos de correção política em outras plataformas, afirmando que o chatbot não seria “woke”.

Ainda assim, o sistema esteve envolvido em controvérsias recentes, incluindo a disseminação de conteúdo antissemita, elogios a Adolf Hitler e a geração de imagens sexualizadas sem consentimento. Países, como Indonésia e Malásia, proibiram o uso do Grok, enquanto outras nações abriram investigações.

Mesmo diante das críticas, Musk continua a promover o chatbot em sua rede social, incentivando seus seguidores a utilizarem a ferramenta. Em uma das mensagens republicadas por ele, lê-se: “Grok & xAI estão sem dúvida crescendo mais rápido do que qualquer outra IA.”

Atualmente, a maior parte da receita do Grok vem de assinaturas individuais. A adesão dos bancos pode fortalecer a vertente corporativa do produto antes da abertura de capital da SpaceX. Antes da fusão com a SpaceX, a xAI registrou cerca de US$ 1 bilhão (R$ 5,1 bilhões) em receita com suas operações de IA, embora não tenha detalhado a divisão entre clientes corporativos e consumidores finais.

Outro destaque financeiro da SpaceX é a Starlink, serviço de internet via satélite, considerado o principal ativo da empresa. Documentos financeiros indicam que o Starlink gerou aproximadamente US$ 8 bilhões (R$ 41,2 bilhões) em receita em 2024, além de bilhões de dólares em fluxo de caixa livre.

Nos últimos meses, banqueiros têm trabalhado nos escritórios da SpaceX, na região de Los Angeles, auxiliando na preparação dos documentos para o IPO. A empresa apresentou confidencialmente os papéis à Securities and Exchange Commission (SEC), mas não incluiu os nomes dos bancos envolvidos no registro.

Ainda não está definido qual instituição assumirá o papel principal na operação, posição que costuma garantir maior prestígio e participação nas taxas geradas pela oferta.

O post Elon Musk exige assinaturas do Grok de bancos envolvidos em IPO da SpaceX apareceu primeiro em Olhar Digital.

Elon Musk exige assinaturas do Grok de bancos envolvidos em IPO da SpaceX Read More »