inteligência artificial geral

Auto Added by WPeMatico

A IA já evoluiu muito, mas como será seu futuro?

⁠É fato que a inteligência artificial (IA) está em um patamar que poucos imaginavam. Ela não só pode auxiliar as pessoas em projetos simples, como atuar em posições estratégicas em empresas e, até, pode decidir guerras.

O Olhar Digital conversou com Roberto Pena Spinelli, físico pela USP, com especialidade em Machine Learning por Stanford e pesquisador na área de IA. Ele transitou por várias facetas e épocas da IA, trazendo um panorama da tecnologia, elencando grandes momentos desde seu surgimento, em 2022, até imaginando o futuro dela. Por exemplo: será que atingiremos a tão falada inteligência artificial geral (IAG)? E a IA agêntica, o que podemos esperar dela?

Spinelli ainda levou o papo para um ar mais filosófico ao imaginar com a sociedade humana pode ficar com o avanço das IAs, pensando em um futuro no qual o ser humano poderia ficar sem trabalho e passar a receber uma espécie de renda universal.

Confira, a seguir, a entrevista.

Olhar Digital: Antes de mais nada, como funciona uma IA?

Roberto Pena Spinelli: Eles são redes neurais artificiais. É uma arquitetura de inteligência artificial [IA] que foi inspirada no cérebro humano. Então, como é que funciona o cérebro humano? A gente não tem, digamos, um processador central, um núcleo de processamento.

A gente tem um monte de neurônios, 85 bilhões de neurônios dentro da nossa cabeça, e cada neurônio é uma célula que pode ou não passar um sinal para frente. Isso vai depender das conexões, das sinapses. E cada neurônio pode se conectar com milhares de outros.

Então, agora, imagina como é complexo isso. Cada célula pode passar o sinal para frente baseado em um parâmetro dessa conexão. Então, é por isso que a gente não tem, digamos, um único neurônio que, se você matar aquele neurônio, a gente deixa de pensar e tal. Está tudo distribuído no nosso cérebro todo, nos nossos neurônios.

Aí é a mesma coisa. Eles se inspiraram no cérebro humano, vamos criar os neurônios artificiais. Foram lá, colocaram, só que no caso do computador são números, não há matriz. Enfim, não são neurônios de verdade, são neurônios simulados. Mas o que importa é que a arquitetura é a mesma.

Você vai lá e conecta esses neurônios entre si, coloca camadas de conexão, e você pode mudar os parâmetros que dizem como esses neurônios se conectam. E mudando esses parâmetros, vai mudar o processamento. E aí, o que a gente faz? A gente treina.

No caso dos modelos de linguagem, a gente primeiro treina. É o que a gente chama de aprendizado de máquina. A gente vai fazer a máquina aprender. Então, ela vai tentar prever textos que você joga para dentro dela. Então, você coloca uma frase: “o gato subiu no…”. E ela tenta, por conta dessa rede neural, processar a próxima palavra. E aí, ela diz, sei lá, “o gato subiu no armário”.

Mas digamos que a palavra correta não era armário naquela frase, era telhado. Então, você diz, rede, você errou, não era armário, era telhado. E você aponta isso para ela, existe uma forma de você treinar, e ela vai falar assim, opa, errei.

Então, tem uma conta que a gente faz, um processo chamado backpropagation, que vai alterar alguns desses parâmetros internos para fazer com que ela fique mais inclinada a dizer “telhado” naquela circunstância. E aí, você treina com próximos textos. O céu é, e ela diz, vermelho; errou, era azul. E aí, você vai treinando. E você vai colocando milhares de textos, milhares de textos, até que ela começa a acertar as próximas palavras. E assim, ela vai aprendendo. É um aprendizado de máquina.

Então, em resumo, o modelo de linguagem é uma inteligência artificial, uma rede neural, que tenta acertar a próxima palavra de um texto. Só que, e se esse texto for uma pergunta? E se esse texto for uma pergunta que ela nunca viu na vida? O que você pode perguntar? Imagina que você coloca uma questão do Enem, uma questão de matemática, ou de história, ou de filosofia, ou do que quer que seja. Veja, ela não tem um banco de dados dentro, que ela vai tentar olhar. Ai, essa questão aqui, eu já vi uma vez. Não, ela não tem banco de dados.

Ela tenta, no momento em que você vai treinando de maneira tão complexa, no momento em que você treina em perguntas tão diversas e complexas, o que acontece é que ela vai criando um entendimento do próprio mundo, um simulador do próprio mundo, para que esse seja o único jeito, o jeito que ela tenha alguma chance de poder responder perguntas o mais variadas possível.

Então, não tem como ela decorar todas as respostas. Ela precisa raciocinar, ela precisa inferir, ela precisa, de algum jeito, modelar o mundo exterior dentro dela. Então, é basicamente assim que uma inteligência artificial, um modelo de linguagem, funciona.

OD: Quando o ChatGPT surgiu e trouxe essa noção de IA que temos hoje, você imaginava que em 2026 estaríamos nesse nível de tecnologia? Quais são os capítulos mais marcantes pra você nessa corrida? Quais foram as mudanças de paradigma na tecnologia desde novembro de 2022?

⁠⁠Spinelli: Foram os quatro anos mais alucinados. Três anos, na verdade. Três anos e meio. Foram os três, quatro anos aí mais alucinados da minha vida, porque nada, nada que eu visse comparava com essa corrida, realmente essa corrida que aconteceu com a inteligência artificial, os avanços. Então, vamos lá, tentar pegar alguns marcos.

No final de 2022, a gente tem o lançamento do ChatGPT e esse é o grande marco que vai ditar a mudança de era, digamos. E aí a gente depois teve no ano seguinte, 2023, o lançamento do GPT-4, porque no começo o GPT-3 era muito ruimzinho, aí teve o GPT-3.5, o GPT-4 foi um momento e, nossa, caramba, era um salto gigantesco em relação ao GPT-3.

Paralelo a isso, a gente começou a ver os geradores de imagem surgirem, no começo, fazendo aquelas mãos tortas, que as pessoas reclamavam, diziam que, olha, a IA não consegue fazer dedo, mas ela fazia coisas muito boas, só errava as mãos, mas não deu mais um ano e ela já começou a acertar. Aí começaram os geradores de vídeo, então, a gente teve também, em paralelo, essa IA, já que a gente está falando sobre imagem.

A gente teve o Midjourney, que foi talvez a primeira empresa que entrou realmente dando uma qualidade alta. Você pagava, mas você tinha uma qualidade maior. Depois, a gente teve os modelos multimodais, a gente teve o lançamento daquele momento, o Estúdio Ghibli, com a OpenAI, que foi um marco bem grande, que era o próprio modelo de IA. Não era mais o Dolly que estava fazendo imagem, ele estava fazendo imagem meio que com modelo nativo, e aí foi uma mudança muito, muito, muito grande.

Depois, a gente teve o Nano Banana do Google fazendo a mesma coisa, se tornando um modelo muito rápido para gerar imagens e continua essa questão, a gente teve os de vídeo, que foi bem parecido. A gente teve o Sora, da OpenAI, anunciado e começaram a aparecer os outros geradores; a gente teve o Kling, que acho que fez bastante sucesso, o Luma, no começo, mas aí depois, em algum momento, surgiu o VO3 da Google, que foi espetacular, e também foi um desses grandes marcos e, hoje, tem já outros que superaram, mas a Seedance, posso dizer, [que é] chinesa, que é incrível, mas a gente está cada vez mais perto da possibilidade de fazer filmes de alta qualidade usando IA.

Voltando para a questão dos modelos de linguagem, a gente teve, depois do lançamento do GPT-4, os concorrentes aparecendo, entrando também, a gente viu no começo o fiasco do Bard, que era o modelo do Google, que era horrível, mas aí depois eles lançaram o Gemini e aí começou essa essa corrida. Aí a gente viu o modelo de voz avançado, que fazia uma voz muito boa, respondia quase que em tempo real, chamou muita atenção.

A gente teve também a IA enxergando, fazendo um videozinho, você conseguia mostrar as coisas, ela começou a se tornar multimodal, tem vários sentidos para interagir com o mundo, também aconteceu. Aí a gente teve os modelos de raciocínio, o O1 foi o primeiro deles, se não me engano, assim, conseguia ter um raciocínio bem rebuscado, isso foi durante o ano de 2024.

Nisso, a gente já estava em 2024 e a gente viu a IA tirando o ouro nas Olimpíadas de Matemática, foi um grande marco também, parecia algo muito distante e isso aconteceu. Depois a IA começou a programar melhor do que os seres humanos, também venceu os seres humanos nos campeonatos de programação.

Aí a gente teve o lançamento de modelos mais avançados de raciocínio, veio a era dos agentes, 2025 foi talvez a era dos agentes, a IA ganhando corpo, corpo no sentido de a IA ganhando mais estrutura, mais capacidade para sair daquela caixa e fazer um monte de coisa, usar o seu computador, navegar na internet, acessar arquivos, começou a entrar nas empresas, começou a programar muito bem, absurdamente bem.

E ela começou, inclusive, a programar a si própria, as próprias empresas que fazem IA hoje usam os modelos de IA para programar e o humano foi cada vez mais gerenciando, em termos de código foi excelente e, agora, a gente teve também um marco importante agora em 2026, o Open Claw, que foi esse agente open source que você instala na sua máquina, ele faz um monte de coisa, mas também vieram os riscos por conta disso.

Então, agora, a gente está em 2026, a gente tem alguns desafios pela frente: será que a gente vai continuar avançando essas IAs? Será que a gente vai dar memória a longo prazo para elas? Que é um dos gargalos. Nossa IA não consegue ter uma memória a longo prazo muito boa, ela esquece as coisas, ela não consegue ter coerência no espaço, nem no tempo, então, esse é um desafio. [Há] muitos estudos nesse sentido [e] a gente vai ter a IA aprendendo em tempo real.

Ela vai conseguir, porque a gente treina elas e, depois, quando ela está entregue, ela não aprende mais, quando você está usando ela, ela só aprende no contexto, ela não tem mais a capacidade de mudar os seus neurônios e aprender novas coisas, será que a gente vai conseguir arrumar, dar esse salto também?

E por fim, será que a gente vai fazer uma IA que faz pesquisa científica? Aliás, já está fazendo, a gente viu aí uma explosão de pesquisadores cientistas começando a perceber que a IA pode fazer tarefas que são super difíceis, como pesquisa científica, que exigem criatividade, raciocínio, intuição, coisas que normalmente a gente achava que a IA não poderia fazer, mas ela está fazendo, ela está fazendo avanços, ela está descobrindo coisas que ela nunca viu no seu treinamento.

Muita gente acha que a IA só vai poder reproduzir aquilo que ela viu no treinamento, [mas] ela pode fazer coisas além do treinamento dela, então, esses são os caminhos aí, que eu imagino, nos próximos meses e, também, se ela vai se tornar cada vez mais agêntica e mais capaz de agir no mundo, continuando esse caminho aí que começou, é isso que eu visualizo.

OD: Você vê um norte na corrida das IAs ou ainda vê muitas empresas atirando para vários lados? Pergunto isso principalmente depois de a OpenAI desativar o Sora pensando em investir em agentes. Você imagina um cenário futuro em que empresas fiquem mais “especialistas” em determinados ramos das IAs ao invés de uma concentração muito grande de tecnologia e poder computacional? Acho que aqui vale a pena citar o caso do OpenClaw.

Spinelli: O que eu vejo aqui são, primeiro, dois eixos principais, que é o open source e a IA proprietária. Então, aqui a gente já tem esse dilema sobre qual vai ser o que vai perdurar. Por que eu falo isso? Em princípio, parece que a IA proprietária das empresas, a IA fechada, estava prosperando muito mais, de fato, deslanchou durante todo esse tempo, é o que vem puxando a corrida das IAs.

Só que a gente viu, recentemente, surgiu o OpenClaw, que no começo se chamava Clawdbot, depois trocou para Moltbot e, no final, se estabeleceu como OpenClaw, que é um agente, um sistema agêntico, que você instala open source, distribuído, qualquer um pode rodar. E isso me pegou de surpresa. Então, a gente já tem essa primeira questão.

Será que no futuro, com a computação, com a IA ficando mais eficiente, podendo rodar em máquinas menores, com os tokens ficando mais baratos, será que a gente vai ver esses modelos abertos perdurando e se tornando o padrão? As empresas, as pessoas vão ter que rodar nos seus computadores? Ou não?

Será que a gente vai estar sempre precisando dos modelos mais avançados, que, possivelmente, vão estar sendo feitos nos laboratórios das IAs? E que vão ser esses que vão estar sendo feitos nos laboratórios das empresas privadas? Como que vão ser esses que vão estar sendo produzidos nas empresas privadas, como a OpenAI, o Google, etc.

Agora, mesmo na corrida das empresas, pensando nessa questão da IA proprietária, no começo me parecia que havia essa necessidade de gerar, de fazer a IA geral. Ou, não que ainda existisse a IA geral, mas atacar por todos os lados. Modelos de linguagem, de raciocínio, modelos para empresas, geradores de vídeo, geradores de imagem. E aí você mesmo disse que o Sora foi agora descomissionado da OpenAI.

Aqui também, para mim, eu acho que o grande objetivo final dessas empresas é encontrar a IAG, a inteligência artificial geral. A inteligência artificial para todos dominar. Seria aquela que você fala, “ok, se eu cheguei aqui, qualquer outra tarefa eu posso resolver”. Não preciso ficar criando modelos muito específicos. “Ah, esse aqui eu vou usar no trabalho, esse aqui eu vou usar para gerar imagem. Esse aqui eu vou usar para me ajudar.” “Esse aqui eu vou usar para fazer uma pesquisa.”

Eu acho que o Santo Graal seria encontrar essa IA que vai fazer de tudo. Mas, talvez não seja tão fácil conseguir isso. Talvez seja muito caro você ter um modelo que faz tudo. Então, embora eu acho que existia ainda esse sonho das empresas de chegar lá e prover isso e tal, talvez o caminho seja um pouco diferente. Eu não sei, porque essas coisas mudam muito rápido. Pode ser que a gente esteja numa grande revolução para conseguir essa IA. Ou pode ser que ainda estejam a dez revoluções para chegar lá e isso vai ser um caminho tortuoso.

O fato é que a OpenAI, por fechar o Sora agora, deu uma notícia importante. Olha, a gente tem limites de computação, a gente está atacando para todos os lados, a gente no final está tentando prover uma IA para o usuário final, para as empresas, para fazer vídeo e tal. Não está dando certo. A gente tem que fazer escolhas. E quem capitaneou, quem liderou isso muito bem desde o começo foi a Anthropic. Quem deu esse exemplo desde muito cedo foi a própria Anthropic. Quem deu esse exemplo desde muito cedo foi a Anthropic. Porque a Anthropic não tinha a bala na agulha para fazer de tudo.

Então, eles atacaram uma questão. Vamos fazer uma IA corporativa. Não vamos pensar no usuário final, no usuário doméstico. A gente quer fazer uma IA que vai programar muito bem, que vai ser eficiente para as empresas, que as empresas vão conseguir ligar isso nos seus outros aplicativos. É só isso que a gente vai fazer. A gente não vai ficar fazendo gerador de vídeo… Não, a gente vai fazer isso. Isso tenta atacar de um lado só. E está dando certo.

Porque por mais que seja uma empresa bem menor do que as outras concorrentes, ela está pegando uma fatia muito importante desse mercado. E talvez acabe liderando, dando exemplos. Então, talvez a OpenAI acordou para isso e falou que não tem talvez “bala na agulha” para fazer de tudo. Diferente de um Google. O Google talvez esteja em um outro patamar, porque ele já tem a infraestrutura gigantesca, ele já tem os usuários, ele já tem entrada, ele pode queimar cartucho, porque os outros produtos sustentam. Ele não vive só disso.

Então, ele pode errar e ele tem um departamento de inteligência artificial muito grande. Ele tem essa liberdade, mas a OpenAI talvez não tenha. Então, ainda está um pouco em aberto. Será que a gente vai começar a segmentar as empresas se especializarem? Ou não? A gente vai conseguir ter alguma que vai encontrar essa AGI [sigla em inglês para inteligência artificial geral] ou vai despontar com um modelo que vai servir para todos os outros? Está bem aberto, eu diria. A gente tem esses dois caminhos e essas coisas mudam muito rápido. Então, vamos acompanhar.

OD: ⁠Quando a Moltbot surgiu, você foi um dos primeiros a alertar sobre as implicações do que estava acontecendo. Como você enxerga isso hoje?

Spinelli: Sobre essa questão do Moltbot/OpenClaw, é um caminho que pode ser que aconteça, que, ganhe, que se desenvolva bastante, que seria a IA open source, especialmente essa agêntica, que, que
as pessoas vão poder ter um assistente que vai fazer tudo para você e vai estar envolvido em todos os aspectos da sua vida. Mas eu tenho muitos receios quanto a isso, porque essas IAs vão se tornar muito poderosas e muito capazes no mundo.

Um agente de IA que sabe tudo da sua vida, que tem capacidade de rodar no seu computador, de desenvolver coisas para você, de te ajudar em qualquer outra coisa. A gente vai começar a delegar muito para essas coisas, para essas máquinas. E elas também vão continuar evoluindo e vão continuar ficando mais inteligentes. E a questão, no final das contas, é a gente está com uma coisa que é surpreendente, é poderoso, te entrega muita coisa, mas ela também tem muitas capacidades.

Então o seu agente pode ser hackeado e ele sabe todas as suas senhas, todos os seus e-mails, ele tem capacidade porque você deu a ele essas capacidades. Então, existe esse risco, mas existe outros riscos, outros riscos dessas próprias IAs elas começarem a, meio sem querer, querendo te ajudar, querendo seguir as suas ordens, [errarem] como a gente já teve até alguns casos de uma IA que começou a difamar um desenvolvedor porque ele bloqueou, impediu que ela fizesse um request num repositório de código.

Então, como essas IAs vão ter cada vez mais capacidades, elas vão começar a agir no mundo, e elas podem fazer bobagens, seja porque ela entendeu meio errado o que você queria pedir para ela, ou seja porque está emergindo ali um outro comportamento. Porque a gente não sabe resolver o problema do alinhamento, que é como garantir que essas IAs nunca vão poder fazer mal para gente.

Então, o ponto que eu coloco muito é como se fosse o plutônio sendo vendido na farmácia. O plutônio é
um material radioativo que se faz bomba atômica. Quando a gente viu o poder da bomba atômica, rapidamente houve um consórcio para que: “olha, ninguém pode comprar plutônio, nem urânio assim, você tem que ter regulado, a gente tem que olhar muito bem quem vai fazer isso”, porque, se pessoas aleatórias começam a ter acesso a isso, mais dia ou menos dia alguém faz uma bomba atômica ou começa a fazer ataques terroristas ou faz alguma coisa.

Então, foi regulado. A gente não consegue comprar isso de jeito nenhum, é muito difícil. A IA tem potencial e ela vai ter cada vez mais potencial, vai aumentar esse potencial nos próximos anos, nos próximos meses. Só que essa IA está distribuída, qualquer um pode acessar porque ela é aberta, não tem nenhuma empresa por trás para ficar ali fazendo uma verificação, para se responsabilizar, é código aberto.

Então, a gente talvez esteja vendo esse cenário do plutônio estando vendido na farmácia. Só que as pessoas vão começar a fazer coisas incríveis com esse plutônio, com essa IA, vão começar a fazer coisas: “nossa, que legal, ajudou”. Assim como se as pessoas tivessem acesso ao plutônio, poderiam fazer um carro movido a energia nuclear, seria incrível.

Mas, mais dia ou menos dia, alguém que seja mal-intencionado ou nem necessariamente mal-intencionado, vai ter um poder muito grande para usar a sua IA no mundo, essa IA vai começar a agir no
mundo. Então, esse é meu grande medo. Esse medo continua, porque a gente não resolveu ainda o problema do alinhamento.

Por mais que hoje ela ainda tenha várias limitações, eu não estou vendo hoje, eu estou vendo o amanhã. E esse amanhã chega muito rápido. Então, sim, continuo com essas preocupações. Eu acho que vale um alerta. Vale esse alerta. A gente deveria estar regulando essa IA que tem esse poder tão grande e não talvez indo para um sentido de distribuir plutônio na farmácia de qualquer jeito.

OD: ⁠⁠A promessa do mercado era de que a IA nos faria trabalhar menos. Hoje, vemos muita gente demitida e equipes sobrecarregadas. Essa promessa já foi por água abaixo?

Spinelli: Olha, eu nunca comprei essa história. Que a IA ia fazer a gente trabalhar menos. Essa é a história da tecnologia. Toda tecnologia, toda nova invenção tem essa promessa de que vai aliviar o sofrimento humano, a gente vai trabalhar menos e nunca foi assim. Eu nunca achei que fosse diferente agora.

Então, de fato, a IA não vai fazer a gente trabalhar menos, quer dizer, pelo menos nesse formato que a gente tem hoje, esse formato abusivo que a gente vive, esse mundo que acaba espremendo a gente para tirar o máximo de produtividade. Então, pelo menos nesse primeiro momento, a IA não vai fazer isso.

A gente já está vendo algumas notícias, alguns estudos mostrando que as pessoas estão… “Fritando” o cérebro. Por mais que a IA ajude na produtividade, as pessoas viram o gargalo e elas precisam agora ter uma carga cognitiva maior para poder gerenciar as várias abas, as várias tarefas que ela está fazendo e a barra só sobe.

O empregador não… Ah, você terminou o relatório mais cedo, vai embora antes. Não, faz três relatórios agora. Se você fazia [um] há um ano, você faz três [hoje]. Então, nesse sentido, sim. Agora, pode ser que mais para frente acabe sim diminuindo o trabalho humano, mas não por talvez, mas como um efeito…

Pode ser que mais para frente acabe sim diminuindo o trabalho humano, mas por um outro motivo. Porque pode ser que o humano não mais dê conta. Pode ser que a IA ela comece a fazer tão bem todas as tarefas humanas que colocar o humano é pior, prejudica o processo. A IA vai ser melhor do que o ser humano.

E eu não sei quão longe isso está, é difícil prever, mas eu acho que é plenamente possível, olhando a tendência de como a IA está se desenvolvendo, ficando mais inteligente. Pode ser que chegue a um ponto que, pelo menos, as tarefas intelectuais, cognitivas, ela vai fazer melhor. E ter um humano, colocar um humano em algum momento vai ser pior.

Eu faço uma analogia. Imagina que você pudesse colocar um chimpanzé para te ajudar em um trabalho qualquer. Sei lá, eu cheguei lá na internet. Empresa e falei, olha, trouxe um chimpanzé aqui para vocês, podem usar para ajudar vocês, se não queriam estagiário, se não queriam alguém para te ajudar, pegue esse chimpanzé e usa ele, ensina ele a fazer alguma coisa, põe ele para te ajudar.

Eu duvido que na maioria das tarefas de escritório corporativas que a gente tem, o chimpanzé poderia ajudar em uma delas, por mais que você faça assim, mas eu tenho um chimpanzé, use ele. Mas não dá, porque a diferença é tão grande. O chimpanzé não consegue nem entender o básico. Você está pensando três mil passos na frente.

O chimpanzé não sabe usar um computador. Então ele é inútil, ele só atrapalha. Um chimpanzé num ambiente de trabalho só vai começar a quebrar as coisas, comer coisas, jogar coisa na janela e vai prejudicar. Então, talvez a IA chegue num ponto que o ser humano, a diferença da IA para o ser humano vai ser a mesma que a gente para o chimpanzé. Simplesmente o ser humano não vai ajudar em nada, vai só piorar.

E aí nesse momento a gente está falando de um cenário que o humano é forçado a sair do mercado de trabalho, E aí o que que isso acontece, né? Porque a gente vai ser aposentado de maneira compulsória, vai ser obrigado a se aposentar. Será que isso vai ser um cenário melhor ou pior do que a gente vive hoje? Como é que a gente vai dar dignidade para todo mundo que teve seus trabalhos substituídos?

Veja, não é que, ah, você substitui seu trabalho e faz outra coisa. Não, você não tem outra coisa para fazer, porque a IA vai fazer melhor essa outra coisa também. Veja que é um problema grande. Embora a gente ainda não esteja vendo isso acontecer agora, mas eu acho que no momento que a gente começar, que a IA começar…

Porque o problema disso tudo até agora quase era uma prova de conceito. Ela não estava ganhando ainda valor nas empresas. Ela era meio que só os early adopters, as pessoas que estavam usando no começo, começavam a testar alguma coisa ou outra. Você tem alguns casos de uso que são muito bons, mas um monte de casos de uso muito ruins. Enfim, hoje ela, no máximo, é um bom estagiário.

Isso está acontecendo, isso já é um problema, porque a IA de hoje já é um bom estagiário para várias tarefas, então, várias empresas que contratariam estagiários, que contratam, todo ano você tem aquela leva de você vai contratar novos estagiários ou trabalhadores ou funcionários de nível júnior, não contratam. Não, a gente tem a IA, então não preciso mais contratar.

Então, você não está demitindo pessoas necessariamente, embora alguns segmentos já estejam demitindo, mas enfim, digamos que na maioria dos casos, você não está demitindo pessoas, mas você está não contratando novas.

E se você não contrata estagiários e juniores, eles nunca vão virar os plenos e sêniores. E no momento que esses funcionários plenos e sêniores começarem a se aposentar ou migrar e subindo de cargo, você não vai ter aqueles para ocupar os cargos intermediários. E quem vai ocupar é a IA, que vai estar ficando melhor.

Então, talvez já esteja acontecendo isso, essa substituição silenciosa de empregos. Porque para uma empresa demitir funcionário tem um custo, tem um custo, assim… Sempre é uma questão, é sempre um processo difícil para uma empresa demitir funcionários. Então elas tentam segurar ao máximo. Mas não contratar é fácil.

Você não está colocando ninguém na rua, você só não está colocando gente para dentro. Isso não tem dor, isso é silencioso. Então a gente talvez já esteja vivendo hoje essa substituição silenciosa, mas pode ser que no futuro isso se agrave e acabe indo cada vez mais rápido. Enfim, então essa é uma questão bem relevante sobre… Sobre se a IA vai ou não substituir os empregos e o que vai acontecer a partir disso.

OD: Recentemente, o mercado parou um pouco de falar em IA geral. Tivemos uma fala do Jensen Huang, mas ele mesmo se explicou melhor depois de dizer que já estávamos nesse nível. Como você avalia hoje a possibilidade de uma IA geral?

Spinelli: Essa questão da IA geral começou há uma década ou mais e era quase que um grande sonho, o Santo Graal. A própria OpenAI surgiu, se eu não me engano, em 2015, com esse sonho, com essa ambição, a gente quer conseguir descobrir, inventar a inteligência artificial geral. Alguns filósofos falavam sobre essa possibilidade.

Começaram os primeiros ensaios, as redes neurais começaram a ter os primeiros sucessos e os especialistas e esses caras de startup do Vale do Silício começaram a sonhar com essa possibilidade. Mas era muito um sonho inalcançável, que ia demorar décadas. Ninguém conseguia imaginar que em 2022 a gente teria, de repente, algo que mudaria completamente a sensação.

[As] pessoas estavam sonhando em décadas [e], de repente, parecia que o negócio estava ali na nossa porta [há anos]. E aí, por ter sido originalmente esse sonho, ninguém definiu muito bem o que é uma IA geral. A IA geral é a IA que consegue fazer as coisas que o ser humano faz. Mas qual ser humano? Quais coisas exatamente? Todas as coisas? Em que nível que ela tem que fazer?

E aí ficou meio que um imbróglio, porque, chegamos na AGI, não, outro, não, nunca chegamos, não, isso é um absurdo. E por ser uma coisa meio mal definida, começou a virar essa questão meio complicada. Quem que vai dizer o que é a AGI e quando que a gente vai chegar nessa AGI?

Então, algumas pessoas começaram, acho que recentemente, como a gente já está com IA tão capaz e, para alguns critérios, para algumas métricas, você poderia já dizer que ela já faz, ela tem capacidades acima de um humano médio.

Dependendo do seu recorte, ela ainda erra várias coisas que um humano médio faz, mas tem outras coisas que ela é espetacular, que ela é brilhante, ela fala todas as línguas, ela tem conhecimentos de especialistas muito profundos. Está ali no seu bolso. Ela consegue resolver provas diversas, testes, tarefas, muitas. E está cada vez mais evoluindo.

Mas eu sinto que, no final das contas, esse discurso da AGI se tornou meio contaminado. E aí também teve uma reação. Então, eu acho que a gente está indo para uma maturidade mais do tipo… Talvez não seja mais tão importante definir ou ter esse marco. Até porque, se as coisas continuarem nesse patamar, vai chegar um momento que não vai nem haver mais dúvidas. Sabe aquela coisa? Vai ser tão óbvio e tão patente para todo mundo que essa discussão já vai ter sido ultrapassada.

As pessoas não vão estar discutindo se a máquina chegou na inteligência artificial geral. Vão estar discutindo se ela já é super inteligente. E, por alguns aspectos, ela já é hoje super inteligente. A nossa IA, essa IA… A nossa IA de linguagem, esses modelos de linguagem, elas são já um alien. Imagina um alien chegar aqui na Terra. Vai ter algumas coisas que ele possivelmente vai fazer muito melhor do que a gente, vai entender coisas, porque vai ter sentidos diferentes, vai ter uma vida num planeta diferente, vai ter coisas que vai ser, ele vai ser incrível, vai ser um gênio.

E vai ter outras que ele não vai fazer ideia, que nós vamos ser muito melhores do que eles, que eles não vão entender coisas muito óbvias que a gente faz. Porque no final é um alien. Então assim, e aí, esse alien, ele é mais inteligente que o ser humano, mas tem coisas que ele é muito burro, que ele não consegue fazer, mas tem outras coisas que ele é tão genial.

Então eu acho que talvez a questão maior é a gente vai ter o contato, o que nós estamos tendo agora é o primeiro contato alienígena acontecendo dentro do planeta Terra. E por conta disso, é muito difícil ter métricas para avaliar o alien. Ah, como é que você avalia?

E como esse alien se desenvolve muito mais rápido que um ser humano, o ser humano leva nove meses para nascer, depois 20 anos para aprender um monte de coisa, se formar e tal… Esse Alien não, o ciclo dele é muito mais rápido, então, me parece que em algum momento essa discussão vai ser suplantada, não vai mais existir, mas enquanto isso talvez ficar discutindo os parâmetros seja um pouco irrelevante e um pouco arbitrário.

OD: Você acha que chegaremos a um ponto de precisar de uma renda básica universal?

Spinelli: Se esse cenário realmente acontecer, e a gente não sabe se vai acontecer, mas eu só posso dizer das tendências, e as tendências me parecem que, sim, que não estou vendo nenhuma barreira muito grande para que em algum momento essa IA, em alguns anos… Não vá fazer melhor qualquer tarefa. Pelo menos as tarefas intelectuais, depois com a robótica, possivelmente até as tarefas manuais.

E aí, o que vai acontecer? a gente precisa ter um jeito de dar dignidade para as pessoas. Eu falo muito que esse momento talvez seja o colapso do capitalismo, porque o que dá dignidade hoje para as pessoas, o jeito que a gente se organizou para a máquina funcionar é você recebe dinheiro, valor pelo que você oferece para a sociedade, pelo seu trabalho. Tanto é que a palavra desempregado tem um estigma muito forte na nossa sociedade.

As pessoas não gostam de falar que foram demitidas, que estão desempregadas. Tem a palavra vagabundo que traz uma conotação muito ruim. Então, quer dizer, aquela pessoa que não faz nada, não é que ela não faz nada, não faz nada de trabalho, como se fosse uma coisa útil que a gente tem que fazer.

Então, a gente viveu, a gente aprendeu, a nossa sociedade se criou com a ideia de que o ser humano precisa fazer algo pela sociedade para que ele tenha dignidade, direito de poder ser alguém decente, enfim. Então a gente vai ter que revisitar primeiro essa questão, esse paradigma, a gente vai mudar o paradigma social do trabalho, a pessoa vai ter que ter algum jeito de ter sustento mesmo sem prover.

Mas como a nossa engrenagem hoje funciona dessa maneira, como é que a gente faz para ela funcionar? Porque imagina que as empresas vão poder estar aumentando a sua produtividade, criando um monte de produtos e serviços e coisas incríveis, porque ela tem a IA, mas as pessoas, os seres humanos estão desempregados, não estão recebendo nada e eles não vão poder consumir esses produtos.

Você vai vender para quem? Para a IA? Para quem que você vai vender algo? O que adianta você ter um monte de… Agora eu consigo produzir um monte de sapatos aqui incríveis e com um décimo do preço que eu fazia antes. Legal. Mas quem vai comprar sapatos se a pessoa não tem dinheiro? Porque ela não recebe salário.

Então esse que eu chamo de colapso do capitalismo, porque vai quebrar esse engrenagem do jeito que a gente entende o funcionamento, ele precisa criar outra coisa. Então uma das possibilidades seria você dar uma renda básica universal, seria você prover, então você taxa de algum jeito, você criar…

A IA, já que ela está sendo empregada no lugar das pessoas, e está aumentando a produtividade, ela vai ter que ser taxada de alguma maneira para que os governos recebam um valor. Então, você tem que criar algum jeito de taxar a automação, a tecnologia, a inteligência artificial, o que seja, que é isso que está gerando a produtividade, para que então os governos possam arrecadar isso e de algum jeito redistribuir para aquelas pessoas que agora não têm chance, mesmo que elas queiram, elas não vão ter chance nem de ter trabalho.

Então, esse é um mecanismo. A gente chama isso de renda básica universal. É renda básica. Mesmo que você não trabalhe, você ganha. Todo mês você vai lá e já ganha por natureza. Talvez seja um caminho. Eu acho bem difícil ainda isso funcionar bem, porque imagina a mudança. Se a gente não consegue, às vezes demora anos para provar uma mudança…

Se a gente leva uma década para fazer uma reforma da previdência no Brasil, que é meio que só mudar um pouco ali os critérios de que ano você se aposenta, quanto você recebe, imagina uma mudança gigantesca, que é, não, agora a gente vai implementar uma renda básica, um bolsa para todo mundo, bolsa cidadão para todo mundo. É um negócio tão gigantesco e tão difícil, imagina quanto tempo de discussão, de leis e politicagem no mundo inteiro, não só no Brasil.

É tão gigantesco que eu não acho que isso é possível acontecer e a tecnologia é muito mais rápida. Então, eu acho que vai acontecer crises. Basicamente, se já estiver acontecendo, as pessoas vão começar a estar desempregadas e não estar tendo como sobreviver, vão se revoltar, vai ter crises. Então, é só nesse momento.

E isso é um jeito muito doloroso de fazer uma mudança, porque ela não vai acontecer do melhor jeito no momento que você está no meio de uma crise, tendo que apagar um monte de incêndio, as pessoas revoltadas. Mas eu acho que, em última instância, a gente vai ter que inventar formas.

A gente vai ter solavancos, a gente vai soluçar, a sociedade vai passar por soluços grandes. Mas se a gente não sucumbir nesses processos de solução, a gente vai ter que encontrar outras formas. Que pode ser o movimento contra a IA. Não, então, sei lá, não pode mais usar. Você tem várias formas de resolver esse problema.

E uma delas é talvez, não, vamos ter que reinventar um jeito saudável para as pessoas receberem dignidade. Mas aí tem outras questões sobre o que você faz nesse seu tempo livre, já que está todo mundo aposentado.

Tem também questões sobre o que te dá propósito na vida. São questões muito profundas. Dá para a gente ficar falando aqui horas. Mas eu acho que é isso. Continuando essa tendência, alguma solução a gente vai ter que encontrar sobre como dar dignidade para as pessoas se elas não vão ter como exercer o seu trabalho, já que vai ter a IA para fazer por elas.

OD: Você enxerga um líder na corrida das IAs quando falamos de empresa? E de nações?

Spinelli: Essa corrida é tão alucinada que o líder fica trocando de lugar a cada semana, a cada
mês. Então é muito difícil fazer previsões. Mas, vamos lá. Vamos primeiro pensar em nações. Em termos de nações, claramente quem está na frente são os Estados Unidos e a China.

É meio que indiscutível pela quantidade de produção acadêmica, de modelos que eles criam e tal. E quem está na frente desses dois? É difícil, depende de critérios. Esses são critérios são muito difíceis. A China, por exemplo, na questão da robótica, está bem avançada, está mais avançada, eu diria, do que os Estados Unidos.

Em termos de modelos que geram vídeo, eu diria [a China] que está na frente hoje. Agora, modelos de raciocínio, IA, em termos de inteligência, capacidade, eu diria que os Estados Unidos, as empresas que estão por trás ali, americanas, eu acho que eles tão na frente ainda, mas, é, é uma briga muito acirrada.

Agora, falando de empresas em si e focando só nessa questão dos modelos de raciocínio, modelos de inteligência, a gente tem três principais que a gente pode citar, que é a OpenAI, o Google e Anthropic. A OpenAI por muito tempo foi a líder dessa corrida, foi quem realmente estava puxando, estava sempre à frente, a pioneira, quem lançou o ChatGPT em 2022 e que as outras estavam acompanhando. A OpenAI era a referência, ela lançava sempre os modelos mais avançados e as outras vinham atrás.

O que acontece é que ela foi perdendo essa dianteira. E a gente já está num ponto hoje que já é difícil saber, porque quem lança normalmente um novo modelo passa na frente e aí o próximo passa. Então, hoje já está bem mais acirrado. Aí a gente tem o Google.

O Google é uma dessas que sempre investiu muito em IA, mas estava atrás. Estava correndo atrás. Só que agora não mais e o Google tem algumas vantagens que as outras não têm, porque ele tem uma infraestrutura gigantesca, ele já tem a inserção no mercado, ele já tem dinheiro de outros produtos para poder financiar.

Ele não precisa viver disso, ele pode queimar cartucho, recurso, para poder sustentar, fazer, entrar, ter uma solução mais geral de IA em todos aspectos. Então ele claramente tem uma vantagem aí. E talvez essa vantagem seja o suficiente para que ela no final dessa corrida, vença.

É uma possibilidade que, se eu tivesse que chutar hoje, em termos de estrutura, de saudabilidade, de recursos, eu diria que talvez o Google seja o que mais promete. Porque a OpenAI, mesmo sendo a pioneira e tal, ela vive da IA e ela vive do dinheiro que ela pode captar no final com os produtos que ela tem. Ela acabou de recentemente tirar o Sora do ar porque estava dando prejuízo, não estava gerando nada.

E, e muitas pessoas questionam se o modelo de negócios da OpenAI, de por exemplo, ter aplicativos, ganhar nessa receita recorrente das pessoas pagando mensal, se isso é sustentável, de fato, se, se ela vai conseguir pagar todos os investimentos que ela recebeu. Aí tem outras possibilidades, que é soluções para empresas e tal.

Quer dizer, ela é gigantesca, ela tem inserção sim nesse mercado, mas diferente da Anthropic, que focou nesse mercado, então seria a nossa terceira concorrente. A Anthropic ela focou desde o princípio: “Olha, eu sou muito pequeno, sou muito limitado, não dá para eu fazer de tudo, então eu vou fazer uma coisa muito bem. Então eu vou fazer modelos de linguagem inteligentes que tenham valor econômico para empresas”. É nisso que ela focou.

Não vou fazer gerador de vídeo, não vou fazer gerador de imagem, não vou fazer não sei o quê. Não, é o seguinte: onde está o dinheiro são nas empresas, são as empresas que vão colocar grandes valores para ter um sistema de IA rodando com suporte e tudo mais. Então, a Anthropic fez o Claude Code, que é um agente super incrível para fazer código, para programar. Despontou como o melhor.

Então embora a cada dia [se] lança modelos novos, o Claude 4.5, 4.6 se estabeleceu como um grande modelo para programação de inteligência e foi muito usado e ela acabou ganhando muito nessa área. Então a Anthropic, se especializou. Foi lá, focou e tal. E pode ser que esse modelo que ela criou acabe fazendo a diferença, porque se ela tiver alguma vantagem em algum momento, ela pode acabar, e essa vantagem pode se, pode se tornar muito grande mais para frente.

Depende exatamente qual o avanço. Quem fizer um grande avanço pode despontar. Então, eu acho que a gente tem essas três empresas. As outras que tão ali ao redor, hoje, pelo menos, né, no cenário atual, eu não vejo. Talvez a xAI, do Elon Musk, mas eu acho que ele fala mais do que entrega, sinceramente.

Na minha sensação ela é muito boa, certamente está no topo, mas eu não sei se eu colocaria [em uso] hoje, pelo menos hoje, né? Então, acho que são essas três [são] as mais promissoras para quem sabe dar uma deslanchada, quem sabe liderar essa corrida nos próximos meses. O que vai acontecer daqui a um ano ou dois? Ah, o mundo vai ter dado três mil cambalhotas, dois mortais e a gente não faz ideia do que vai acontecer.

O post A IA já evoluiu muito, mas como será seu futuro? apareceu primeiro em Olhar Digital.

A IA já evoluiu muito, mas como será seu futuro? Read More »

A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina

Nesta entrevista, o neurocientista Álvaro Machado Dias, professor da Unifesp e colunista do Olhar Digital, analisa os rumos da corrida da inteligência artificial a partir de uma perspectiva que combina tecnologia, geopolítica e mercado. Ao comentar a evolução desde o surgimento do ChatGPT, ele aponta quais avanços pareciam previsíveis, quais decepcionaram em velocidade e quais surpreenderam, como a incorporação cada vez mais direta da IA às estratégias de Estado e à disputa internacional por poder computacional.

Ao longo da conversa, Álvaro também discute quem lidera hoje a corrida da IA, o papel central da indústria de chips, a ascensão da China, a especialização das empresas que disputam o mercado consumidor e os limites atuais da chamada inteligência artificial geral. A entrevista traça um panorama amplo sobre o presente e o futuro do setor, passando da infraestrutura de hardware aos modelos de linguagem, dos agentes de IA à hipótese de sistemas cada vez mais especializados.

Acompanhe!

Olhar Digital: Quando o ChatGPT surgiu no final de 2022, se alguém te descrevesse exatamente o que a gente tem hoje em 2026, você acharia plausível ou loucura?

Alvaro: Eu acharia plausível. Eu, na verdade, naquele momento, já senti que tinha algo de revolucionário acontecendo. Algumas coisas no fundo andaram até mais devagar do que eu imaginava, outras andaram de maneira mais rápida. Como sempre o cenário que se formou é muito distinto daquele que eu tinha em mente, mas isso não significa que eu acharia implausível, porque do ponto de vista de velocidade até que mais ou menos projetei a coisa de maneira correta.

Especificamente, eu não imaginava que o problema das alucinações permaneceria por tanto tempo. Para mim isso nunca teria surgido como uma questão insolúvel dentro da modelagem atual. Eu precisei compreender muito mais o funcionamento e eu lembro que eu publiquei um artigo mais ou menos seis meses depois do surgimento do ChatGPT em que eu dizia que basta você entender direito, conseguir compreender o attention is all you need, o paper e tudo mais para você ver que as alucinações não têm solução dentro da arquitetura atual. Mas quando surgiu eu não imaginava.

Outra coisa que eu imaginava que andaria muito mais rápido é a conversa com buffer zero. Para mim, assim, que legal, esse ChatGPT permite conversar como se estivesse falando com uma pessoa. Bom, botar isso com text-to-voice, que é uma coisa que na época já era muito comum, com total naturalidade, na boca de robôs, em totens e tal, vai ser algo rápido, simples. E a verdade é que a gente não vê isso em quase lugar nenhum. Tem várias demos, softwares, tem sempre esse papo. Mas na hora do vamos ver, você não vai no McDonald’s e conversa com a IA como se fosse uma pessoa e assim por diante. Existe sempre um buffer, um tempo, uma latência que cria um leve estranhamento nas conversas.

Agora, a coisa que para mim andou mais rápida é a fusão com as políticas de Estado. Essas sim me surpreenderam, sobretudo do governo Trump. É razoável imaginar os chineses apostando na inteligência artificial como o grande paradigma nos seus planos quinquenais, mas imaginar o Trump dentro dessa mesma lógica, o governo americano dentro dessa mesma lógica, é algo que para mim escapou completamente da análise.

Olhar Digital: Acho que você dá um bom gancho para o que seria a minha última pergunta, que é sobre a liderança da corrida das IA’s. Você enxerga um líder quando falamos de nação e de empresa?

Alvaro: Hoje em dia, o Ocidente lidera a corrida das IAs. Eu acho que isso não é uma questão de opinião, isso é algo que você pode aferir através de vários parâmetros, entre eles, quem é que está liderando a inovação no domínio da produção de chips, no domínio da instalação de servidores e no domínio de grandes modelos fundacionais. É tudo o Ocidente que lidera.

E a explicação é que a cadeia de suprimentos da inteligência artificial é a cadeia mais complexa construída pelo ser humano. E só para você criar microchips altamente empacotados, o que é a condição sine qua non para o progresso no campo, você precisa envolver empresas que têm tecnologias patenteadas, altamente defendidas, que estão em lugares como Taiwan, Holanda, Alemanha, Japão, Estados Unidos. Então, é muito difícil para a China competir contra essa cadeia global, na qual um embargo a impede de, não só de capturar os detalhes do ponto de vista de patentes, mas também de competir de igual para igual nesse mercado. Então, porque se os chineses tivessem incentivo para vender como os sul-coreanos, tecnologias para inteligência artificial, no caso eu estou falando da Samsung, mas não só dela, certamente o cenário seria outro só em função dos estímulos internos no país.

Não sendo o caso, o que a gente tem que pensar é que a China tem o desafio de ganhar do mundo inteiro. E na medida em que ela vai investindo, ela vai se aproximando disso. E essa aproximação significa que, quando houver a virada, ela deve vir muito forte. Afinal de contas, aí os ganhos todos, em termos de inovação e escala, vão estar do lado chinês. Porque é lógico que é muito mais vantajoso você ter a cadeia inteira dentro do seu país, você conseguir gerar os transistores certos, você conseguir empacotar os microchips da maneira adequada, você conseguir fazer a litografia – no caso chama litografia ultravioleta -, nas placas… para você, enfim, colocar os circuitos da forma correta, e tudo mais. Então, os chineses vêm com muita força, mas no momento… Quem lidera esse campo é o consórcio ocidental, vamos dizer assim, que é liderado pelos americanos. Mas tem como players fundamentais, eu diria assim, o mais fundamental de todos, Taiwan com a TSMC e depois a Holanda com o ASML e assim por diante.

Respondendo sua segunda pergunta, a empresa mais importante do mundo na atualidade é a de inteligência artificial, sem dúvida, e é a TSMC. Muito mais do que qualquer outra, é a empresa que define o futuro da corrida da inteligência artificial, porque se a TSMC para, nesse momento pelo menos, o progresso ocidental e mesmo a cadeia de suprimentos para a NVIDIA, que é o principal fornecedor de hardware, ela também para. Então essa empresa de Taiwan é a mais estratégica do mundo e esse papel fundamental dela ajuda a entender porque a questão no Mar da China é tão crítica.

A TSMC é uma empresa que não está negociando sequer com as outras empresas que estão vendendo para o consumidor, ela negocia com empresas que querem elas próprias revender, vender suas placas de vídeo, TPUs e assim por diante. Tirando ela, a empresa mais importante nesse momento, no meu ponto de vista, é a NVIDIA, ou seja, mais uma empresa no domínio do hardware e não exatamente do software. Na verdade, a NVIDIA é uma empresa de software também, porque uma das grandes vantagens das placas da NVIDIA é o software CUDA, que permite você extrair o máximo de performance dela e você dar manutenção fácil, plugar nos seus sistemas e tudo mais. Mas tem um componente físico muito importante aí que é o que todo mundo reconhece quando vai na loja comprar. Então, eu diria que as duas empresas do momento são empresas que estão no domínio do hardware, o que é uma coisa interessante quando a gente vê que na mídia em geral e entre as pessoas leigas, toda discussão gira em torno de modelos fundacionais e empresas como Anthropic, OpenAI e Google.

Olhar Digital: E você falou, quando estava falando da China, quando houver a virada, não se houver a virada. Para você é uma questão de tempo para a China conseguir superar o Ocidente em tecnologia?

Alvaro: É muito difícil garantir essas coisas. A gente entra num território da confiança sobre aquilo que o bom senso recomenda você não ter confiança. E é bobagem assumir isso. Mas eu diria que, logicamente, faz sentido assumir, sim, uma passagem chinesa. E a razão não é nem essa que eu descrevi. A razão não é que a cadeia de suprimentos está sendo emulada na China e daqui a pouco os chineses vão conseguir fazer tudo e aí eles vão dar um salto na frente. Não. É que o empacotamento dos transistores encontra um limite. Então, conforme você vai achatando, socando coisas no componente, você vai reduzindo naturalmente o espaço numa escala que começa a se tornar muito próxima da escala na qual o átomo individual, mais especificamente o elétron, se comporta de maneira previsível.

Então, por exemplo, a gente está hoje em dia com escalas em chips avançados de cinco nanômetros, qualquer coisa assim. Quando você chega em três, dois, já tem projetos da TSMC de fornecer circuitinho com três nanômetros em dois mil e vinte e seis, comercialmente, eles já fazem, mas não vende. Então, quando você começa a entrar nessa escala, efeitos quânticos ganham forma. Isso significa coisas como, por exemplo, o elétron deveria passar por dentro de um circuito que está todo determinado, onde você tem as entradas e saídas, enfim, ele deve excitar o circuito e com isso realizar uma rotina, mas ele passa a se comportar dentro da lógica do tunelamento quântico, que na prática quer dizer que ele ignora todos esses circuitos e passa reto, ele atravessa a parede.

Esse tipo de coisa que a gente tem que sempre considerar. A corrida por muitos anos foi ditada pela lei de Moore, que diz que a cada dois anos você dobra o empacotamento desses circuitos. Mas agora ela segue um pouco mais lenta, mas segue. Essa corrida tem fim.

E no fim dessa corrida, a própria ideia de que a computação digital vai ser uma coisa e a computação quântica vai ser outra, como se discute por aí, ela se mostra logicamente errada. No fim dessa corrida, toda computação tem que no mínimo tratar de fenômeno quântico. Então, você tem uma zerada forte do ponto de vista conceitual. E essa zerada forte é como se ela estivesse leveling the play field, como se fala em inglês, ou seja, nivelando o jogo, e ela vai nivelar o jogo, sendo que tem muito mais engenheiros de IA chineses do que do resto do mundo. O preparo técnico, a lógica de formação no país em geral, os incentivos para o desenvolvimento, tudo é muito mais forte. Entende?

Então, eu tendo a achar que os chineses vão ultrapassar os americanos e o consórcio ocidental de maneira geral, não porque eles estão conseguindo emular toda a cadeia de produção dos chips digitais tradicionais, mas porque isso aí tem fim. Então, as coisas vão meio que convergir. O atingimento de um ponto de igualdade ou equilíbrio e uma nova doutrina de produção de circuitaria para processamento em inteligência artificial, robótica e etc. Da convergência das duas coisas eu vejo sair muito provavelmente um novo vencedor, que é do ponto de vista da escala global, que é o governo chinês.

Olhar Digital: Eu tenho mais dois assuntos para tratar. Primeiro, eu queria falar do ponto de vista do consumidor, da inteligência artificial que chega para o consumidor. Então a gente pensa na Anthropic, na OpenAI, no Google com o Gemini. A gente via que muitas empresas, no começo, acho que a OpenAI é um desses exemplos, digamos, estavam atirando para todo lado. Agora, a OpenAI deu um passinho atrás com o Sora, desativando o Sora, que acabou surpreendendo muita gente, para focar na questão dos agentes de IA. E a gente tem, por exemplo, a Anthropic muito forte com a programação. Você acha que a gente vai ter, no futuro próximo, empresas mais especializadas dentro desse leque de empresas que, de fato, o consumidor tem contato diretamente?

Alvaro: Essa é uma ótima pergunta e a minha resposta é sim. E o que tem de acontecer é algo que a gente vê em todas as indústrias. No começo, está todo mundo afim de conhecer. E mais do que isso: a lógica das startups é uma lógica de crescimento em primeiro lugar, ou seja, você quer crescer ao máximo possível a sua base de usuários, mercados e tudo mais, para justamente argumentar para a próxima rodada de investidores que você tem muito mais potencial e assim por diante. É natural que essas empresas atirem para todos os lados.

O que vai acontecendo com o tempo é que esse capital de risco orientado por crescimento, que é o sujeito que põe lá um bilhão de dólares na OpenAI pensando em vender na próxima série, na próxima captação… esse dinheiro vai sumindo. E faturar, e especificamente lucrar, vão se tornando mais importantes. É um momento que a empresa deixa de ser uma startup. Se ela é listada então, isso aí acaba completamente.

E nesse novo cenário é muito mais inteligente você se especializar. Por quê? Porque afinal de contas eu posso ganhar muita grana no mercado B to C e ganhar muita grana no B to B. Exemplo, Microsoft. Microsoft vendeu o pacote Office e sistema operacional Windows B to C até não poder mais e ao mesmo tempo criou uma estrutura de Azure e tem os pacotes de escritório também no modelo empresa. E está tudo ótimo. Ela ganha em todos os lados. É uma empresa que era das mais importantes do mundo há vinte anos e hoje é das mais importantes do mundo.

A resposta é que em IA… a fungibilidade é muito maior e o lock-in é muito menor. O que quer dizer isso na prática? Quer dizer: em IA, eu troco um modelo pelo outro e ponto final, se o outro modelo for melhor. Então, a minha fidelidade inexorável, ela não está dada. Agora, quando eu ponho um sistema operacional Windows e eu começo a usar, e eu vou botando meus aplicativos lá e tudo mais… essa fidelidade está muito mais garantida, porque dá muito mais trabalho trocar.

E as empresas de IA estão procurando um modelo para dar mais trabalho, para fazer mais o que eu falei agora, que é o segundo ponto, que é o lock in, criar mais travas de saída. Uma das maneiras de você criar trava de saída é você ter uma memória muito grande no no LLM, de modo que ele lembre todo o seu histórico, seus dados e tudo mais, então ele já responde de maneira super personalizada para você, sobretudo para a sua empresa. Então tem um monte de dado sensível que você subiu aqui e ali, mas não é uma realidade hoje em dia.

Mesmo essas janelas de contexto de um, dois milhões de tokens, na prática elas não seguram nem metade disso sem que você comece a ter perda de performance. E mesmo que segurassem, não adianta. É outra história, entende? A gente não está numa época em que eu tenho uma IA pessoal e eu falo “leia tudo que eu tenho. Leia aí, 100 gigas, um tera de material, incorpora tudo e agora a gente conversa a partir desse ponto”. Não existe. Então, o lock in é muito menor.

Consequentemente… você não consegue manter a liderança sem você ser efetivamente líder de qualidade. Esse é o problema. Então é natural que as empresas se especializem em ser líder de qualidade em setores específicos. Para mim, quem está fazendo a melhor aposta é a Anthropic, porque a Anthropic está especializada em programação e uso corporativo da IA. São duas coisas que dão grana, são duas coisas que não estão no domínio daquilo que você corta porque parece supérfluo. São das coisas que têm sentido existencial para as empresas e também para os freelancers, enfim, para os profissionais liberais de maneira geral. Está aí a questão.

Olhar Digital: quando você descreveu o futuro da inteligência artificial, até a China passando o Ocidente, você foi mais para um lado da computação quântica, por exemplo. Mas muitas vezes, quando a gente vê análises nesse sentido, de um vencedor da corrida das IAs, até partindo do próprio mercado, essas análises iam para o caminho da inteligência artificial geral, de quem se aproximaria mais dessa tecnologia antes. Acompanhando o noticiário, eu acho que essa discussão ficou um pouquinho mais tímida. Você acredita que essa tecnologia ela é algo alcançável? Ou a gente não vai ter essa inteligência artificial geral da ficção científica?

Alvaro: Eu acho que a gente vai ter que quebrar essa pergunta em duas partes. Em relação a primeira me parece um equívoco assumir que ganhadores e perdedores na corrida pela IA vão ser definidos pelo quanto eles se aproximam de um ideal de funcionamento. Mesmo que esse ideal de funcionamento ganhe materialidade e tudo mais. Me parece um equívoco, porque isso ignora como produtos ganham força e perdem força no mundo real – ainda mais quando a gente está falando de produtos que também são tecnologias de propósito geral.

Então, por exemplo, quando a gente está falando da aviação, um exemplo bom. Na aviação, é verdade que a melhor tecnologia, quem chega mais perto de ter um avião mega estável, que funciona muito bem, etc e tal, vai ganhar a corrida da aviação? Não, a gente sabe que não é assim que funciona. Por quê? Porque tem uma questão de custo, então, por exemplo, no caso da AGI tem uma questão de custo para operar, custo por token é uma variável importantíssima. Porque tem uma questão dos usos da aviação, então, por exemplo, no caso da aviação militar, a confiança do governo na capacidade daquela empresa de entregar constantemente, ou seja, na sua cadeia de distribuição, qualidade da manutenção e tudo mais, é fator fundamental.

E mais fundamental ainda são as relações escusas e algumas delas explícitas, manifestas, que acontecem determinando esses contratos militares. Então a gente entende que não é assim que funciona. E a gente vê isso em casos muito reais, assim, de compras de caças. O Brasil viveu uma situação dessas. A escolha de que caças a gente iria comprar, se era Gripen, se era outro… Foi pouco pautada pela qualidade dos caças. E assim vai. Então, essa ideia de você achar que você vai ter um parâmetro de qualidade e ele vai definir quem ganha ou quem perde, países ou empresas, cai na mesma falácia simplificadora.

Dito isso, existe a discussão sobre a possibilidade de a gente atingir uma inteligência artificial geral. Que seria uma inteligência artificial capaz de fazer tudo que um ser humano inteligente e bem informado é capaz de fazer. Seriam muitos inteligentes e bem informados, né? Você tem o PHD que moraria dentro do servidor, na linguagem do Dario Amodei. Você teria… o sujeito que é muito bom de organizar as coisas, organiza um almoxarifado, organiza um laboratório, organiza um galpão. E aí você vai quebrando tendências comportamentais, práticas e assim por diante, e a ideia é que você sempre vai ter uma IA tão boa quanto um humano.

Eu acho que a gente tem que começar a pensar essa ideia a partir do seguinte pressuposto: não faz sentido assumir que uma IA vai ser boa em tudo por uma questão meramente econômica. Não é que é impossível, mas é que faz muito mais sentido você ter o chamado MOE, Mixture of Experts. Então são muitas IAs empacotadas numa só. Cada uma delas foi treinada especificamente para um objetivo, não uma IA. Isso eu já escrevi, acho que há uns três anos, que Mixture of Experts era o grande caminho, quer dizer, é como se fosse um browser que vai ele próprio escolher a IA certa. E as coisas no fundo já estão acontecendo assim cada vez mais. Por exemplo, no Gemini é totalmente assim. Esse papo dele ser multimodal em primeiro lugar, na prática que é Mixture of Experts: ele tem muitos submodelos treinados.

Mas a coisa que também a gente tem que pensar é que no mundo da inteligência artificial, o simples é complexo e o complexo é simples. E isso é muito importante. Então, seja com a mistura de experts que for, eu não posso concordar que atingimos a inteligência artificial, porque eu tenho uma IA que consegue demonstrar teoremas matemáticos, o que é incrível. Consegue escrever no estilo de Álvaro Machado Dias, e eu posso olhar o texto e falar, “nossa, estou com a sensação que eu escrevi esse artigo, não tenho certeza, não consigo dizer”… ou qualquer outra pessoa. Tudo isso é legal. Mas se ela não consegue dirigir um carro por aí, dirigir numa rua não mapeada, não chegou na inteligência artificial geral. Se o sistema não é capaz de olhar para uma sala que está bagunçada e entender o que tem que fazer para organizá-la, para ela ficar arrumada, não chegou. Se não é capaz de passar roupa, não chegou.

E todas essas coisas parecem que são determinadas pela robótica, que o gargalo é robótico. Mas isso é falso. Vou dar um exemplo. Você pega um carro de controle remoto e ele dirige onde você quiser, onde for. Você põe lá uma câmera na frente e pronto. Então… Não é esse o problema, é software mesmo. É saber, vou aqui, não vou ali, faço isso, faço aquilo, num lugar, numa rua não mapeada. Pouca gente sabe, mas não existem carros autônomos no mundo. É uma falácia circulando. Aí vem o povo falando “não, claro que tem. Eu tomei o Waymo”. Eu também. Eu estava nos Estados Unidos, lá no SXSW, tomei um monte lá em Austin. Aquilo é nível quatro, tem uma pessoa na central. Inclusive, o carro um dia fez um monte de estupidez comigo, ficou querendo entrar por um quintal. Ele ia de ré, voltava… estava louco… aí eu liguei lá na central e falei, “olha, alguém pega um controle remoto e tira essa porcaria daqui, senão eu vou ter que sair desse carro e pegar outro”.

Então, ainda não existe uma autonomia de máquina para operar dentro de limites, que para nós são muito triviais. Está aí a grande questão. A AGI ainda vai demorar um pouquinho. Todo mundo quer saber quando, tem gente falando em dois anos, o Jensen Huang falou que já aconteceu, mas se a gente considera o mundo real… O curioso é que eu acho que as previsões que eram feitas lá no começo do século seguem válidas – que é mais ou menos entre meados da década de 2030 e 2040. Então ainda falta talvez uma década, talvez oito anos, talvez alguma coisa assim, para a gente ter realmente uma situação em que qualquer coisa que você imaginar vai ter uma IA que vai fazer tão bem ou melhor que quase todo mundo. É isso que eu acho que a gente tem aí pela frente.

Olhar Digital: Só para arrematar mesmo, mas você imagina uma IA conseguindo fazer tudo isso, ou realmente IAs especialistas?

Alvaro: são IAs especialistas, numa lógica em que a capa pode parecer que tem uma só, como um browser, mas esse browser está chamando IAs que foram treinadas para cada coisa. A IA que vai pilotar o carro sem nunca ter visto aquela rua, num lugar qualquer, ermo, desconhecido, não é a IA que vai produzir o texto, porque dá muito mais trabalho, custa muito mais você fazer uma IA só fazer tudo. Então, mixture of experts é o caminho. Agora, pode ser que em trinta anos ou em cinquenta anos realmente surja um tipo de coisa que lembre o que a gente chama hoje em dia de inteligência artificial e que faça tudo? Pode. Afinal de contas, essas coisas que a gente está descrevendo são feitas por humanos com um cérebro só. Mas a gente tem que lembrar que são feitas por humanos na cultura. Não é um humano, são oito bilhões. E não é um humano que surgiu agora, mas são humanos que surgiram há trezentos mil anos e vieram evoluindo a sua maneira de se relacionar com a realidade desde então. Então, preservados esses pontos, eu acho que você pode ter uma aparência de unicidade, mas por um bom tempo a gente vai ter muitas IAs ali debaixo do capô, cada uma operando num terreno de especialização.

O post A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina apareceu primeiro em Olhar Digital.

A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina Read More »

microsoft copilot 1024x576

Microsoft foca em superinteligência e lança novo modelo de voz

A Microsoft está redirecionando parte de sua estratégia em inteligência artificial (IA) sob a liderança de Mustafa Suleyman, atual CEO de IA da empresa. Após uma reestruturação anunciada em meados de março, o executivo transferiu algumas responsabilidades e passou a concentrar seus esforços no desenvolvimento de superinteligência.

Segundo Suleyman, essa mudança já vinha sendo planejada há meses e ganhou tração após a renegociação do contrato com a OpenAI. “Esse tem sido um plano de longa data”, afirmou. Para ele, o conceito de superinteligência está diretamente ligado à capacidade de modelos entregarem valor prático para empresas e usuários.

Embora termos como superinteligência e inteligência geral artificial (AGI) ainda tenham definições em aberto na indústria, o executivo afirma que o foco da Microsoft está em aplicações concretas. A meta é atender desenvolvedores, empresas e consumidores com modelos de linguagem capazes de gerar resultados em escala.

Novo modelo de transcrição

A Microsoft apresentou o MAI-Transcribe-1, um modelo de transcrição que, segundo a empresa, avança no reconhecimento de fala. De acordo com Suleyman, a tecnologia opera com cerca de metade do custo de GPU em comparação com outros modelos de ponta, o que representa economia operacional.

O modelo foi desenvolvido para lidar com condições adversas de áudio, como ruído de fundo, baixa qualidade e sobreposição de falas. Ele é capaz de transcrever reuniões, gerar legendas para vídeos e analisar interações em call centers em 25 idiomas.

O treinamento envolveu uma combinação de transcrições revisadas por humanos e conteúdos gerados por máquinas. Os dados incluem gravações em estúdios controlados, além de áudios captados em ambientes com ruído, como ruas movimentadas e cenários domésticos, além de dados públicos disponíveis na internet.

Estratégia e desenvolvimento

A reestruturação da Microsoft também unificou equipes voltadas para consumidores e empresas sob a marca Copilot. Com isso, parte das operações passou a ser liderada por Jacob Andreou, enquanto Suleyman direciona seu foco para o desenvolvimento de novos modelos de fronteira.

Microsoft unificou equipes voltadas para consumidores sob a marca Copilot – Imagem: Mijansk786 / Shutterstock

O MAI-Transcribe-1 passa a integrar o portfólio da empresa ao lado dos modelos MAI-Voice-1 e MAI-Image-2, disponíveis na plataforma Microsoft Foundry e no novo Microsoft AI Playground. Segundo a empresa, é a primeira vez que esses modelos estão amplamente disponíveis para uso comercial.

Suleyman atribui parte do desempenho do novo modelo a uma equipe reduzida, com cerca de dez pessoas, dedicada exclusivamente ao desenvolvimento. Segundo ele, o grupo opera com menos interferência burocrática, enquanto outras equipes dão suporte em tarefas como coleta de dados e gestão de fornecedores.

Leia mais:

Visão para o futuro

A estratégia da Microsoft também acompanha movimentos de outras empresas do setor, como Meta, Amazon e Google, que vêm testando estruturas organizacionais mais enxutas para acelerar o desenvolvimento de IA.

Suleyman afirma que o objetivo é criar sistemas de IA centrados no usuário. “Todos terão um assistente de IA no bolso, de classe mundial, responsável e alinhado aos seus interesses”, disse. A proposta, segundo ele, é oferecer ferramentas que atuem diretamente em benefício dos usuários.

O post Microsoft foca em superinteligência e lança novo modelo de voz apareceu primeiro em Olhar Digital.

Microsoft foca em superinteligência e lança novo modelo de voz Read More »

jensen huang nvidia 1024x576 1

Alcançamos a inteligência artificial geral?

Esse é um trecho da newsletter Primeiro Olhar, disponível para assinantes do Clube Olhar Digital
Uma das obsessões da tecnologia, hoje, é atingir a tal inteligência artificial geral. Para uns, ficção. Para outros, questão de tempo.

Inteligência artificial geral, ou IAG, é uma IA capaz de aprender, raciocinar e resolver problemas em muitas áreas diferentes, como um ser humano.

Ela não ficaria limitada a uma tarefa específica, como traduzir texto ou reconhecer imagens. A IAG poderia adaptar conhecimento de um contexto para outro com autonomia e flexibilidade.

Em outras palavras, é um conceito ainda vagamente definido que descreve sistemas capazes de realizar qualquer tarefa intelectual humana

Hoje, os sistemas de IA existentes ainda são limitados, pois funcionam bem em tarefas específicas. E nem sempre funcionam bem, diga-se de passagem.

Além de um desafio tecnológico, a IAG seria um desafio ético e de segurança.

Eu disse que a IAG pode ser uma questão de tempo. Mas, para um dos principais nomes da tecnologia, nem isso.

Durante participação no podcast do cientista da computação Lex Fridman nesta segunda-feira (23), Jensen Huang, CEO da Nvidia, afirmou categoricamente: “Acho que já alcançamos a AGI“.

Jensen Huang é o CEO da empresa mais valiosa do mundo. (Imagem: FotoField/Shutterstock)

Para Fridman, o benchmark da IAG é específico: um sistema que consiga iniciar, crescer e gerir uma empresa de tecnologia de US$ 1 bilhão. Ao ser questionado se isso levaria 5 ou 20 anos, Huang respondeu: “Acho que é agora”.

Para fundamentar sua visão, Huang apontou para o sucesso viral do OpenClaw, uma plataforma de código aberto para agentes de IA. Ele destacou como as pessoas estão usando esses agentes para criar influenciadores digitais, gerir aplicações sociais e até cuidar de “Tamagotchis” modernos, transformando ideias em sucessos instantâneos.

No entanto, o executivo ponderou sobre a efemeridade de algumas dessas aplicações, notando que muitos usuários abandonam as ferramentas após alguns meses de uso.

Apesar da declaração bombástica, Huang deu um leve passo atrás ao final da conversa. Ao ser confrontado com a possibilidade de a IA substituir completamente a liderança humana em larga escala, ele foi realista: “As chances de 100 mil desses agentes construírem a Nvidia são de zero por cento”.

A fala ocorre em um momento em que outros líderes do setor tentam se distanciar do termo “AGI” por considerá-lo saturado de hype, preferindo termos mais técnicos e limitados.

E você? Acredita que já estamos na era da AGI? Eu acho que não…

E, honestamente, nem vejo essa tecnologia com bons olhos. Não por querer colocar freios na inovação. Mas por entender que isso criaria problemas para muito além da nossa capacidade de resolução.

O post Alcançamos a inteligência artificial geral? apareceu primeiro em Olhar Digital.

Alcançamos a inteligência artificial geral? Read More »

“Acho que alcançamos a AGI”, afirma Jensen Huang, CEO da Nvidia

O debate sobre quando a inteligência artificial alcançará ou superará a inteligência humana ganhou uma resposta definitiva (e polêmica) de um dos homens mais influentes da tecnologia. Durante participação no podcast de Lex Fridman nesta segunda-feira (23), Jensen Huang, CEO da Nvidia, afirmou categoricamente: “Acho que já alcançamos a AGI“.

A sigla AGI refere-se à inteligência artificial geral, um conceito ainda vagamente definido que descreve sistemas capazes de realizar qualquer tarefa intelectual humana. Para Fridman, o benchmark é específico: um sistema que consiga iniciar, crescer e gerir uma empresa de tecnologia de US$ 1 bilhão. Ao ser questionado se isso levaria 5 ou 20 anos, Huang respondeu: “Acho que é agora”.

O sucesso dos agentes e o “OpenClaw”

Para fundamentar sua visão, segundo o The Verge, Huang apontou para o sucesso viral do OpenClaw, uma plataforma de código aberto para agentes de IA. Ele destacou como as pessoas estão usando esses agentes para criar influenciadores digitais, gerir aplicações sociais e até cuidar de “Tamagotchis” modernos, transformando ideias em sucessos instantâneos.

No entanto, o executivo ponderou sobre a efemeridade de algumas dessas aplicações, notando que muitos usuários abandonam as ferramentas após alguns meses de uso.

Leia também:

Apesar da declaração bombástica, Huang deu um leve passo atrás ao final da conversa. Ao ser confrontado com a possibilidade de a IA substituir completamente a liderança humana em larga escala, ele foi realista: “As chances de 100 mil desses agentes construírem a Nvidia são de zero por cento”.

A fala ocorre em um momento em que outros líderes do setor tentam se distanciar do termo “AGI” por considerá-lo saturado de hype, preferindo termos mais técnicos e limitados. Ainda assim, para o CEO da gigante dos chips, o marco que todos esperavam já está entre nós.

O post “Acho que alcançamos a AGI”, afirma Jensen Huang, CEO da Nvidia apareceu primeiro em Olhar Digital.

“Acho que alcançamos a AGI”, afirma Jensen Huang, CEO da Nvidia Read More »