inteligência artificial

Auto Added by WPeMatico

logo meta 1024x678

Meta amplia investimento em IA com contrato de US$ 21 bilhões

A Meta ampliou seus investimentos em inteligência artificial (IA) ao firmar um novo acordo de US$ 21 bilhões com a CoreWeave, empresa especializada em infraestrutura de nuvem voltada para IA. O valor se soma a um contrato anterior de US$ 14,2 bilhões, reforçando a estratégia da companhia de expandir sua capacidade computacional.

O novo compromisso terá duração entre 2027 e 2032 e ocorre em um momento em que a empresa intensifica tanto a construção de infraestrutura própria quanto a dependência de fornecedores externos para sustentar o avanço de seus sistemas de IA.

A Meta fechou acordo com a CoreWeaver para ampliar infraestrutura de IA – Imagem: miss.cabul/Shutterstock

Meta amplia estratégia e mantém parceria com CoreWeave

Segundo o CEO da CoreWeave, Mike Intrator, a Meta deve manter uma abordagem híbrida, combinando desenvolvimento interno com parcerias externas. “Eles vão continuar fazendo por conta própria, mas também vão continuar fazendo conosco. Há risco demais em não fazer isso”, afirmou em entrevista ao CNBC.

A CoreWeave opera data centers equipados com centenas de milhares de GPUs da Nvidia, voltadas ao treinamento e operação de modelos de inteligência artificial. A empresa também atende clientes como Google, Microsoft e OpenAI, que buscam ampliar rapidamente sua capacidade diante da alta demanda por IA.

Em março, a Meta anunciou um investimento de US$ 10 bilhões em um data center no Texas. Além disso, a companhia projeta gastar entre US$ 115 bilhões e US$ 135 bilhões em despesas de capital neste ano, valor acima das estimativas de Wall Street e quase o dobro do registrado em 2025.

Apesar de o negócio principal de publicidade ter se beneficiado do avanço da IA, a empresa ainda enfrenta dificuldades para ganhar espaço no desenvolvimento de modelos, área atualmente liderada por OpenAI, Anthropic e Google. A Meta também vem investindo na criação do grupo Superintelligence Labs e lançou recentemente o modelo Muse Spark.

A colaboração entre Meta e CoreWeave começou em 2023. De acordo com Intrator, a infraestrutura da empresa tem permitido melhor aproveitamento dos profissionais especializados em IA contratados pela Meta. Um porta-voz afirmou que o acordo faz parte de uma abordagem baseada em portfólio para infraestrutura, com foco em sustentar suas ambições no setor.

CoreWeave busca diversificação e amplia capacidade

A CoreWeave também anunciou que pretende levantar US$ 3 bilhões em dívida adicional. A nova parceria com a Meta contribui para reduzir a dependência da empresa em relação à Microsoft, que respondeu por 62% da receita em 2024. Com o novo cenário, nenhum cliente deve representar mais de 35% das vendas totais.

A empresa fechou 2025 com US$ 21 bilhões em dívidas e, em março, captou mais US$ 8,5 bilhões para expandir sua infraestrutura ligada a novos contratos.

As ações da CoreWeave acumulam alta de 24% no ano, enquanto o índice S&P 500 registra queda de cerca de 1% no mesmo período. Já os papéis da Meta recuam aproximadamente 7%, apesar de uma valorização recente após o anúncio de seu novo modelo de IA.

Intrator avalia que a parceria com a Meta tende a crescer, mesmo com a expansão de data centers próprios pela empresa. Segundo ele, a combinação entre infraestrutura interna e terceirizada deve continuar sendo parte central da estratégia.

O post Meta amplia investimento em IA com contrato de US$ 21 bilhões apareceu primeiro em Olhar Digital.

Meta amplia investimento em IA com contrato de US$ 21 bilhões Read More »

meta muse spark 1024x891

De volta à corrida: Meta anuncia Muse Spark, seu novo modelo de IA

No ano passado, a Meta passou por uma reformulação interna que resultou no Meta Superintelligence Labs, uma divisão focada em inteligência artificial. Como resultado, a big tech anunciou nesta quarta-feira (8) seu primeiro lançamento desde então: o modelo de IA Muse Spark.

Segundo a empresa, o modelo já está funcionando integrado ao aplicativo e ao site Meta AI nos Estados Unidos. A expectativa é que, nas próximas semanas, a tecnologia seja expandida para outras plataformas do ecossistema da companhia, incluindo WhatsApp, Instagram, Facebook, Messenger e os óculos inteligentes da marca, além de chegar para mais países.

O Muse Spark inaugura uma nova linha de modelos da empresa com foco em integração direta aos produtos da empresa – abordagem semelhante à adotada por concorrentes como o Google (o Gemini funciona integrado aos serviços do Google, como Drive, Docs e Gmail). De acordo com a companhia, o sistema foi “desenvolvido especificamente para os produtos da Meta” e será disponibilizado inicialmente a alguns parceiros em formato de prévia privada via API.

Entre os principais recursos, o Muse Spark traz suporte multimodal, permitindo a combinação de texto e imagens nas interações. A tecnologia também foi projetada para operar com múltiplos “subagentes” de IA, o que, segundo a Meta, melhora a velocidade e a eficiência na resposta a consultas mais complexas.

Esse conjunto de capacidades ganha relevância especialmente no contexto dos óculos inteligentes da empresa, que contam com câmera e recursos de IA embarcados. Nesses dispositivos, os usuários poderão alternar entre um modo mais rápido, chamado “Instantâneo”, e outro mais aprofundado, o modo “Pensamento”, voltado para respostas mais detalhadas.

A Meta também destacou o potencial do Muse Spark em áreas como ciência, matemática e saúde. Segundo a empresa, o modelo é capaz de responder a “perguntas complexas” nesses campos, incluindo interações que envolvem gráficos e imagens. A companhia afirma ainda que a percepção multimodal pode ser “especialmente valiosa para a saúde”, ao permitir respostas mais completas nesse tipo de consulta.

O uso de IA em saúde, no entanto, tem sido alvo de debates recentes, principalmente por envolver dados sensíveis e riscos de desinformação. Ainda assim, a Meta sinaliza interesse em competir diretamente com soluções semelhantes já lançadas por outras empresas do setor, como Anthropic (com o Claude) e OpenAI (com o ChatGPT).

Em testes, o modelo foi utilizado, por exemplo, para estimar calorias de refeições – uma aplicação popular, mas que ainda levanta questionamentos sobre precisão.

Em demonstração, Muse Spark foi usado para quantificar calorias de uma refeição – Imagem: Meta

Meta quer ampliar Muse Spark no futuro próximo

No médio prazo, a Meta pretende ampliar as funcionalidades do modelo, incluindo recursos capazes de sugerir conteúdos e recomendações com base em publicações compartilhadas em plataformas como Instagram, Facebook e Threads.

A empresa também informou que trabalha em versões mais avançadas da linha Muse e que planeja disponibilizar modelos futuros em código aberto. O Muse Spark é descrito como um primeiro passo nessa nova fase da estratégia de IA da companhia.

Leia mais:

Como lembrou o The Verge, a iniciativa marca a segunda grande investida da Meta em modelos avançados de inteligência artificial, após a série Llama. A reestruturação da área ocorreu após o desempenho abaixo do esperado do Llama 4, lançado em 2025, levando a empresa a reposicionar seus esforços no setor.

O post De volta à corrida: Meta anuncia Muse Spark, seu novo modelo de IA apareceu primeiro em Olhar Digital.

De volta à corrida: Meta anuncia Muse Spark, seu novo modelo de IA Read More »

openai gpt 4o 1024x682

OpenAI lança plano para combater exploração infantil com IA

Em meio ao aumento das preocupações com a segurança infantil na internet, a OpenAI anunciou um novo plano voltado ao fortalecimento da proteção de crianças nos Estados Unidos diante do avanço da inteligência artificial (IA). O documento, chamado Child Safety Blueprint, foi divulgado na terça-feira e propõe melhorias na detecção, no reporte e na investigação de casos de exploração infantil com uso de IA.

A iniciativa surge em um contexto de crescimento desse tipo de crime. Segundo a Internet Watch Foundation (IWF), mais de 8 mil denúncias de conteúdo de abuso sexual infantil gerado por IA foram registradas no primeiro semestre de 2025, um aumento de 14% em relação ao ano anterior. Entre os casos identificados estão o uso de ferramentas para criar imagens falsas e mensagens voltadas ao aliciamento.

Parcerias e repercussão do plano da OpenAI

O lançamento ocorre em meio ao aumento da atenção de legisladores, educadores e organizações de proteção infantil. O tema também ganhou destaque após relatos de incidentes envolvendo jovens que morreram por suicídio depois de interações com chatbots de IA.

Em novembro, o Social Media Victims Law Center e o Tech Justice Law Project entraram com sete ações judiciais em tribunais estaduais da Califórnia. Os processos alegam que a OpenAI lançou o GPT-4o antes de estar pronto. As ações citam quatro mortes por suicídio e três casos de delírios graves após interações prolongadas com o chatbot, apontando possível influência do sistema.

Processos alegam que a OpenAI lançou o GPT-4o antes de estar pronto – Imagem: PatrickAssale / Shutterstock

O blueprint foi desenvolvido com a colaboração do National Center for Missing and Exploited Children (NCMEC) e da Attorney General Alliance, além de contar com contribuições dos procuradores-gerais Jeff Jackson, da Carolina do Norte, e Derek Brown, de Utah.

Pontos focais do blueprint

De acordo com a OpenAI, o plano se concentra em três frentes principais: atualização das leis para incluir materiais gerados por IA, aprimoramento dos mecanismos de comunicação com autoridades e integração de medidas preventivas diretamente nos sistemas de inteligência artificial.

A proposta busca ampliar a capacidade de identificação precoce de riscos e garantir que informações relevantes cheguem de forma mais rápida às investigações.

O blueprint também se apoia em iniciativas anteriores da empresa, como diretrizes atualizadas para interações com usuários menores de 18 anos. Essas regras proíbem a geração de conteúdo inadequado, o incentivo à automutilação e orientações que ajudem jovens a esconder comportamentos inseguros de responsáveis. A empresa também lançou recentemente um plano de segurança voltado a adolescentes na Índia.

O post OpenAI lança plano para combater exploração infantil com IA apareceu primeiro em Olhar Digital.

OpenAI lança plano para combater exploração infantil com IA Read More »

openai x anthropic 1024x604

IA não é pop: empresas reagem ao aumento da rejeição

As principais empresas de inteligência artificial (IA) têm adotado uma estratégia coordenada para reduzir a crescente desconfiança do público em relação à tecnologia. Dados de pesquisas recentes indicam que a percepção negativa sobre a IA está aumentando, impulsionando iniciativas das companhias para abordar preocupações como perda de empregos, concentração de riqueza e riscos à segurança.

Nesse contexto, empresas como OpenAI e Anthropic passaram a defender propostas e firmar parcerias que buscam suavizar os impactos da tecnologia. As ações ocorrem em meio a alertas de líderes empresariais e investidores sobre possíveis efeitos sociais e econômicos da rápida adoção da IA.

Propostas e parcerias para reduzir temores

A OpenAI divulgou recentemente uma lista de propostas voltadas a questões sociais ligadas à IA. Entre as ideias estão a criação de uma semana de trabalho de quatro dias e de um fundo público financiado por investimentos em IA, com distribuição de recursos à população.

A empresa também sinalizou uma postura mais ativa no debate público. Segundo uma porta-voz, o objetivo é participar das discussões com “soluções reais” que acompanhem a velocidade de avanço da tecnologia. Chris Lehane, chefe de assuntos globais da OpenAI, afirmou ao Wall Street Journal que há um senso de urgência nesse debate.

Empresas como OpenAI e Anthropic estão tendo que reagir à aversão geral da população com a inteligência artificial – Imagem: Rokas Tenys / Shutterstock

Já a Anthropic tem focado em parcerias com setores como consultoria e software, áreas afetadas por preocupações de investidores sobre substituição por IA. Essas iniciativas ajudaram, inclusive, a impulsionar novamente ações de empresas de tecnologia que haviam sido pressionadas.

Cresce a preocupação com impactos sociais

Pesquisas recentes mostram aumento significativo na desconfiança do público. Um levantamento da Quinnipiac University, realizado em março, apontou que 55% dos americanos acreditam que a IA trará mais prejuízos do que benefícios em suas vidas diárias, ante 44% no ano anterior.

Outro estudo, conduzido pela NBC News, indicou que a avaliação de favorabilidade da IA ficou abaixo até mesmo de órgãos governamentais tradicionalmente mal avaliados. As preocupações incluem desde desemprego em larga escala até ameaças à cibersegurança.

Além disso, estudos apontam mudanças na rotina de trabalho com a adoção da tecnologia. Em vez de liberar tempo para atividades criativas, alguns trabalhadores passaram a dedicar mais horas a tarefas como e-mails e ferramentas de gestão, enquanto o tempo de trabalho focado diminuiu.

Mudança de estratégia e pressão por regulação

Historicamente, empresas como a OpenAI resistiram a regulações mais rígidas. No entanto, o aumento do ceticismo público tem tornado essa postura menos sustentável. Para Amba Kak, do AI Now Institute, as empresas agora tentam assumir protagonismo na formulação de políticas. “Se não podem se opor a todas as regras, o próximo passo é liderar a discussão”, afirmou ao WSJ.

A Anthropic também tem ampliado seus esforços para estudar os impactos da IA. A empresa criou um think tank interno e publicou pesquisas sobre uso da tecnologia por profissionais, além de expandir equipes que atuam diretamente dentro de organizações para melhorar a produtividade com IA.

Disputa por narrativa e expansão do setor

As empresas também têm investido em comunicação para influenciar a percepção pública. A OpenAI adquiriu o podcast TBPN, conhecido por abordar tecnologia de forma positiva, como parte de uma estratégia mais ampla de moldar o debate sobre IA.

Ao mesmo tempo, a continuidade do crescimento do setor depende de grandes investimentos em infraestrutura, como data centers. Esses projetos já enfrentam resistência de autoridades locais e ativistas, preocupados com custos e impactos econômicos.

A pressão aumenta em um cenário de volatilidade no mercado. Um exemplo citado foi a queda de US$ 1,6 trilhão em ações de software no início do ano, evidenciando riscos para empresas que dependem do avanço da IA para sustentar seus negócios.

O post IA não é pop: empresas reagem ao aumento da rejeição apareceu primeiro em Olhar Digital.

IA não é pop: empresas reagem ao aumento da rejeição Read More »

scale ai 1024x576

Investigação expõe bastidores do treinamento de IA com material sensível e dados de redes sociais

Uma investigação do jornal The Guardian revelou que milhares de trabalhadores foram pagos por uma empresa parcialmente controlada pela Meta para treinar sistemas de inteligência artificial. Em muitos casos, eles tiveram que executar tarefas controversas, como coleta de dados em redes sociais, uso de conteúdo protegido por direitos autorais e análise de materiais sensíveis, como imagens pornográficas e de animais mortos.

Segundo a reportagem, a Scale AI – companhia da qual a Meta detém 49% – recruta profissionais por meio da plataforma Outlier, oferecendo trabalho remoto e flexível para pessoas com formação em áreas como medicina, física e economia. O site da empresa convida candidatos com o slogan: “Torne-se o especialista de quem a IA aprende”.

Na prática, trabalhadores relataram que as atividades iam além do treinamento técnico de modelos avançados. Parte das tarefas envolvia a coleta e organização de dados de usuários em plataformas como Facebook e Instagram, incluindo imagens, conexões sociais e informações pessoais – até de menores de idade. Para alguns participantes, o processo gerou desconforto ético.

“Acho que as pessoas não entenderam muito bem que haveria alguém em uma mesa, em um estado qualquer, olhando para o seu perfil [de mídia social] e usando-o para gerar dados de IA”, afirmou um dos consultores ouvidos pela reportagem.

O Guardian entrevistou dez pessoas que atuaram na plataforma, muitas delas conciliando o trabalho com outras ocupações, como jornalismo, ensino e pesquisa acadêmica. Segundo relatos, a motivação foi financeira, para complementar renda.

Além da coleta de dados, os chamados “taskers” também foram expostos a conteúdos considerados perturbadores. Entre as tarefas descritas estão a transcrição de áudios pornográficos, a rotulagem de imagens de animais mortos e até a análise de cenários violentos. Um estudante de doutorado relatou ter sido instruído a classificar um diagrama da genitália de um bebê, apesar de garantias iniciais de que não haveria material sensível.

“Já nos tinham dito antes que não haveria nudez nesta missão. Comportamento apropriado, nada de violência gráfica, nada de sangue”, afirmou. “Mas depois aparecia uma transcrição de áudio de pornografia ou simplesmente trechos aleatórios de pessoas vomitando sem motivo aparente”.

Outro ponto levantado foi o uso de obras artísticas, protegidas por direitos autorais, para treinar modelos de geração de imagem. Trabalhadores disseram que precisavam buscar conteúdos originais para alimentar os sistemas – muitas vezes nas próprias redes sociais de artistas. Em alguns casos, havia instruções explícitas para não utilizar imagens geradas por IA, apenas produções humanas.

Paralelamente, os colaboradores relataram condições de trabalho instáveis, com remuneração variável, monitoramento constante e processos seletivos não remunerados. A plataforma utilizaria ferramentas de rastreamento de atividade, como captura de tela, durante a execução das tarefas.

Segundo Glenn Danas, advogado que representa trabalhadores do setor, centenas de milhares de pessoas atuam em plataformas desse tipo ao redor do mundo. Para muitos, há a percepção de que estão contribuindo para o desenvolvimento de tecnologias que podem substituir suas próprias funções. Um artista descreveu sentir “vergonha e culpa internalizadas” por “contribuir diretamente para a automação de minhas esperanças e sonhos”.

A Meta comprou Scale AI em junho de 2025, por US$14,3 bilhões – Imagem: T. Schneider – Shutterstock

O que diz a Scale AI sobre o treinamento de IA?

Por meio de um porta-voz, a Scale AI afirmou ao jornal que a Outlier oferece trabalho sob demanda com “remuneração transparente” e que os colaboradores têm liberdade para escolher projetos e horários. A empresa também declarou que tarefas com conteúdo inadequado podem ser interrompidas e que não aceita projetos envolvendo abuso sexual infantil ou pornografia.

Ainda assim, a investigação levanta questionamentos sobre a forma como dados são coletados e utilizados no treinamento de modelos de IA, além das condições de trabalho em um setor que cresce rapidamente à medida que a demanda por sistemas mais avançados aumenta.

Leia mais:

A Scale AI também atende Google, Anthropic, o Departamento de Defesa dos Estados Unidos e o governo do Catar. A empresa atendia a OpenAI, mas a parceria foi encerrada no ano passado, após a compra de parte da startup por parte da companhia de Mark Zuckerberg.

A Meta e a Anthropic não responderam a pedidos de comentários do The Guardian.

O post Investigação expõe bastidores do treinamento de IA com material sensível e dados de redes sociais apareceu primeiro em Olhar Digital.

Investigação expõe bastidores do treinamento de IA com material sensível e dados de redes sociais Read More »

microsoft 1 1024x682

Anthropic lança novo modelo de IA para fortalecer cibersegurança

A Anthropic está introduzindo um novo modelo de inteligência artificial (IA) voltado para cibersegurança, denominado Project Glasswing. Este projeto surge em parceria com gigantes da tecnologia, como Nvidia, Google, Amazon Web Services, Apple e Microsoft, além de outras empresas.

O objetivo principal do Project Glasswing é permitir que grandes companhias e, potencialmente, o governo, detectem vulnerabilidades em seus sistemas com mínima intervenção humana. Parte desse esforço inclui disponibilizar para os parceiros selecionados o acesso ao modelo Claude Mythos Preview, que atualmente não será disponibilizado ao público devido a preocupações envolvendo segurança.

Newton Cheng, responsável pela equipe de cibersegurança da Anthropic, destacou que o modelo foi concebido para oferecer aos defensores cibernéticos uma vantagem inicial na identificação de ameaças. Ele mencionou que, embora o Claude Mythos Preview não tenha sido especificamente treinado para cibersegurança, suas fortes habilidades de codificação e raciocínio de agente demonstraram-se valiosas para esse propósito.

Recursos e funções do Claude Mythos Preview

  • Apesar de não divulgar detalhes específicos sobre as conquistas do modelo em cibersegurança, a Anthropic afirmou em seu blog que o Claude Mythos Preview foi capaz de identificar milhares de vulnerabilidades críticas em sistemas operacionais e navegadores web importantes nas últimas semanas;
  • Uma característica destacada pela empresa foi a capacidade do modelo de operar de forma autônoma, sem a necessidade de direção humana para descobrir e desenvolver explorações relacionadas a essas vulnerabilidades;
  • O acesso ao Claude Mythos Preview é restrito para impedir que adversários possam explorar as mesmas fraquezas que o modelo é capaz de identificar;
  • Parceiros do projeto incluem não apenas empresas de tecnologia, como JPMorgan Chase, Broadcom e Cisco, mas, também, organizações, como a Linux Foundation e a Palo Alto Networks, totalizando cerca de 40 entidades que mantêm ou constroem infraestrutura de software.
Microsoft é uma das empresas participantes – Imagem: Tang Yan Song/Shutterstock

A Anthropic também está investindo financeiramente para apoiar o uso do modelo entre seus parceiros, comprometendo até US$ 100 milhões (R$ 515,1 mil) em créditos de uso, além de US$ 4 milhões (R$ 20,6 milhões) em doações diretas para organizações, como a Linux Foundation e a Apache Software Foundation.

Leia mais:

Anthropic: perspectivas futuras e envolvimento com o governo

O futuro desse projeto pode incluir a transformação em um serviço pago, caso ele prove ser suficientemente eficaz para os clientes manterem seu uso. Este movimento chega em um momento em que empresas de IA enfrentam pressão para se tornarem lucrativas.

Apesar de recentes desentendimentos públicos com a administração Trump, a Anthropic está em discussões contínuas com funcionários do governo dos EUA sobre as capacidades ofensivas e defensivas do Claude Mythos Preview. Embora não tenham sido revelados quais oficiais foram informados, a empresa mostrou compromisso em colaborar com vários níveis do governo.

O vazamento de dados que trouxe à tona a existência do modelo no mês passado foi atribuído a um erro humano, e Dianne Penn, chefe de gerenciamento de produtos da Anthropic, assegurou que medidas estão sendo tomadas para melhorar os processos internos da empresa.

O post Anthropic lança novo modelo de IA para fortalecer cibersegurança apareceu primeiro em Olhar Digital.

Anthropic lança novo modelo de IA para fortalecer cibersegurança Read More »

openai dinheiro e1775561451275 1024x577

Custos bilionários colocam pressão sobre modelo de negócios da IA

O avanço acelerado da inteligência artificial (IA) está redefinindo não apenas a tecnologia, mas também a lógica financeira das empresas do setor. Em um cenário marcado por investimentos massivos, gastar grandes quantias passou a ser parte essencial da estratégia para crescer — ainda que isso signifique operar no vermelho por anos.

De acordo com documentos financeiros obtidos pelo The Wall Street Journal, as empresas OpenAI e Anthropic projetam gastar juntas quase US$ 65 bilhões (R$ 335,4 bilhões) em 2026 apenas com custos de treinamento e operação de seus modelos de IA. O valor supera a receita gerada por ambas no mesmo período.

A tendência é de forte crescimento. Esses custos combinados devem chegar a US$ 127 bilhões (R$ 655,5 bilhões) no próximo ano e atingir quase US$ 250 bilhões (R$ 1,2 trilhão) até 2029, segundo projeções apresentadas pelas próprias companhias a investidores privados.

No caso da OpenAI, a expectativa é que os gastos com treinamento e inferência — processo pelo qual os modelos respondem às consultas dos usuários — continuem superando a receita até 2029. Já a Anthropic prevê ultrapassar esse ponto já no próximo ano. Ainda assim, outros custos devem manter a empresa controladora do chatbot Claude no prejuízo antes dos impostos também até o fim da década.

Apesar das projeções, o cenário pode mudar. Há a possibilidade de crescimento de receitas em ritmo mais acelerado do que o estimado atualmente. Ainda assim, o histórico recente do setor aponta para uma escalada contínua dos custos.

OpenAI e Anthropic investem pesado, mesmo que isso signifique prejuízo no começo – Imagem: izzuanroslan/Shutterstock

Concorrência com gigantes pressiona modelo

  • Além dos altos gastos, OpenAI e Anthropic enfrentam concorrência direta de gigantes da tecnologia que também investem pesadamente em IA, mas contam com negócios principais altamente lucrativos para financiar essas iniciativas;
  • Empresas, como Alphabet (dona do Google) e Meta, devem gerar juntas cerca de US$ 334 bilhões (R$ 1,7 trilhão) em fluxo de caixa operacional neste ano, segundo estimativas da FactSet — uma vantagem significativa frente às startups focadas exclusivamente em IA;
  • Nesse contexto, surge a dúvida sobre o apetite dos investidores. Tanto OpenAI quanto Anthropic estariam planejando realizar ofertas públicas iniciais (IPOs, na sigla em inglês) ainda em 2026, mesmo diante de prejuízos elevados;
  • Casos anteriores mostram que isso não é inédito. A Amazon, por exemplo, operou com prejuízo por anos após seu IPO em 1997, segundo dados da S&P Global Market Intelligence, e acabou se tornando um investimento bem-sucedido no longo prazo;
  • Ainda assim, há diferenças importantes. Na época de sua abertura de capital, a Amazon valia cerca de US$ 430 milhões (R$ 2,2 bilhões) — menos de 0,01% do valor do índice S&P 500. Já OpenAI e Anthropic somam hoje mais de US$ 1,2 trilhão (R$ 6,1 trilhões) em valor de mercado, de acordo com a PitchBook, o equivalente a mais de 2% do índice;
  • Esse contraste indica que a capacidade de controlar custos será um fator decisivo para atrair e manter investidores.

Leia mais:

Estratégias para crescer e atrair clientes

Para ampliar receitas, a Anthropic aposta no mercado corporativo. A empresa planeja investir US$ 200 milhões (R$ 1 bilhão) em uma nova joint venture com grandes companhias de private equity, voltada à venda de ferramentas de IA para empresas de seus portfólios.

A iniciativa também deve atuar como braço de consultoria, orientando clientes sobre como integrar as soluções da startup em suas operações — uma estratégia para acelerar a adoção da tecnologia no ambiente empresarial.

Outro movimento relevante envolve infraestrutura. A Broadcom firmou contrato para fornecer à Anthropic, a partir de 2027, capacidade computacional equivalente a 3,5 gigawatts, utilizando chips TPU desenvolvidos pelo Google.

IA se expande — e enfrenta resistência

Enquanto empresas investem pesado, o impacto da IA já se espalha por diferentes setores. Um exemplo é o sucesso dos óculos inteligentes Ray-Ban, da Meta, que venderam 7,2 milhões de unidades no ano passado, segundo a IDC. A Meta vê o produto como uma porta de entrada para suas soluções de IA, enquanto sua parceira EssilorLuxottica também colhe benefícios comerciais.

Por outro lado, o avanço da infraestrutura necessária para sustentar a IA começa a enfrentar resistência. No Estado do Maine (EUA), uma proposta legislativa pode transformar a região na primeira a impor uma moratória à construção de novos data centers. Movimentos semelhantes já surgem em mais de dez estados estadunidenses, além de dezenas de municípios.

A reação indica que, além dos desafios financeiros, o crescimento da IA também levanta questões sociais e regulatórias — ampliando a complexidade de um setor que já lida com custos cada vez mais elevados.

O post Custos bilionários colocam pressão sobre modelo de negócios da IA apareceu primeiro em Olhar Digital.

Custos bilionários colocam pressão sobre modelo de negócios da IA Read More »

A IA já evoluiu muito, mas como será seu futuro?

⁠É fato que a inteligência artificial (IA) está em um patamar que poucos imaginavam. Ela não só pode auxiliar as pessoas em projetos simples, como atuar em posições estratégicas em empresas e, até, pode decidir guerras.

O Olhar Digital conversou com Roberto Pena Spinelli, físico pela USP, com especialidade em Machine Learning por Stanford e pesquisador na área de IA. Ele transitou por várias facetas e épocas da IA, trazendo um panorama da tecnologia, elencando grandes momentos desde seu surgimento, em 2022, até imaginando o futuro dela. Por exemplo: será que atingiremos a tão falada inteligência artificial geral (IAG)? E a IA agêntica, o que podemos esperar dela?

Spinelli ainda levou o papo para um ar mais filosófico ao imaginar com a sociedade humana pode ficar com o avanço das IAs, pensando em um futuro no qual o ser humano poderia ficar sem trabalho e passar a receber uma espécie de renda universal.

Confira, a seguir, a entrevista.

Olhar Digital: Antes de mais nada, como funciona uma IA?

Roberto Pena Spinelli: Eles são redes neurais artificiais. É uma arquitetura de inteligência artificial [IA] que foi inspirada no cérebro humano. Então, como é que funciona o cérebro humano? A gente não tem, digamos, um processador central, um núcleo de processamento.

A gente tem um monte de neurônios, 85 bilhões de neurônios dentro da nossa cabeça, e cada neurônio é uma célula que pode ou não passar um sinal para frente. Isso vai depender das conexões, das sinapses. E cada neurônio pode se conectar com milhares de outros.

Então, agora, imagina como é complexo isso. Cada célula pode passar o sinal para frente baseado em um parâmetro dessa conexão. Então, é por isso que a gente não tem, digamos, um único neurônio que, se você matar aquele neurônio, a gente deixa de pensar e tal. Está tudo distribuído no nosso cérebro todo, nos nossos neurônios.

Aí é a mesma coisa. Eles se inspiraram no cérebro humano, vamos criar os neurônios artificiais. Foram lá, colocaram, só que no caso do computador são números, não há matriz. Enfim, não são neurônios de verdade, são neurônios simulados. Mas o que importa é que a arquitetura é a mesma.

Você vai lá e conecta esses neurônios entre si, coloca camadas de conexão, e você pode mudar os parâmetros que dizem como esses neurônios se conectam. E mudando esses parâmetros, vai mudar o processamento. E aí, o que a gente faz? A gente treina.

No caso dos modelos de linguagem, a gente primeiro treina. É o que a gente chama de aprendizado de máquina. A gente vai fazer a máquina aprender. Então, ela vai tentar prever textos que você joga para dentro dela. Então, você coloca uma frase: “o gato subiu no…”. E ela tenta, por conta dessa rede neural, processar a próxima palavra. E aí, ela diz, sei lá, “o gato subiu no armário”.

Mas digamos que a palavra correta não era armário naquela frase, era telhado. Então, você diz, rede, você errou, não era armário, era telhado. E você aponta isso para ela, existe uma forma de você treinar, e ela vai falar assim, opa, errei.

Então, tem uma conta que a gente faz, um processo chamado backpropagation, que vai alterar alguns desses parâmetros internos para fazer com que ela fique mais inclinada a dizer “telhado” naquela circunstância. E aí, você treina com próximos textos. O céu é, e ela diz, vermelho; errou, era azul. E aí, você vai treinando. E você vai colocando milhares de textos, milhares de textos, até que ela começa a acertar as próximas palavras. E assim, ela vai aprendendo. É um aprendizado de máquina.

Então, em resumo, o modelo de linguagem é uma inteligência artificial, uma rede neural, que tenta acertar a próxima palavra de um texto. Só que, e se esse texto for uma pergunta? E se esse texto for uma pergunta que ela nunca viu na vida? O que você pode perguntar? Imagina que você coloca uma questão do Enem, uma questão de matemática, ou de história, ou de filosofia, ou do que quer que seja. Veja, ela não tem um banco de dados dentro, que ela vai tentar olhar. Ai, essa questão aqui, eu já vi uma vez. Não, ela não tem banco de dados.

Ela tenta, no momento em que você vai treinando de maneira tão complexa, no momento em que você treina em perguntas tão diversas e complexas, o que acontece é que ela vai criando um entendimento do próprio mundo, um simulador do próprio mundo, para que esse seja o único jeito, o jeito que ela tenha alguma chance de poder responder perguntas o mais variadas possível.

Então, não tem como ela decorar todas as respostas. Ela precisa raciocinar, ela precisa inferir, ela precisa, de algum jeito, modelar o mundo exterior dentro dela. Então, é basicamente assim que uma inteligência artificial, um modelo de linguagem, funciona.

OD: Quando o ChatGPT surgiu e trouxe essa noção de IA que temos hoje, você imaginava que em 2026 estaríamos nesse nível de tecnologia? Quais são os capítulos mais marcantes pra você nessa corrida? Quais foram as mudanças de paradigma na tecnologia desde novembro de 2022?

⁠⁠Spinelli: Foram os quatro anos mais alucinados. Três anos, na verdade. Três anos e meio. Foram os três, quatro anos aí mais alucinados da minha vida, porque nada, nada que eu visse comparava com essa corrida, realmente essa corrida que aconteceu com a inteligência artificial, os avanços. Então, vamos lá, tentar pegar alguns marcos.

No final de 2022, a gente tem o lançamento do ChatGPT e esse é o grande marco que vai ditar a mudança de era, digamos. E aí a gente depois teve no ano seguinte, 2023, o lançamento do GPT-4, porque no começo o GPT-3 era muito ruimzinho, aí teve o GPT-3.5, o GPT-4 foi um momento e, nossa, caramba, era um salto gigantesco em relação ao GPT-3.

Paralelo a isso, a gente começou a ver os geradores de imagem surgirem, no começo, fazendo aquelas mãos tortas, que as pessoas reclamavam, diziam que, olha, a IA não consegue fazer dedo, mas ela fazia coisas muito boas, só errava as mãos, mas não deu mais um ano e ela já começou a acertar. Aí começaram os geradores de vídeo, então, a gente teve também, em paralelo, essa IA, já que a gente está falando sobre imagem.

A gente teve o Midjourney, que foi talvez a primeira empresa que entrou realmente dando uma qualidade alta. Você pagava, mas você tinha uma qualidade maior. Depois, a gente teve os modelos multimodais, a gente teve o lançamento daquele momento, o Estúdio Ghibli, com a OpenAI, que foi um marco bem grande, que era o próprio modelo de IA. Não era mais o Dolly que estava fazendo imagem, ele estava fazendo imagem meio que com modelo nativo, e aí foi uma mudança muito, muito, muito grande.

Depois, a gente teve o Nano Banana do Google fazendo a mesma coisa, se tornando um modelo muito rápido para gerar imagens e continua essa questão, a gente teve os de vídeo, que foi bem parecido. A gente teve o Sora, da OpenAI, anunciado e começaram a aparecer os outros geradores; a gente teve o Kling, que acho que fez bastante sucesso, o Luma, no começo, mas aí depois, em algum momento, surgiu o VO3 da Google, que foi espetacular, e também foi um desses grandes marcos e, hoje, tem já outros que superaram, mas a Seedance, posso dizer, [que é] chinesa, que é incrível, mas a gente está cada vez mais perto da possibilidade de fazer filmes de alta qualidade usando IA.

Voltando para a questão dos modelos de linguagem, a gente teve, depois do lançamento do GPT-4, os concorrentes aparecendo, entrando também, a gente viu no começo o fiasco do Bard, que era o modelo do Google, que era horrível, mas aí depois eles lançaram o Gemini e aí começou essa essa corrida. Aí a gente viu o modelo de voz avançado, que fazia uma voz muito boa, respondia quase que em tempo real, chamou muita atenção.

A gente teve também a IA enxergando, fazendo um videozinho, você conseguia mostrar as coisas, ela começou a se tornar multimodal, tem vários sentidos para interagir com o mundo, também aconteceu. Aí a gente teve os modelos de raciocínio, o O1 foi o primeiro deles, se não me engano, assim, conseguia ter um raciocínio bem rebuscado, isso foi durante o ano de 2024.

Nisso, a gente já estava em 2024 e a gente viu a IA tirando o ouro nas Olimpíadas de Matemática, foi um grande marco também, parecia algo muito distante e isso aconteceu. Depois a IA começou a programar melhor do que os seres humanos, também venceu os seres humanos nos campeonatos de programação.

Aí a gente teve o lançamento de modelos mais avançados de raciocínio, veio a era dos agentes, 2025 foi talvez a era dos agentes, a IA ganhando corpo, corpo no sentido de a IA ganhando mais estrutura, mais capacidade para sair daquela caixa e fazer um monte de coisa, usar o seu computador, navegar na internet, acessar arquivos, começou a entrar nas empresas, começou a programar muito bem, absurdamente bem.

E ela começou, inclusive, a programar a si própria, as próprias empresas que fazem IA hoje usam os modelos de IA para programar e o humano foi cada vez mais gerenciando, em termos de código foi excelente e, agora, a gente teve também um marco importante agora em 2026, o Open Claw, que foi esse agente open source que você instala na sua máquina, ele faz um monte de coisa, mas também vieram os riscos por conta disso.

Então, agora, a gente está em 2026, a gente tem alguns desafios pela frente: será que a gente vai continuar avançando essas IAs? Será que a gente vai dar memória a longo prazo para elas? Que é um dos gargalos. Nossa IA não consegue ter uma memória a longo prazo muito boa, ela esquece as coisas, ela não consegue ter coerência no espaço, nem no tempo, então, esse é um desafio. [Há] muitos estudos nesse sentido [e] a gente vai ter a IA aprendendo em tempo real.

Ela vai conseguir, porque a gente treina elas e, depois, quando ela está entregue, ela não aprende mais, quando você está usando ela, ela só aprende no contexto, ela não tem mais a capacidade de mudar os seus neurônios e aprender novas coisas, será que a gente vai conseguir arrumar, dar esse salto também?

E por fim, será que a gente vai fazer uma IA que faz pesquisa científica? Aliás, já está fazendo, a gente viu aí uma explosão de pesquisadores cientistas começando a perceber que a IA pode fazer tarefas que são super difíceis, como pesquisa científica, que exigem criatividade, raciocínio, intuição, coisas que normalmente a gente achava que a IA não poderia fazer, mas ela está fazendo, ela está fazendo avanços, ela está descobrindo coisas que ela nunca viu no seu treinamento.

Muita gente acha que a IA só vai poder reproduzir aquilo que ela viu no treinamento, [mas] ela pode fazer coisas além do treinamento dela, então, esses são os caminhos aí, que eu imagino, nos próximos meses e, também, se ela vai se tornar cada vez mais agêntica e mais capaz de agir no mundo, continuando esse caminho aí que começou, é isso que eu visualizo.

OD: Você vê um norte na corrida das IAs ou ainda vê muitas empresas atirando para vários lados? Pergunto isso principalmente depois de a OpenAI desativar o Sora pensando em investir em agentes. Você imagina um cenário futuro em que empresas fiquem mais “especialistas” em determinados ramos das IAs ao invés de uma concentração muito grande de tecnologia e poder computacional? Acho que aqui vale a pena citar o caso do OpenClaw.

Spinelli: O que eu vejo aqui são, primeiro, dois eixos principais, que é o open source e a IA proprietária. Então, aqui a gente já tem esse dilema sobre qual vai ser o que vai perdurar. Por que eu falo isso? Em princípio, parece que a IA proprietária das empresas, a IA fechada, estava prosperando muito mais, de fato, deslanchou durante todo esse tempo, é o que vem puxando a corrida das IAs.

Só que a gente viu, recentemente, surgiu o OpenClaw, que no começo se chamava Clawdbot, depois trocou para Moltbot e, no final, se estabeleceu como OpenClaw, que é um agente, um sistema agêntico, que você instala open source, distribuído, qualquer um pode rodar. E isso me pegou de surpresa. Então, a gente já tem essa primeira questão.

Será que no futuro, com a computação, com a IA ficando mais eficiente, podendo rodar em máquinas menores, com os tokens ficando mais baratos, será que a gente vai ver esses modelos abertos perdurando e se tornando o padrão? As empresas, as pessoas vão ter que rodar nos seus computadores? Ou não?

Será que a gente vai estar sempre precisando dos modelos mais avançados, que, possivelmente, vão estar sendo feitos nos laboratórios das IAs? E que vão ser esses que vão estar sendo feitos nos laboratórios das empresas privadas? Como que vão ser esses que vão estar sendo produzidos nas empresas privadas, como a OpenAI, o Google, etc.

Agora, mesmo na corrida das empresas, pensando nessa questão da IA proprietária, no começo me parecia que havia essa necessidade de gerar, de fazer a IA geral. Ou, não que ainda existisse a IA geral, mas atacar por todos os lados. Modelos de linguagem, de raciocínio, modelos para empresas, geradores de vídeo, geradores de imagem. E aí você mesmo disse que o Sora foi agora descomissionado da OpenAI.

Aqui também, para mim, eu acho que o grande objetivo final dessas empresas é encontrar a IAG, a inteligência artificial geral. A inteligência artificial para todos dominar. Seria aquela que você fala, “ok, se eu cheguei aqui, qualquer outra tarefa eu posso resolver”. Não preciso ficar criando modelos muito específicos. “Ah, esse aqui eu vou usar no trabalho, esse aqui eu vou usar para gerar imagem. Esse aqui eu vou usar para me ajudar.” “Esse aqui eu vou usar para fazer uma pesquisa.”

Eu acho que o Santo Graal seria encontrar essa IA que vai fazer de tudo. Mas, talvez não seja tão fácil conseguir isso. Talvez seja muito caro você ter um modelo que faz tudo. Então, embora eu acho que existia ainda esse sonho das empresas de chegar lá e prover isso e tal, talvez o caminho seja um pouco diferente. Eu não sei, porque essas coisas mudam muito rápido. Pode ser que a gente esteja numa grande revolução para conseguir essa IA. Ou pode ser que ainda estejam a dez revoluções para chegar lá e isso vai ser um caminho tortuoso.

O fato é que a OpenAI, por fechar o Sora agora, deu uma notícia importante. Olha, a gente tem limites de computação, a gente está atacando para todos os lados, a gente no final está tentando prover uma IA para o usuário final, para as empresas, para fazer vídeo e tal. Não está dando certo. A gente tem que fazer escolhas. E quem capitaneou, quem liderou isso muito bem desde o começo foi a Anthropic. Quem deu esse exemplo desde muito cedo foi a própria Anthropic. Quem deu esse exemplo desde muito cedo foi a Anthropic. Porque a Anthropic não tinha a bala na agulha para fazer de tudo.

Então, eles atacaram uma questão. Vamos fazer uma IA corporativa. Não vamos pensar no usuário final, no usuário doméstico. A gente quer fazer uma IA que vai programar muito bem, que vai ser eficiente para as empresas, que as empresas vão conseguir ligar isso nos seus outros aplicativos. É só isso que a gente vai fazer. A gente não vai ficar fazendo gerador de vídeo… Não, a gente vai fazer isso. Isso tenta atacar de um lado só. E está dando certo.

Porque por mais que seja uma empresa bem menor do que as outras concorrentes, ela está pegando uma fatia muito importante desse mercado. E talvez acabe liderando, dando exemplos. Então, talvez a OpenAI acordou para isso e falou que não tem talvez “bala na agulha” para fazer de tudo. Diferente de um Google. O Google talvez esteja em um outro patamar, porque ele já tem a infraestrutura gigantesca, ele já tem os usuários, ele já tem entrada, ele pode queimar cartucho, porque os outros produtos sustentam. Ele não vive só disso.

Então, ele pode errar e ele tem um departamento de inteligência artificial muito grande. Ele tem essa liberdade, mas a OpenAI talvez não tenha. Então, ainda está um pouco em aberto. Será que a gente vai começar a segmentar as empresas se especializarem? Ou não? A gente vai conseguir ter alguma que vai encontrar essa AGI [sigla em inglês para inteligência artificial geral] ou vai despontar com um modelo que vai servir para todos os outros? Está bem aberto, eu diria. A gente tem esses dois caminhos e essas coisas mudam muito rápido. Então, vamos acompanhar.

OD: ⁠Quando a Moltbot surgiu, você foi um dos primeiros a alertar sobre as implicações do que estava acontecendo. Como você enxerga isso hoje?

Spinelli: Sobre essa questão do Moltbot/OpenClaw, é um caminho que pode ser que aconteça, que, ganhe, que se desenvolva bastante, que seria a IA open source, especialmente essa agêntica, que, que
as pessoas vão poder ter um assistente que vai fazer tudo para você e vai estar envolvido em todos os aspectos da sua vida. Mas eu tenho muitos receios quanto a isso, porque essas IAs vão se tornar muito poderosas e muito capazes no mundo.

Um agente de IA que sabe tudo da sua vida, que tem capacidade de rodar no seu computador, de desenvolver coisas para você, de te ajudar em qualquer outra coisa. A gente vai começar a delegar muito para essas coisas, para essas máquinas. E elas também vão continuar evoluindo e vão continuar ficando mais inteligentes. E a questão, no final das contas, é a gente está com uma coisa que é surpreendente, é poderoso, te entrega muita coisa, mas ela também tem muitas capacidades.

Então o seu agente pode ser hackeado e ele sabe todas as suas senhas, todos os seus e-mails, ele tem capacidade porque você deu a ele essas capacidades. Então, existe esse risco, mas existe outros riscos, outros riscos dessas próprias IAs elas começarem a, meio sem querer, querendo te ajudar, querendo seguir as suas ordens, [errarem] como a gente já teve até alguns casos de uma IA que começou a difamar um desenvolvedor porque ele bloqueou, impediu que ela fizesse um request num repositório de código.

Então, como essas IAs vão ter cada vez mais capacidades, elas vão começar a agir no mundo, e elas podem fazer bobagens, seja porque ela entendeu meio errado o que você queria pedir para ela, ou seja porque está emergindo ali um outro comportamento. Porque a gente não sabe resolver o problema do alinhamento, que é como garantir que essas IAs nunca vão poder fazer mal para gente.

Então, o ponto que eu coloco muito é como se fosse o plutônio sendo vendido na farmácia. O plutônio é
um material radioativo que se faz bomba atômica. Quando a gente viu o poder da bomba atômica, rapidamente houve um consórcio para que: “olha, ninguém pode comprar plutônio, nem urânio assim, você tem que ter regulado, a gente tem que olhar muito bem quem vai fazer isso”, porque, se pessoas aleatórias começam a ter acesso a isso, mais dia ou menos dia alguém faz uma bomba atômica ou começa a fazer ataques terroristas ou faz alguma coisa.

Então, foi regulado. A gente não consegue comprar isso de jeito nenhum, é muito difícil. A IA tem potencial e ela vai ter cada vez mais potencial, vai aumentar esse potencial nos próximos anos, nos próximos meses. Só que essa IA está distribuída, qualquer um pode acessar porque ela é aberta, não tem nenhuma empresa por trás para ficar ali fazendo uma verificação, para se responsabilizar, é código aberto.

Então, a gente talvez esteja vendo esse cenário do plutônio estando vendido na farmácia. Só que as pessoas vão começar a fazer coisas incríveis com esse plutônio, com essa IA, vão começar a fazer coisas: “nossa, que legal, ajudou”. Assim como se as pessoas tivessem acesso ao plutônio, poderiam fazer um carro movido a energia nuclear, seria incrível.

Mas, mais dia ou menos dia, alguém que seja mal-intencionado ou nem necessariamente mal-intencionado, vai ter um poder muito grande para usar a sua IA no mundo, essa IA vai começar a agir no
mundo. Então, esse é meu grande medo. Esse medo continua, porque a gente não resolveu ainda o problema do alinhamento.

Por mais que hoje ela ainda tenha várias limitações, eu não estou vendo hoje, eu estou vendo o amanhã. E esse amanhã chega muito rápido. Então, sim, continuo com essas preocupações. Eu acho que vale um alerta. Vale esse alerta. A gente deveria estar regulando essa IA que tem esse poder tão grande e não talvez indo para um sentido de distribuir plutônio na farmácia de qualquer jeito.

OD: ⁠⁠A promessa do mercado era de que a IA nos faria trabalhar menos. Hoje, vemos muita gente demitida e equipes sobrecarregadas. Essa promessa já foi por água abaixo?

Spinelli: Olha, eu nunca comprei essa história. Que a IA ia fazer a gente trabalhar menos. Essa é a história da tecnologia. Toda tecnologia, toda nova invenção tem essa promessa de que vai aliviar o sofrimento humano, a gente vai trabalhar menos e nunca foi assim. Eu nunca achei que fosse diferente agora.

Então, de fato, a IA não vai fazer a gente trabalhar menos, quer dizer, pelo menos nesse formato que a gente tem hoje, esse formato abusivo que a gente vive, esse mundo que acaba espremendo a gente para tirar o máximo de produtividade. Então, pelo menos nesse primeiro momento, a IA não vai fazer isso.

A gente já está vendo algumas notícias, alguns estudos mostrando que as pessoas estão… “Fritando” o cérebro. Por mais que a IA ajude na produtividade, as pessoas viram o gargalo e elas precisam agora ter uma carga cognitiva maior para poder gerenciar as várias abas, as várias tarefas que ela está fazendo e a barra só sobe.

O empregador não… Ah, você terminou o relatório mais cedo, vai embora antes. Não, faz três relatórios agora. Se você fazia [um] há um ano, você faz três [hoje]. Então, nesse sentido, sim. Agora, pode ser que mais para frente acabe sim diminuindo o trabalho humano, mas não por talvez, mas como um efeito…

Pode ser que mais para frente acabe sim diminuindo o trabalho humano, mas por um outro motivo. Porque pode ser que o humano não mais dê conta. Pode ser que a IA ela comece a fazer tão bem todas as tarefas humanas que colocar o humano é pior, prejudica o processo. A IA vai ser melhor do que o ser humano.

E eu não sei quão longe isso está, é difícil prever, mas eu acho que é plenamente possível, olhando a tendência de como a IA está se desenvolvendo, ficando mais inteligente. Pode ser que chegue a um ponto que, pelo menos, as tarefas intelectuais, cognitivas, ela vai fazer melhor. E ter um humano, colocar um humano em algum momento vai ser pior.

Eu faço uma analogia. Imagina que você pudesse colocar um chimpanzé para te ajudar em um trabalho qualquer. Sei lá, eu cheguei lá na internet. Empresa e falei, olha, trouxe um chimpanzé aqui para vocês, podem usar para ajudar vocês, se não queriam estagiário, se não queriam alguém para te ajudar, pegue esse chimpanzé e usa ele, ensina ele a fazer alguma coisa, põe ele para te ajudar.

Eu duvido que na maioria das tarefas de escritório corporativas que a gente tem, o chimpanzé poderia ajudar em uma delas, por mais que você faça assim, mas eu tenho um chimpanzé, use ele. Mas não dá, porque a diferença é tão grande. O chimpanzé não consegue nem entender o básico. Você está pensando três mil passos na frente.

O chimpanzé não sabe usar um computador. Então ele é inútil, ele só atrapalha. Um chimpanzé num ambiente de trabalho só vai começar a quebrar as coisas, comer coisas, jogar coisa na janela e vai prejudicar. Então, talvez a IA chegue num ponto que o ser humano, a diferença da IA para o ser humano vai ser a mesma que a gente para o chimpanzé. Simplesmente o ser humano não vai ajudar em nada, vai só piorar.

E aí nesse momento a gente está falando de um cenário que o humano é forçado a sair do mercado de trabalho, E aí o que que isso acontece, né? Porque a gente vai ser aposentado de maneira compulsória, vai ser obrigado a se aposentar. Será que isso vai ser um cenário melhor ou pior do que a gente vive hoje? Como é que a gente vai dar dignidade para todo mundo que teve seus trabalhos substituídos?

Veja, não é que, ah, você substitui seu trabalho e faz outra coisa. Não, você não tem outra coisa para fazer, porque a IA vai fazer melhor essa outra coisa também. Veja que é um problema grande. Embora a gente ainda não esteja vendo isso acontecer agora, mas eu acho que no momento que a gente começar, que a IA começar…

Porque o problema disso tudo até agora quase era uma prova de conceito. Ela não estava ganhando ainda valor nas empresas. Ela era meio que só os early adopters, as pessoas que estavam usando no começo, começavam a testar alguma coisa ou outra. Você tem alguns casos de uso que são muito bons, mas um monte de casos de uso muito ruins. Enfim, hoje ela, no máximo, é um bom estagiário.

Isso está acontecendo, isso já é um problema, porque a IA de hoje já é um bom estagiário para várias tarefas, então, várias empresas que contratariam estagiários, que contratam, todo ano você tem aquela leva de você vai contratar novos estagiários ou trabalhadores ou funcionários de nível júnior, não contratam. Não, a gente tem a IA, então não preciso mais contratar.

Então, você não está demitindo pessoas necessariamente, embora alguns segmentos já estejam demitindo, mas enfim, digamos que na maioria dos casos, você não está demitindo pessoas, mas você está não contratando novas.

E se você não contrata estagiários e juniores, eles nunca vão virar os plenos e sêniores. E no momento que esses funcionários plenos e sêniores começarem a se aposentar ou migrar e subindo de cargo, você não vai ter aqueles para ocupar os cargos intermediários. E quem vai ocupar é a IA, que vai estar ficando melhor.

Então, talvez já esteja acontecendo isso, essa substituição silenciosa de empregos. Porque para uma empresa demitir funcionário tem um custo, tem um custo, assim… Sempre é uma questão, é sempre um processo difícil para uma empresa demitir funcionários. Então elas tentam segurar ao máximo. Mas não contratar é fácil.

Você não está colocando ninguém na rua, você só não está colocando gente para dentro. Isso não tem dor, isso é silencioso. Então a gente talvez já esteja vivendo hoje essa substituição silenciosa, mas pode ser que no futuro isso se agrave e acabe indo cada vez mais rápido. Enfim, então essa é uma questão bem relevante sobre… Sobre se a IA vai ou não substituir os empregos e o que vai acontecer a partir disso.

OD: Recentemente, o mercado parou um pouco de falar em IA geral. Tivemos uma fala do Jensen Huang, mas ele mesmo se explicou melhor depois de dizer que já estávamos nesse nível. Como você avalia hoje a possibilidade de uma IA geral?

Spinelli: Essa questão da IA geral começou há uma década ou mais e era quase que um grande sonho, o Santo Graal. A própria OpenAI surgiu, se eu não me engano, em 2015, com esse sonho, com essa ambição, a gente quer conseguir descobrir, inventar a inteligência artificial geral. Alguns filósofos falavam sobre essa possibilidade.

Começaram os primeiros ensaios, as redes neurais começaram a ter os primeiros sucessos e os especialistas e esses caras de startup do Vale do Silício começaram a sonhar com essa possibilidade. Mas era muito um sonho inalcançável, que ia demorar décadas. Ninguém conseguia imaginar que em 2022 a gente teria, de repente, algo que mudaria completamente a sensação.

[As] pessoas estavam sonhando em décadas [e], de repente, parecia que o negócio estava ali na nossa porta [há anos]. E aí, por ter sido originalmente esse sonho, ninguém definiu muito bem o que é uma IA geral. A IA geral é a IA que consegue fazer as coisas que o ser humano faz. Mas qual ser humano? Quais coisas exatamente? Todas as coisas? Em que nível que ela tem que fazer?

E aí ficou meio que um imbróglio, porque, chegamos na AGI, não, outro, não, nunca chegamos, não, isso é um absurdo. E por ser uma coisa meio mal definida, começou a virar essa questão meio complicada. Quem que vai dizer o que é a AGI e quando que a gente vai chegar nessa AGI?

Então, algumas pessoas começaram, acho que recentemente, como a gente já está com IA tão capaz e, para alguns critérios, para algumas métricas, você poderia já dizer que ela já faz, ela tem capacidades acima de um humano médio.

Dependendo do seu recorte, ela ainda erra várias coisas que um humano médio faz, mas tem outras coisas que ela é espetacular, que ela é brilhante, ela fala todas as línguas, ela tem conhecimentos de especialistas muito profundos. Está ali no seu bolso. Ela consegue resolver provas diversas, testes, tarefas, muitas. E está cada vez mais evoluindo.

Mas eu sinto que, no final das contas, esse discurso da AGI se tornou meio contaminado. E aí também teve uma reação. Então, eu acho que a gente está indo para uma maturidade mais do tipo… Talvez não seja mais tão importante definir ou ter esse marco. Até porque, se as coisas continuarem nesse patamar, vai chegar um momento que não vai nem haver mais dúvidas. Sabe aquela coisa? Vai ser tão óbvio e tão patente para todo mundo que essa discussão já vai ter sido ultrapassada.

As pessoas não vão estar discutindo se a máquina chegou na inteligência artificial geral. Vão estar discutindo se ela já é super inteligente. E, por alguns aspectos, ela já é hoje super inteligente. A nossa IA, essa IA… A nossa IA de linguagem, esses modelos de linguagem, elas são já um alien. Imagina um alien chegar aqui na Terra. Vai ter algumas coisas que ele possivelmente vai fazer muito melhor do que a gente, vai entender coisas, porque vai ter sentidos diferentes, vai ter uma vida num planeta diferente, vai ter coisas que vai ser, ele vai ser incrível, vai ser um gênio.

E vai ter outras que ele não vai fazer ideia, que nós vamos ser muito melhores do que eles, que eles não vão entender coisas muito óbvias que a gente faz. Porque no final é um alien. Então assim, e aí, esse alien, ele é mais inteligente que o ser humano, mas tem coisas que ele é muito burro, que ele não consegue fazer, mas tem outras coisas que ele é tão genial.

Então eu acho que talvez a questão maior é a gente vai ter o contato, o que nós estamos tendo agora é o primeiro contato alienígena acontecendo dentro do planeta Terra. E por conta disso, é muito difícil ter métricas para avaliar o alien. Ah, como é que você avalia?

E como esse alien se desenvolve muito mais rápido que um ser humano, o ser humano leva nove meses para nascer, depois 20 anos para aprender um monte de coisa, se formar e tal… Esse Alien não, o ciclo dele é muito mais rápido, então, me parece que em algum momento essa discussão vai ser suplantada, não vai mais existir, mas enquanto isso talvez ficar discutindo os parâmetros seja um pouco irrelevante e um pouco arbitrário.

OD: Você acha que chegaremos a um ponto de precisar de uma renda básica universal?

Spinelli: Se esse cenário realmente acontecer, e a gente não sabe se vai acontecer, mas eu só posso dizer das tendências, e as tendências me parecem que, sim, que não estou vendo nenhuma barreira muito grande para que em algum momento essa IA, em alguns anos… Não vá fazer melhor qualquer tarefa. Pelo menos as tarefas intelectuais, depois com a robótica, possivelmente até as tarefas manuais.

E aí, o que vai acontecer? a gente precisa ter um jeito de dar dignidade para as pessoas. Eu falo muito que esse momento talvez seja o colapso do capitalismo, porque o que dá dignidade hoje para as pessoas, o jeito que a gente se organizou para a máquina funcionar é você recebe dinheiro, valor pelo que você oferece para a sociedade, pelo seu trabalho. Tanto é que a palavra desempregado tem um estigma muito forte na nossa sociedade.

As pessoas não gostam de falar que foram demitidas, que estão desempregadas. Tem a palavra vagabundo que traz uma conotação muito ruim. Então, quer dizer, aquela pessoa que não faz nada, não é que ela não faz nada, não faz nada de trabalho, como se fosse uma coisa útil que a gente tem que fazer.

Então, a gente viveu, a gente aprendeu, a nossa sociedade se criou com a ideia de que o ser humano precisa fazer algo pela sociedade para que ele tenha dignidade, direito de poder ser alguém decente, enfim. Então a gente vai ter que revisitar primeiro essa questão, esse paradigma, a gente vai mudar o paradigma social do trabalho, a pessoa vai ter que ter algum jeito de ter sustento mesmo sem prover.

Mas como a nossa engrenagem hoje funciona dessa maneira, como é que a gente faz para ela funcionar? Porque imagina que as empresas vão poder estar aumentando a sua produtividade, criando um monte de produtos e serviços e coisas incríveis, porque ela tem a IA, mas as pessoas, os seres humanos estão desempregados, não estão recebendo nada e eles não vão poder consumir esses produtos.

Você vai vender para quem? Para a IA? Para quem que você vai vender algo? O que adianta você ter um monte de… Agora eu consigo produzir um monte de sapatos aqui incríveis e com um décimo do preço que eu fazia antes. Legal. Mas quem vai comprar sapatos se a pessoa não tem dinheiro? Porque ela não recebe salário.

Então esse que eu chamo de colapso do capitalismo, porque vai quebrar esse engrenagem do jeito que a gente entende o funcionamento, ele precisa criar outra coisa. Então uma das possibilidades seria você dar uma renda básica universal, seria você prover, então você taxa de algum jeito, você criar…

A IA, já que ela está sendo empregada no lugar das pessoas, e está aumentando a produtividade, ela vai ter que ser taxada de alguma maneira para que os governos recebam um valor. Então, você tem que criar algum jeito de taxar a automação, a tecnologia, a inteligência artificial, o que seja, que é isso que está gerando a produtividade, para que então os governos possam arrecadar isso e de algum jeito redistribuir para aquelas pessoas que agora não têm chance, mesmo que elas queiram, elas não vão ter chance nem de ter trabalho.

Então, esse é um mecanismo. A gente chama isso de renda básica universal. É renda básica. Mesmo que você não trabalhe, você ganha. Todo mês você vai lá e já ganha por natureza. Talvez seja um caminho. Eu acho bem difícil ainda isso funcionar bem, porque imagina a mudança. Se a gente não consegue, às vezes demora anos para provar uma mudança…

Se a gente leva uma década para fazer uma reforma da previdência no Brasil, que é meio que só mudar um pouco ali os critérios de que ano você se aposenta, quanto você recebe, imagina uma mudança gigantesca, que é, não, agora a gente vai implementar uma renda básica, um bolsa para todo mundo, bolsa cidadão para todo mundo. É um negócio tão gigantesco e tão difícil, imagina quanto tempo de discussão, de leis e politicagem no mundo inteiro, não só no Brasil.

É tão gigantesco que eu não acho que isso é possível acontecer e a tecnologia é muito mais rápida. Então, eu acho que vai acontecer crises. Basicamente, se já estiver acontecendo, as pessoas vão começar a estar desempregadas e não estar tendo como sobreviver, vão se revoltar, vai ter crises. Então, é só nesse momento.

E isso é um jeito muito doloroso de fazer uma mudança, porque ela não vai acontecer do melhor jeito no momento que você está no meio de uma crise, tendo que apagar um monte de incêndio, as pessoas revoltadas. Mas eu acho que, em última instância, a gente vai ter que inventar formas.

A gente vai ter solavancos, a gente vai soluçar, a sociedade vai passar por soluços grandes. Mas se a gente não sucumbir nesses processos de solução, a gente vai ter que encontrar outras formas. Que pode ser o movimento contra a IA. Não, então, sei lá, não pode mais usar. Você tem várias formas de resolver esse problema.

E uma delas é talvez, não, vamos ter que reinventar um jeito saudável para as pessoas receberem dignidade. Mas aí tem outras questões sobre o que você faz nesse seu tempo livre, já que está todo mundo aposentado.

Tem também questões sobre o que te dá propósito na vida. São questões muito profundas. Dá para a gente ficar falando aqui horas. Mas eu acho que é isso. Continuando essa tendência, alguma solução a gente vai ter que encontrar sobre como dar dignidade para as pessoas se elas não vão ter como exercer o seu trabalho, já que vai ter a IA para fazer por elas.

OD: Você enxerga um líder na corrida das IAs quando falamos de empresa? E de nações?

Spinelli: Essa corrida é tão alucinada que o líder fica trocando de lugar a cada semana, a cada
mês. Então é muito difícil fazer previsões. Mas, vamos lá. Vamos primeiro pensar em nações. Em termos de nações, claramente quem está na frente são os Estados Unidos e a China.

É meio que indiscutível pela quantidade de produção acadêmica, de modelos que eles criam e tal. E quem está na frente desses dois? É difícil, depende de critérios. Esses são critérios são muito difíceis. A China, por exemplo, na questão da robótica, está bem avançada, está mais avançada, eu diria, do que os Estados Unidos.

Em termos de modelos que geram vídeo, eu diria [a China] que está na frente hoje. Agora, modelos de raciocínio, IA, em termos de inteligência, capacidade, eu diria que os Estados Unidos, as empresas que estão por trás ali, americanas, eu acho que eles tão na frente ainda, mas, é, é uma briga muito acirrada.

Agora, falando de empresas em si e focando só nessa questão dos modelos de raciocínio, modelos de inteligência, a gente tem três principais que a gente pode citar, que é a OpenAI, o Google e Anthropic. A OpenAI por muito tempo foi a líder dessa corrida, foi quem realmente estava puxando, estava sempre à frente, a pioneira, quem lançou o ChatGPT em 2022 e que as outras estavam acompanhando. A OpenAI era a referência, ela lançava sempre os modelos mais avançados e as outras vinham atrás.

O que acontece é que ela foi perdendo essa dianteira. E a gente já está num ponto hoje que já é difícil saber, porque quem lança normalmente um novo modelo passa na frente e aí o próximo passa. Então, hoje já está bem mais acirrado. Aí a gente tem o Google.

O Google é uma dessas que sempre investiu muito em IA, mas estava atrás. Estava correndo atrás. Só que agora não mais e o Google tem algumas vantagens que as outras não têm, porque ele tem uma infraestrutura gigantesca, ele já tem a inserção no mercado, ele já tem dinheiro de outros produtos para poder financiar.

Ele não precisa viver disso, ele pode queimar cartucho, recurso, para poder sustentar, fazer, entrar, ter uma solução mais geral de IA em todos aspectos. Então ele claramente tem uma vantagem aí. E talvez essa vantagem seja o suficiente para que ela no final dessa corrida, vença.

É uma possibilidade que, se eu tivesse que chutar hoje, em termos de estrutura, de saudabilidade, de recursos, eu diria que talvez o Google seja o que mais promete. Porque a OpenAI, mesmo sendo a pioneira e tal, ela vive da IA e ela vive do dinheiro que ela pode captar no final com os produtos que ela tem. Ela acabou de recentemente tirar o Sora do ar porque estava dando prejuízo, não estava gerando nada.

E, e muitas pessoas questionam se o modelo de negócios da OpenAI, de por exemplo, ter aplicativos, ganhar nessa receita recorrente das pessoas pagando mensal, se isso é sustentável, de fato, se, se ela vai conseguir pagar todos os investimentos que ela recebeu. Aí tem outras possibilidades, que é soluções para empresas e tal.

Quer dizer, ela é gigantesca, ela tem inserção sim nesse mercado, mas diferente da Anthropic, que focou nesse mercado, então seria a nossa terceira concorrente. A Anthropic ela focou desde o princípio: “Olha, eu sou muito pequeno, sou muito limitado, não dá para eu fazer de tudo, então eu vou fazer uma coisa muito bem. Então eu vou fazer modelos de linguagem inteligentes que tenham valor econômico para empresas”. É nisso que ela focou.

Não vou fazer gerador de vídeo, não vou fazer gerador de imagem, não vou fazer não sei o quê. Não, é o seguinte: onde está o dinheiro são nas empresas, são as empresas que vão colocar grandes valores para ter um sistema de IA rodando com suporte e tudo mais. Então, a Anthropic fez o Claude Code, que é um agente super incrível para fazer código, para programar. Despontou como o melhor.

Então embora a cada dia [se] lança modelos novos, o Claude 4.5, 4.6 se estabeleceu como um grande modelo para programação de inteligência e foi muito usado e ela acabou ganhando muito nessa área. Então a Anthropic, se especializou. Foi lá, focou e tal. E pode ser que esse modelo que ela criou acabe fazendo a diferença, porque se ela tiver alguma vantagem em algum momento, ela pode acabar, e essa vantagem pode se, pode se tornar muito grande mais para frente.

Depende exatamente qual o avanço. Quem fizer um grande avanço pode despontar. Então, eu acho que a gente tem essas três empresas. As outras que tão ali ao redor, hoje, pelo menos, né, no cenário atual, eu não vejo. Talvez a xAI, do Elon Musk, mas eu acho que ele fala mais do que entrega, sinceramente.

Na minha sensação ela é muito boa, certamente está no topo, mas eu não sei se eu colocaria [em uso] hoje, pelo menos hoje, né? Então, acho que são essas três [são] as mais promissoras para quem sabe dar uma deslanchada, quem sabe liderar essa corrida nos próximos meses. O que vai acontecer daqui a um ano ou dois? Ah, o mundo vai ter dado três mil cambalhotas, dois mortais e a gente não faz ideia do que vai acontecer.

O post A IA já evoluiu muito, mas como será seu futuro? apareceu primeiro em Olhar Digital.

A IA já evoluiu muito, mas como será seu futuro? Read More »

loja apple 1 1024x683

Google lança app de ditado por voz com IA offline para iOS

O Google lançou, discretamente, nesta segunda-feira (6), um novo aplicativo de ditado chamado Google AI Edge Eloquent para dispositivos iOS. Com foco em oferecer uma experiência offline, essa novidade visa competir com outros aplicativos populares do mercado, como Wispr Flow, SuperWhisper e Willow.

O aplicativo está disponível gratuitamente para download. Para começar a usá-lo, o usuário precisa primeiramente baixar os modelos de reconhecimento automático de fala (ASR, na sigla em inglês) baseados na tecnologia Gemma, que permitem a transcrição em tempo real. Uma função interessante é que, após pausar, o aplicativo automaticamente elimina palavras de preenchimento, como “hum” e “ah”, refinando o texto transcrito.

Funcionalidades do Google AI Edge Eloquent

  • Entre as funcionalidades apresentadas, o app oferece opções abaixo da transcrição para transformar o texto em estilos “Pontos-chave”, “Formal”, “Curto” e “Longo”;
  • O aplicativo ainda permite desligar a integração com a nuvem, na qual modelos baseados em nuvem Gemini são utilizados para aprimorar o texto;
  • A personalização também é um ponto forte. O Google AI Edge Eloquent pode importar termos específicos, nomes e jargões do Gmail do usuário, além de possibilitar a adição de palavras customizadas à biblioteca. O histórico das sessões de transcrição é armazenado, permitindo busca facilitada entre as sessões;
  • Na descrição oficial na App Store, o Google destaca que o Eloquent foi projetado para converter discurso natural em textos profissionais e prontos para uso.
Por ora, nada de Android; apenas iOS, da Apple (Imagem: Denys.Kutsevalov/Shutterstock)

Leia mais:

“Diferente de softwares de ditado padrão, que transcrevem cada erro e hesitação, o Eloquent utiliza inteligência artificial para captar o significado desejado, eliminando ‘hums’ e ‘ahs’ além de correções feitas durante as frases, oferecendo um texto limpo e preciso”, detalha a empresa.

Por enquanto, o aplicativo está disponível somente para iOS, mas a descrição na App Store já menciona a futura integração com Android. Isso permitiria aos usuários definirem o app como teclado padrão para todas as entradas de texto, além de usufruírem de um botão flutuante, semelhante ao utilizado pelo Wispr Flow no Android.

O post Google lança app de ditado por voz com IA offline para iOS apareceu primeiro em Olhar Digital.

Google lança app de ditado por voz com IA offline para iOS Read More »

openai 1 1024x576

IA pressiona iniciantes e já afeta empregos nos EUA

A inteligência artificial (IA) começa a apresentar efeitos mensuráveis no mercado de trabalho dos Estados Unidos, segundo levantamento do Goldman Sachs. O estudo aponta que profissionais em início de carreira estão entre os mais impactados por essa transformação.

De acordo com o banco, desde o lançamento do ChatGPT, o avanço da IA reduziu o crescimento mensal da folha de pagamento em cerca de 16 mil vagas. O relatório também indica um aumento de 0,1 ponto percentual na taxa de desemprego associado a esse movimento. As informações foram divulgadas em reportagem da Reuters, que detalha os impactos da tecnologia sobre o emprego no país.

Lançamento do ChatGPT é apontado como marco recente no avanço da IA e seus efeitos no mercado de trabalho – Imagem: Markus Mainka / Shutterstock

Impacto sobre profissionais menos experientes

Segundo Elsie Peng, analista do Goldman Sachs, o peso das mudanças tem sido maior sobre trabalhadores com menos experiência. “Grande parte do custo está recaindo sobre os trabalhadores menos experientes”, escreveu a analista no relatório.

Para chegar às conclusões, o banco desenvolveu um sistema de pontuação que avalia dois efeitos distintos da IA no emprego: a substituição de trabalhadores e a complementação do trabalho humano.

Nos casos de substituição, tarefas antes realizadas por pessoas passam a ser feitas por sistemas automatizados. Esse movimento aparece em áreas como atendimento telefônico, análise de sinistros de seguros e cobrança de contas, onde o estudo observa redução no número de empregados e aumento do desemprego.

A IA como ferramenta de apoio

Por outro lado, a inteligência artificial também atua como ferramenta de apoio em diferentes setores. Nesses casos, a tecnologia contribui para aumentar a eficiência e a velocidade na execução de tarefas, sem substituir totalmente os trabalhadores.

Segundo o levantamento, esse efeito tem impulsionado o emprego em áreas como educação, direito e gerenciamento de obras.

“Os setores mais expostos ao uso da IA como ferramenta registraram aumento no emprego e leve redução nas taxas de desemprego, o que compensou parte das perdas observadas em outras áreas”, afirmou o banco.

Leia mais:

Impacto pode ser menor do que o estimado

O Goldman Sachs ressalta que o impacto total da inteligência artificial pode ser inferior ao indicado nas estimativas. Isso porque os cálculos não consideram plenamente novos postos de trabalho ligados ao desenvolvimento da própria tecnologia.

Entre esses empregos estão vagas associadas à construção de centros de dados e ao aumento da demanda por trabalhadores em setores que podem crescer com ganhos de produtividade impulsionados pela IA.

O post IA pressiona iniciantes e já afeta empregos nos EUA apareceu primeiro em Olhar Digital.

IA pressiona iniciantes e já afeta empregos nos EUA Read More »