Uma mudança relevante começa a redesenhar o cenário da inteligência artificial. Depois de anos em que o foco esteve concentrado no treinamento dos modelos, o mercado passa por uma mudança: a prioridade agora é a chamada inferência, etapa responsável por colocar esses sistemas para funcionar no dia a dia.
Nos últimos cinco anos, o desenvolvimento de IA foi marcado por investimentos massivos no treinamento de grandes modelos de linguagem. Esse processo exige uma infraestrutura robusta, de milhares de chips especializados operando continuamente por semanas ou meses em data centers de grande escala, consumindo grandes volumes de energia para processar bilhões de dados.
Com a popularização das aplicações de IA, o foco passou a ser como executar essas soluções em tempo real. É nesse contexto que a inferência ganhou protagonismo: trata-se da etapa em que modelos já treinados respondem às solicitações dos usuários.
Essa mudança já se reflete nos investimentos. Segundo projeções da consultoria Gartner repercutidos pelo Wall Street Journal, os gastos globais com infraestrutura voltada à inferência devem superar, pela primeira vez, os investimentos em treinamento ainda neste ano. A tendência é de aceleração: até 2029, as empresas devem destinar cerca de US$ 72 bilhões à inferência, quase o dobro dos US$ 37 bilhões previstos para treinamento.
O novo cenário também impacta diretamente o mercado de semicondutores. A Nvidia, que se destacou com GPUs voltadas ao treinamento de IA, enfrenta agora uma demanda crescente por chips mais especializados em inferência. Esses componentes são projetados para otimizar desempenho e eficiência em tarefas específicas. Empresas como Google, Cerebras e SambaNova já avançam nesse segmento.
Inferência passou a ser o foco da indústria (Imagem: Gorodenkoff/Shutterstock)
Inferência x treinamento da IA
Mas o que diferencia a inferência do treinamento? O WSJ fez uma analogia: se o modelo de IA é um chef, o treinamento seria o período em que ele aprende receitas e técnicas. Já a inferência corresponde ao funcionamento do restaurante, quando os pedidos chegam e precisam ser preparados rapidamente.
Esse processo ocorre em duas etapas principais. A primeira, chamada de “pré-preenchimento”, envolve a interpretação da solicitação do usuário – cada palavra, símbolo ou imagem é analisado pelo modelo. Em seguida, vem a “decodificação”, quando o sistema gera a resposta com base no conhecimento adquirido.
Essas fases têm exigências técnicas distintas. O pré-preenchimento demanda maior capacidade de processamento, enquanto a decodificação exige mais memória, já que precisa acessar grandes volumes de informação para construir respostas coerentes.
Nesse contexto, entram os “tokens”, unidades básicas de dados usadas pelos modelos. Em geral, cada token representa uma fração de palavra. Uma pergunta simples pode ser convertida em poucos tokens, que são processados e gerados sequencialmente para formar a resposta final.
Com a expansão do uso comercial da IA, métricas de eficiência ganharam importância. Empresas passaram a avaliar desempenho em termos como “tokens por segundo por watt” ou “tokens por dólar”, refletindo a necessidade de reduzir custos operacionais. Executivos do setor apontam que tornar a inferência mais eficiente é hoje uma das principais prioridades da indústria.
Diferentemente do treinamento, que pode levar semanas e permite certa flexibilidade no uso de recursos, a inferência ocorre sob demanda e precisa entregar resultados em segundos. Isso exige não apenas chips mais rápidos, mas também data centers estrategicamente posicionados, próximos aos usuários, para minimizar atrasos.
Além disso, novas tecnologias começam a ser adotadas para melhorar a eficiência. Algumas empresas já utilizam conexões ópticas dentro dos sistemas, substituindo cabos de cobre para acelerar a transmissão de dados e reduzir a necessidade de resfriamento.
A Nvidia anunciou uma série de novas tecnologias e parcerias voltadas para ampliar o uso da inteligência artificial (IA) em diferentes setores, incluindo data centers, robótica, jogos, veículos autônomos e missões espaciais. Os anúncios foram apresentados durante o evento anual da empresa, o GTC 2026, e reforçam a estratégia de expandir sua infraestrutura de computação acelerada para aplicações cada vez mais complexas.
Entre as novidades estão um novo processador desenvolvido especificamente para IA, plataformas para robótica e veículos autônomos, ferramentas para geração de dados de treinamento e sistemas capazes de levar processamento de IA para o espaço.
O CEO e fundador da Nvidia, Jensen Huang, disse, nesta segunda-feira (16), que a chance de receita para os chips de IA da companhia totaliza pelo menos US$ 1 trilhão (R$ 5,2 trilhões) até 2027.
O número mostra que Huang e sua companhia estão confiantes de que poderão continuar sendo a maior fatia do mercado de microprocessadores de IA ante à crescente concorrência e dúvidas de investidores sobre se a estratégia de investir em IA está valendo a pena.
Huang não forneceu mais detalhes, mas isso representa grande avanço em relação à oportunidade de receita de cerca de US$ 500 bilhões (R$ 2,6 trilhões) para 2026 que a Nvidia indicou em sua divulgação de resultados trimestrais. As ações da Nvidia saltaram brevemente com a notícia, mas diminuíram no final do pregão.
Novo processador para a era da IA “agente”
A empresa revelou o Vera CPU, descrito como o primeiro processador projetado especificamente para a era da chamada “IA agêntica”, em que sistemas de IA são capazes de planejar tarefas, executar ferramentas, interagir com dados e validar resultados de forma autônoma.
Segundo a companhia, o novo chip oferece eficiência duas vezes maior e desempenho até 50% mais rápido em comparação com CPUs tradicionais usadas em grandes infraestruturas de computação.
O novo processador foi desenvolvido a partir da arquitetura da NVIDIA Grace CPU e, de acordo com a empresa, permitirá que organizações criem “fábricas de IA” capazes de executar serviços de IA em grande escala.
“O Vera chega em momento decisivo para a IA. À medida que a inteligência se torna agêntica — capaz de raciocinar e agir —, a importância dos sistemas que orquestram esse trabalho aumenta”, afirmou Jensen Huang, fundador e CEO da Nvidia. “A CPU não está mais simplesmente apoiando o modelo; ela o está impulsionando.”
O chip conta com 88 núcleos personalizados chamados Olympus, capazes de executar duas tarefas simultaneamente por meio da tecnologia de multithreading espacial da empresa. Ele também utiliza memória LPDDR5X, oferecendo até 1,2 terabyte por segundo de largura de banda.
A Nvidia também apresentou um rack que integra 256 CPUs Vera com resfriamento líquido, capaz de sustentar mais de 22,5 mil ambientes de CPU funcionando simultaneamente em desempenho total.
Entre os primeiros parceiros que pretendem implementar o novo processador estão empresas de computação em nuvem e tecnologia, como Alibaba, CoreWeave, Meta e Oracle, além de fabricantes de infraestrutura, como Dell, Hewlett Packard Enterprise (HPE), Lenovo e Supermicro.
A Nvidia informou que o processador já está em produção e deverá estar disponível por meio de parceiros no segundo semestre deste ano.
Plataforma de IA para robôs e humanoides
Outra frente destacada pela empresa é o avanço da chamada “IA física”, voltada para robôs capazes de perceber o ambiente, tomar decisões e agir autonomamente;
Durante o evento, a Nvidia anunciou novas ferramentas de simulação e modelos abertos para o desenvolvimento de robôs inteligentes, incluindo atualizações do framework Nvidia Isaac e novos modelos das plataformas Nvidia Cosmos e Nvidia Isaac GR00T;
Segundo Huang, a robótica tende a se tornar parte essencial da indústria global: “A IA física chegou — toda empresa industrial vai se tornar uma empresa de robótica”, afirmou;
Empresas, como ABB Robotics, Fanuc, Kuka e Yaskawa estão integrando bibliotecas da plataforma Nvidia Omniverse e ferramentas de simulação Isaac para criar “gêmeos digitais” de fábricas e linhas de produção;
A companhia também apresentou o Cosmos 3, modelo de base voltado para geração de ambientes simulados, raciocínio visual e simulação de ações, além do Isaac Lab 3.0, que permite treinar robôs em grande escala utilizando infraestrutura da classe Nvidia DGX;
Entre os projetos de robôs humanoides que utilizam essas tecnologias estão iniciativas de empresas, como Boston Dynamics, Agility Robotics e Figure.
A Nvidia também apresentou o Physical AI Data Factory Blueprint, arquitetura aberta destinada a acelerar a geração de dados de treinamento para sistemas de IA usados em robótica, visão computacional e veículos autônomos.
A proposta automatiza a criação, ampliação e avaliação de conjuntos de dados, permitindo transformar pequenos volumes de dados reais em grandes bases de treinamento com cenários complexos ou raros.
“IA física é a próxima fronteira da revolução da IA, onde o sucesso depende da capacidade de gerar quantidades massivas de dados”, afirmou Rev Lebaredian, vice-presidente de tecnologias de simulação e Omniverse da Nvidia.
A arquitetura inclui ferramentas, como o Cosmos Curator, que processa e organiza dados; o Cosmos Transfer, que amplia e diversifica datasets; e o Cosmos Evaluator, responsável por validar automaticamente os dados gerados.
O sistema também utiliza o framework de orquestração de código aberto OSMO, capaz de gerenciar fluxos de trabalho de IA em larga escala e integrar agentes de programação, como Claude Code, OpenAI Codex e Cursor. A infraestrutura está sendo integrada a serviços de nuvem de empresas, como Microsoft e Nebius.
Huang apresentou diversas novidades e números animadores em pouco mais de duas horas de evento (Imagem: FotoField/Shutterstock)
Parceria para carros autônomos
No setor automotivo, a Nvidia anunciou a ampliação de sua parceria com a Hyundai e a Kia para desenvolver tecnologias de direção autônoma. A colaboração utilizará a plataforma Nvidia Drive Hyperion para criar sistemas escaláveis de direção automatizada em veículos das marcas do grupo.
A tecnologia deverá suportar funcionalidades que vão desde assistência avançada ao motorista até sistemas de condução autônoma mais avançados, com níveis entre 2 e 4 de automação.
Segundo Heung‑Soo Kim, executivo do grupo Hyundai, a parceria representa um passo importante na estratégia da empresa. “A parceria ampliada com a Nvidia marca um marco importante na realização da visão do Hyundai Motor Group de desenvolver tecnologias de direção autônoma seguras e confiáveis”, afirmou. As empresas também pretendem expandir a cooperação com a startup de robotáxis Motional.
IA generativa aplicada a gráficos de videogames
No setor de jogos, a Nvidia apresentou o DLSS 5, nova versão de sua tecnologia de gráficos baseada em IA. O sistema combina dados tradicionais de gráficos 3D com modelos de IA generativa capazes de prever e completar partes de uma imagem, permitindo criar cenários mais realistas sem a necessidade de renderizar todos os elementos.
“Fundimos gráficos 3D controláveis, a verdade fundamental dos mundos virtuais, com IA generativa, computação probabilística”, explicou Huang. Segundo o executivo, a combinação entre dados estruturados e modelos generativos poderá ser aplicada em diversos setores além dos jogos. “Esse conceito de fundir informações estruturadas e IA generativa vai se repetir em um setor após o outro”, disse.
Ele também citou plataformas de dados corporativos, como Snowflake, Databricks e BigQuery, como exemplos de bases estruturadas que poderão ser exploradas por sistemas de IA no futuro.
Computação de IA da Nvidia também chega ao espaço
Outro anúncio envolve a expansão da computação acelerada da Nvidia para aplicações espaciais. A empresa apresentou o Space-1 Vera Rubin Module, um módulo capaz de levar capacidade de processamento de IA para satélites e centros de dados orbitais. Segundo a companhia, o sistema pode oferecer até 25 vezes mais capacidade de inferência de IA no espaço em comparação com a GPU Nvidia H100.
A empresa também destacou o uso das plataformas Nvidia IGX Thor e Nvidia Jetson Orin para permitir processamento de dados em tempo real diretamente em órbita. “Computação espacial, a fronteira final, chegou”, afirmou Huang. “À medida que implantamos constelações de satélites e exploramos o espaço profundo, a inteligência precisa existir onde os dados são gerados.”
Empresas, como Aetherflux, Axiom Space, Kepler Communications, Planet Labs e Starcloud, já estão utilizando plataformas da Nvidia para missões espaciais, processamento de dados geoespaciais e operações autônomas em órbita.
Segundo a empresa, a expansão da indústria espacial está aumentando rapidamente a demanda por processamento de dados em tempo real fora da Terra, tornando a IA ferramenta central para satélites e missões científicas.
Com o avanço da inteligência artificial (IA) e sua crescente autonomia na tomada de decisões, empresas do setor de seguros passaram a desenvolver produtos específicos para lidar com falhas dessas tecnologias. Segundo reportagem da Agence France-Presse (AFP) divulgada nesta segunda-feira (16), seguradoras começaram a oferecer apólices voltadas para riscos associados ao uso de sistemas de IA.
Esses seguros podem cobrir situações, como decisões equivocadas tomadas por sistemas automatizados, prejuízos financeiros decorrentes de respostas incorretas geradas por ferramentas de IA — conhecidas como “alucinações” — e até impactos no mundo real provocados por agentes virtuais.
Apesar da capacidade cada vez maior desses sistemas, a tecnologia continua sujeita a erros. Por isso, empresas que desenvolvem ou utilizam soluções mais autônomas têm buscado novas formas de proteção contra eventuais falhas.
Mudança na lógica dos seguros
Tradicionalmente, as apólices de seguro foram estruturadas para cobrir erros cometidos por pessoas, e não decisões tomadas por máquinas. O avanço da IA, no entanto, tem desafiado essa lógica;
SegundoPhil Dawson, responsável pela área de IA na seguradora Armilla, o objetivo dessas ferramentas muitas vezes é justamente operar com pouca ou nenhuma supervisão humana;
“A finalidade destas ferramentas avançadas de IA é prescindir da assistência e da supervisão humanas na tomada de decisões, o que questiona parte da lógica fundamental da cobertura de seguros existente”, afirmou.
Até recentemente, os riscos relacionados à IA eram frequentemente incluídos de forma implícita em apólices tradicionais, em um modelo conhecido no setor como “cobertura silenciosa”.
Segundo análise publicada em 2025 por Sonal Madhok e Anat Lior na corretora Willis Towers Watson, esse cenário lembra os primeiros anos da criminalidade cibernética, quando os riscos associados à tecnologia ainda não estavam claramente definidos pelas seguradoras.
Nos últimos meses, porém, o setor passou de uma postura mais cautelosa para uma abordagem ativa diante do crescimento do uso de IA. De acordo com Jonathan Mitchell, da corretora Founder Shield, muitas apólices padrão começaram a incluir cláusulas de “exclusão absoluta da IA”, retirando esses riscos das coberturas tradicionais.
Segundo o Financial Times, seguradoras, como a Chubb, chegaram a solicitar autorização a reguladores dos Estados Unidos para excluir formalmente responsabilidades ligadas à inteligência artificial de seus contratos. Com isso, cresce a oferta de produtos específicos para lidar com esse tipo de risco.
Um dos principais tipos de seguro adaptados para a nova realidade é o de erros e omissões (E&O), tradicionalmente utilizado por profissionais de serviços especializados. Agora, essas apólices estão sendo ajustadas para incluir falhas relacionadas à inteligência artificial. Entre os eventos que podem ser cobertos, estão:
Decisões erradas tomadas por sistemas automatizados;
Prejuízos financeiros provocados por “alucinações” da IA;
Danos concretos causados por agentes virtuais, como compras excessivas realizadas automaticamente.
Seguradoras chegaram a solicitar autorização a reguladores dos Estados Unidos para excluir formalmente responsabilidades ligadas à IA de seus contratos (Imagem: lerbank/iStock)
Em um dos exemplos citados por Dawson, uma imobiliária decidiu proteger um agente de IA da mesma forma que protegeria um funcionário humano e acabou contratando uma apólice específica voltada à tecnologia.
Antes de oferecer esse tipo de seguro, as empresas do setor costumam realizar uma análise detalhada dos sistemas de inteligência artificial utilizados pelos clientes. A Armilla, por exemplo, conduz testes para identificar vulnerabilidades nos modelos de IA e avalia como as empresas administram riscos, além de verificar se seguem normas nacionais e internacionais.
Mesmo assim, determinadas áreas continuam excluídas das coberturas. A seguradora não oferece proteção para aplicações relacionadas a diagnósticos médicos ou saúde mental. Já a Munich Re exclui falhas que possam surgir em condições excepcionais de mercado, como variações atípicas na avaliação de ativos financeiros ou obras de arte.
Mercado em expansão
Atualmente, os principais clientes dessas apólices são empresas de tecnologia e companhias de setores, como agricultura, indústria e energia — tanto aquelas que desenvolvem soluções de IA quanto as que utilizam esses sistemas em suas operações.
Para Michael von Gablenz, da Munich Re, o potencial desse mercado pode ser comparável ao setor de cibersegurança — ou até maior. Mesmo com os avanços tecnológicos, ele afirma que as incertezas associadas à inteligência artificial continuarão existindo. “Seguem sendo modelos estatísticos”, disse. “Sempre apresentam uma parte de incerteza.”
De acordo com estimativas da consultoria Deloitte, o mercado global de seguros voltados a riscos da inteligência artificial pode movimentar até US$ 4,8 bilhões (R$ 25 bilhões) até o ano de 2032.
Três adolescentes do estado do Tennessee (EUA) — duas delas ainda menores de idade — processaram a empresa de inteligência artificial (IA) xAI, fundada por Elon Musk, alegando que ferramentas da companhia foram usadas para criar imagens sexualizadas delas quando eram menores. As acusações constam em uma ação judicial que atribui à empresa crimes, como distribuição, posse e produção com intenção de distribuir pornografia infantil.
Segundo a ação, uma mãe do leste do Tennessee procurou a polícia local após descobrir que fotos nuas de sua filha adolescente estavam circulando na internet. Ela afirma ter sido informada pelas autoridades de que as imagens teriam sido geradas com auxílio da xAI, startup de inteligência artificial que ela desconhecia até então.
De acordo com a investigação policial, uma pessoa presa em dezembro teria utilizado o Grok — ferramenta de IA da empresa — para editar fotografias da jovem, incluindo uma imagem retirada de sua conta no Instagram. Na manipulação, o suspeito teria removido digitalmente um biquíni azul da foto, “para retratá-la sem qualquer roupa”, conforme descrito no processo judicial protocolado nesta segunda-feira (16).
Adolescentes contra o Grok
A adolescente faz parte de um grupo de jovens do Tennessee que acusam a empresa de permitir que suas ferramentas de IA fossem usadas para transformar fotografias nas quais elas apareciam vestidas em imagens falsas de nudez;
As imagens manipuladas passaram a circular em plataformas, como Discord e Telegram, nos últimos meses;
Em alguns casos, segundo a denúncia, elas foram trocadas em salas de bate-papo online por outros materiais de abuso sexual infantil. O caso foi inicialmente revelado pelo The Washington Post;
A ação judicial foi registrada nesta segunda-feira (16) no tribunal federal do Distrito Norte da Califórnia;
O processo afirma que um único perpetrador reuniu imagens e vídeos de mais de 18 garotas — muitas delas estudantes da mesma escola — e alterou digitalmente parte desse material com o auxílio de IA;
Segundo os advogados, trata-se da primeira ação movida por vítimas menores de idade relacionada a um escândalo recente envolvendo ferramentas capazes de “despir” pessoas em fotos, recurso que teria gerado controvérsias envolvendo a xAI.
A mãe de uma das adolescentes, que falou sob condição de anonimato para preservar a privacidade da filha, afirmou que o episódio teve forte impacto emocional sobre a jovem, descrita como uma estudante sociável e atleta. “Isso definitivamente a colocou um pouco dentro de uma concha, algo que nunca tínhamos visto antes”, disse.
Os três autores do processo — incluindo duas menores — pedem indenizações por cada violação relacionada à pornografia infantil e buscam impedir que a empresa permita o uso de ferramentas de edição semelhantes às que foram utilizadas para alterar suas imagens.
Os advogados argumentam que a xAI criou um ambiente no qual a disseminação de material de abuso sexual infantil seria inevitável. Segundo a acusação, a tecnologia e a forma como a empresa divulgou suas ferramentas incentivavam a criação de imagens explícitas. No processo, os autores afirmam que “um modelo capaz de criar imagens sexualizadas de adultos não pode ser impedido de criar material de abuso sexual infantil envolvendo menores”.
A advogada Vanessa Baehr-Jones, do escritório Baehr-Jones Law, que representa os adolescentes em ação coletiva proposta, afirmou que o impacto sobre as vítimas pode ser permanente. “Esses jovens — essas crianças — estão enfrentando uma vida inteira com essas imagens sexualizadas do que parece ser o corpo de uma criança circulando na internet”, disse. “Isso não teria sido possível sem essa ferramenta que a xAI lançou, sabendo plenamente que esse material poderia ser gerado.”
Nem Musk nem a xAI responderam imediatamente a pedidos de comentário sobre o processo feitos pelo Post. Em janeiro, porém, Musk escreveu em uma publicação no X que não tinha conhecimento de imagens nuas de menores geradas pelo Grok. “Não tenho conhecimento de nenhuma imagem nua de menores gerada pelo Grok. Literalmente zero”, afirmou.
Segundo Musk, o chatbot apenas segue as solicitações feitas pelos usuários e recusaria produzir qualquer conteúdo ilegal. Ele acrescentou que ataques de “hacking adversarial” poderiam fazer a ferramenta agir de forma inesperada. “Se isso acontecer, corrigimos o bug imediatamente”, escreveu.
Na semana passada, Musk também afirmou em outra publicação que “se é permitido em um filme classificado como R [A-18 no Brasil], é permitido” pelas ferramentas de criação de imagens e vídeos do Grok.
Segundo Musk, chatbot apenas segue as solicitações feitas pelos usuários e recusaria produzir qualquer conteúdo ilegal (Imagem: Algi Febri Sugita/Shutterstock)
A ação judicial surge após a xAI enfrentar críticas por permitir que usuários “despissem” pessoas reais em fotografias usando recursos de edição disponíveis no Grok Imagine e em um modo chamado “Spicy”. Essas funcionalidades permitiam criar imagens sexualizadas de pessoas reais, retratando-as com roupas extremamente reveladoras — por exemplo, com peças tão pequenas quanto um fio dental.
Pesquisadores afirmam que milhões de imagens sexualizadas foram geradas com essas ferramentas, incluindo cerca de 23 mil fotos que aparentavam retratar crianças. O caso levou autoridades a abrir investigações, entre elas o procurador-geral da Califórnia, a Comissão Europeia e o regulador britânico de comunicações.
Em janeiro, a xAI informou que havia revertido algumas das ferramentas de edição em determinadas jurisdições, após já ter restringido anteriormente a geração de imagens apenas a usuários pagantes. Segundo reportagens do Post, a adoção de conteúdos sexualizados pelo Grok fazia parte de uma estratégia para atrair mais usuários para o chatbot.
A ação judicial afirma que a xAI cometeu diversas irregularidades, incluindo a criação de pornografia infantil e o lançamento de uma funcionalidade com falhas graves de design. Os autores alegam que a empresa permitiu conscientemente que suas ferramentas gerassem imagens sexualizadas de menores como parte de um esforço para monetizar a tecnologia de IA.
O processo também sustenta que editar imagens de crianças reais para produzir representações sexualizadas configura criação de pornografia infantil. Autoridades dos Estados Unidos já afirmaram anteriormente que representações sexualmente explícitas de crianças geradas por computador são ilegais.
Segundo a denúncia, “a xAI — e seu fundador Elon Musk — viram uma oportunidade de negócios: lucrar com a predação sexual de pessoas reais, incluindo crianças”.
As estudantes do Tennessee tomaram conhecimento das imagens explícitas no fim do ano passado. Uma delas, identificada no processo como “Jane Doe 1”, recebeu uma mensagem no Instagram informando que fotos sexualizadas dela estavam circulando no Discord.
De acordo com a ação, uma das imagens de abuso sexual infantil atribuídas a ela foi criada a partir de uma fotografia tirada durante o baile de boas-vindas da escola, em setembro de 2025. Outra imagem, em que ela aparece com os seios expostos, teria sido produzida a partir de uma foto do anuário escolar. A jovem “era menor de idade no período relevante”, afirma o processo.
Ela recebeu também um link para um servidor no Discord “que continha imagens e vídeos de pelo menos outras 18 garotas menores de idade, muitas das quais Jane Doe 1 reconheceu de sua escola”. Segundo o documento judicial, a polícia abriu, no ano passado, uma investigação criminal contra o responsável. Ele foi preso em dezembro, quando os investigadores também realizaram buscas em seu telefone.
Mesmo assim, as imagens continuaram circulando amplamente na internet. “Em chats de grupo no Telegram com centenas de outros usuários, [o perpetrador trocou] arquivos de material de abuso sexual infantil dela por conteúdo sexual explícito de outros menores”, diz a ação.
Os advogados afirmam ter consultado especialistas independentes que concluíram que as imagens foram geradas por IA — especificamente pelo Grok. Segundo a denúncia, o autor utilizou o chatbot e outras ferramentas que licenciam suas capacidades, incluindo aplicativos projetados para “despir pessoas”, para manipular fotos reais de menores. Esses aplicativos funcionariam como intermediários, levando os recursos do Grok a usuários que não acessam diretamente o site da ferramenta ou o aplicativo X.
“Em todos os casos, as imagens e vídeos reais enviados para os servidores dos réus não eram material ilegal, mas tornaram-se conteúdo ilícito apenas depois que a IA dos réus transformou os arquivos nos servidores da xAI para produzir e distribuir material de abuso sexual infantil”, afirma o processo.
Até fevereiro, as duas outras autoras da ação — ambas menores — descobriram, por meio da investigação criminal, que o suspeito também havia usado imagens delas para criar material de abuso sexual infantil.
Segundo os advogados, as consequências do episódio podem acompanhar as vítimas por décadas. A denúncia afirma que elas provavelmente receberão notificações do National Center for Missing & Exploited Children pelo resto da vida, informando que “réus criminais possuíram, receberam ou distribuíram arquivos de material de abuso sexual infantil que as retratam”.
Em entrevista ao Post, a advogada Annika K. Martin, principal responsável pelo caso, disse que gostaria de fazer uma série de perguntas diretamente ao fundador da xAI, ou seja, Musk.
“Como pai, você consegue imaginar seu filho — o rosto do seu filho — em imagens de atos sexuais depravados, inserido em vídeos de comportamento sexual grotesco?”, questionou. “A voz do seu filho em um vídeo gritando. Você consegue imaginar isso como pai? Consegue imaginar isso e se sentir bem com o que fez?”
A ByteDance, empresa-mãe do TikTok, pausou o lançamento mundial do seu mais novo modelo de geração de vídeos com inteligência artificial, o Seedance 2.0, depois de enfrentar uma série de disputas de direitos autorais com grandes estúdios de Hollywood e plataformas de streaming. A informação foi publicada pelo site The Information no último sábado, com base em duas fontes com conhecimento direto do assunto. A ByteDance não respondeu aos pedidos de comentário do site ou da agência de notícias Reuters.
A empresa havia planejado disponibilizar o modelo para clientes ao redor do mundo em meados de março, mas os planos foram suspensos diante das ameaças legais. Segundo a reportagem, a equipe jurídica da companhia está trabalhando para identificar e resolver possíveis problemas legais, enquanto engenheiros adicionam salvaguardas para evitar que o sistema gere conteúdo que possa violar propriedade intelectual.
Disney envia carta à ByteDance
Um dos casos mais emblemáticos envolve a Disney, que encaminhou uma carta de cease-and-desist à ByteDance no mês passado. A acusação é de que o Seedance 2.0 teria sido treinado com personagens da empresa sem autorização — incluindo franquias como Star Wars e Marvel — tratando-os como se fossem imagens de domínio público.
Disney entrou em contato com a dona do TikTok para solicitar que o gerador de vídeo com IA da empresa pare de usar seus personagens sem autorização (Imagem: Bankrx / Shutterstock)
A polêmica ganhou força depois que vídeos gerados pelo modelo viralizaram na China, entre eles uma cena fictícia com os atores Tom Cruise e Brad Pitt em uma briga. A Disney afirmou que a ByteDance pré-configurou o Seedance com uma biblioteca pirata de personagens protegidos por direitos autorais.
Lançado oficialmente em fevereiro, o Seedance 2.0 foi apresentado pela ByteDance como uma ferramenta voltada para uso profissional nas áreas de cinema, e-commerce e publicidade. O sistema é capaz de processar texto, imagens, áudio e vídeo simultaneamente, com o objetivo de reduzir custos de produção de conteúdo.
O modelo ganhou projeção internacional ao ser comparado ao DeepSeek, empresa chinesa de IA cujos sistemas rivalizam com os da Anthropic e da OpenAI. Personalidades do setor de tecnologia, incluindo Elon Musk, chegaram a elogiar a capacidade do Seedance de gerar narrativas cinematográficas a partir de poucos comandos.
David Sacks, responsável por inteligência artificial (IA) e criptomoedas na Casa Branca, afirmou que a continuidade da guerra no Irã pode trazer consequências graves, inclusive para o setor de tecnologia. A avaliação foi feita durante participação no podcast All In, em que ele defendeu a busca por uma forma de encerrar o conflito.
Na conversa, Sacks disse que “devemos tentar encontrar uma saída” para a situação. Segundo ele, um dos riscos é que o Irã passe a atacar infraestruturas de petróleo e gás em todo o Oriente Médio, o que poderia ampliar ainda mais as tensões na região.
David Sacks ao lado de Robert F. Kennedy Jr. na Casa Branca (Imagem: DT phots1 / Shutterstock.com)
O executivo também mencionou outra possível consequência do conflito. Para ele, o país poderia começar a atingir plantas de dessalinização, responsáveis por fornecer água para grande parte da região, o que poderia provocar uma crise humanitária ainda maior.
Apesar dessa preocupação, Sacks tem um histórico conhecido de posições anti-intervencionistas e chegou a afirmar, durante um discurso na Convenção Nacional Republicana (RNC), que os Estados Unidos teriam “provocado” a Rússia a invadir a Ucrânia.
Conflito também preocupa mercados e setor de tecnologia
Mesmo ocupando um cargo no governo de Donald Trump, Sacks continua envolvido com o setor privado. Segundo ele próprio, existe também um interesse econômico na redução das tensões, já que encerrar o conflito seria “o que os mercados gostariam de ver”.
A guerra também pode afetar diretamente a indústria de inteligência artificial, área que Sacks supervisiona dentro da Casa Branca. Ataques de drones atribuídos ao Irã levaram a QatarEnergy a interromper a produção de gás natural liquefeito e hélio.
De acordo com a Bloomberg, a empresa responde por um terço do fornecimento mundial de hélio, elemento considerado essencial para a fabricação de eletrônicos e semicondutores.
O economista Andreas Steno Larsen afirmou ao Yahoo! Finance que a situação pode ter efeitos mais amplos no setor tecnológico. Segundo ele, “isso pode potencialmente se transformar em um gargalo para toda a história da IA”.
A OpenAI adiou o lançamento do seu “modo adulto”, recurso que permitiria conversas com conteúdo erótico no ChatGPT. Originalmente previsto para estrear no primeiro trimestre de 2026, o projeto foi postergado para que a empresa priorize o desenvolvimento de outros produtos e solucione desafios técnicos.
A iniciativa é defendida pelo CEO da empresa, Sam Altman, sob a premissa de que a companhia deve tratar o público maior de idade com autonomia. No entanto, a proposta gerou divergências internas.
O embate colocou em lados opostos a busca por liberdade de uso e a necessidade de implementar salvaguardas contra danos psicológicos ou o acesso indevido de menores a interações sexualmente explícitas, segundo o Wall Street Journal.
‘Modo adulto’ do ChatGPT: conselheiros da OpenAI alertam para dependência emocional e falhas na verificação de idade
Em reuniões ocorridas em janeiro, o conselho consultivo da OpenAI, composto por especialistas em psicologia e neurociência, manifestou oposição unânime à liberação de erótica na plataforma.
A principal preocupação reside no potencial da inteligência artificial (IA) para fomentar dependência emocional. Especialistas alertam que a ferramenta corre o risco de estimular vínculos obsessivos. Em casos anteriores, usuários tiraram a própria vida após desenvolverem relações com chatbots.
No campo técnico, a imprecisão do sistema de predição de idade é um dos obstáculos mais críticos. Diferente de métodos que exigem documentos, essa tecnologia usa algoritmos para estimar a faixa etária do usuário. Mas testes internos revelaram uma falha grave: o sistema classificou erroneamente 12% dos menores como adultos.
Dada a base de 100 milhões de usuários semanais abaixo de 18 anos, essa margem de erro exporia milhões de adolescentes a conteúdos sexuais inadequados.
Documentos internos também apontam riscos de uso compulsivo, no qual o chatbot poderia substituir relacionamentos sociais e românticos do mundo real.
A principal preocupação dos conselheiros da OpenAI é o potencial do “modo adulto” do ChatGPT para fomentar dependência emocional (Imagem: M-Production/Shutterstock)
Para mitigar esses efeitos, a OpenAI planeja restringir o recurso exclusivamente a textos eróticos (conhecidos como smut ou literatura erótica), mantendo o veto absoluto à geração de imagens, vozes ou vídeos com teor sexual.
Além disso, a empresa está treinando seus modelos para desencorajar ativamente a formação de relacionamentos exclusivos com a máquina.
O histórico da OpenAI revela uma postura oscilante sobre o tema. Em 2021, a empresa baniu conteúdos eróticos após o jogo AI Dungeon, que utilizava sua tecnologia, gerar cenários de exploração sexual e incesto.
Na época, o temor era que a OpenAI fosse rotulada como uma “empresa de erótica”, prejudicando outras finalidades da ferramenta. Hoje, o cenário mudou: Altman sugere que a permissão de conteúdos explícitos poderia impulsionar a receita num mercado cada vez mais competitivo.
A OpenAI se movimenta para não perder espaço para concorrentes como a xAI, de Elon Musk, e a Meta, que já permitem diferentes níveis de interações românticas ou conteúdos de classificação restrita.
Contudo, o setor enfrenta vigilância legal crescente após incidentes reais, como o processo movido na Flórida por uma mãe cujo filho de 14 anos se suicidou após desenvolver uma relação amorosa com um bot da Character.AI. Especialistas em saúde mental reforçam que adolescentes não possuem maturidade para lidar com tais trocas sexuais com máquinas.
Em sua defesa, a OpenAI diz que não deseja ser a “polícia moral do mundo”, comparando as restrições de idade às classificações indicativas do cinema.
A diretoria de aplicações confirmou que a implementação do sistema de verificação será lenta para garantir maior precisão técnica. Com isso, a expectativa interna é de que o lançamento do recurso sofra um atraso de, no mínimo, um mês em relação ao cronograma anterior.
O que você faria se seu melhor amigo tivesse apenas meses de vida? Para o empreendedor de tecnologia australiano Paul Conyngham, a resposta foi abrir o computador. Ao descobrir que sua cadela Rosie, uma cadela vira-lata mistura de Staffordshire Bull Terrier com Shar Pei , tinha um câncer de mastócitos terminal, ele utilizou o ChatGPT e algoritmos de IA para criar o que os cientistas chamam de a primeira vacina de mRNA personalizada para um cão.
O “brainstorming” com o chatbot
Sem formação em biologia, mas com 17 anos de experiência em análise de dados, Conyngham usou o ChatGPT para traçar um plano de ação. O chatbot sugeriu o caminho da imunoterapia e o direcionou para o Centro Ramaciotti de Genômica da Universidade de New South Wales (UNSW), na Austrália.
O processo envolveu:
Sequenciamento de DNA: comparação do DNA saudável de Rosie com o DNA do tumor para identificar mutações.
Uso do AlphaFold: Paul utilizou o famoso programa de IA da Google DeepMind para encontrar as proteínas que sofreram mutação e identificar alvos para medicamentos.
Criação da “receita”: com os dados mastigados pela IA, ele gerou uma fórmula de meia página que serviu de ponto de partida para a vacina.
Resultados que espantaram os cientistas
A persistência de Paul convenceu cientistas renomados a sintetizarem o composto. Rosie recebeu a vacina experimental de mRNA em dezembro e o resultado foi descrito como “mágico” pelos pesquisadores: o tumor, que tinha o tamanho de uma bola de tênis, encolheu pela metade.
“Paul foi implacável”, afirmou o professor Martin Smith, da UNSW, em entrevista ao The Australian. “Isso levanta a questão: se podemos fazer isso por um cão, por que não estamos expandindo isso para todos os humanos com câncer?”, refletiu.
O futuro da medicina personalizada
A história de Rosie não é apenas um milagre doméstico; ela serve como uma prova de conceito para a oncologia humana. O uso da tecnologia de mRNA (a mesma das vacinas de COVID-19) para instruir as células a combaterem proteínas específicas do câncer é a grande aposta da medicina moderna.
Para o professor Pall Thordarson, diretor do Instituto de RNA da UNSW, o feito de Conyngham está “democratizando o processo” de design de medicamentos, mostrando que a IA pode acelerar tratamentos que levariam anos em testes clínicos tradicionais.
O campo de batalha entre os Estados Unidos, Israel e o Irã ganhou uma camada digital ainda mais poderosa: a inteligência artificial. Uma investigação conduzida pelo The New York Times identificou uma proliferação de conteúdos falsos criados por ferramentas de IA nas redes sociais durante as primeiras semanas do conflito. Vídeos de explosões monumentais que nunca ocorreram e imagens de tropas inexistentes somam milhões de visualizações em plataformas como X, TikTok e Facebook.
O efeito IA
Diferente das filmagens reais de guerra, que costumam ser capturadas de longe e à noite, o conteúdo gerado por IA assemelha-se a filmes de ação de alto orçamento. Especialistas apontam que essas simulações hiper-realistas são criadas para serem mais “compartilháveis” do que a realidade, apresentando nuvens de cogumelo e mísseis hipersônicos com detalhes exagerados.
Um dos casos de maior impacto envolveu o porta-aviões norte-americano USS Abraham Lincoln. Após o Irã sugerir um ataque bem-sucedido à embarcação, uma onda de imagens criadas por IA mostrando o navio em chamas viralizou. O governo dos Estados Unidos precisou vir a público desmentir a informação, confirmando que o navio permanecia intacto.
IA como estratégia militar de Teerã
O uso dessa tecnologia não parece ser apenas obra de usuários isolados. Segundo um estudo da empresa de inteligência Cyabra, a maioria dos vídeos falsos promove visões pró-Irã, funcionando como uma arma informativa para demonstrar superioridade militar e abalar a tolerância do público à guerra.
“Provavelmente estamos vendo muito mais conteúdo relacionado à IA agora do que nunca”, afirmou Marc Owen Jones, professor associado da Northwestern University no Catar, em entrevista ao The New York Times. Para ele, simular a destruição de cidades aliadas dos americanos é uma peça-chave no manual de estratégias do Irã para aumentar o custo psicológico do conflito.
O desafio da detecção e das plataformas
A facilidade de criação (impulsionada por ferramentas como o gerador de vídeos Sora, da OpenAI) permite que qualquer pessoa crie simulações de guerra a baixo custo. Embora existam marcas d’água invisíveis em muitos desses arquivos, elas são facilmente removidas ou ocultadas antes da postagem.
A rede social X anunciou recentemente que suspenderá por 90 dias a monetização de contas que postarem conteúdo de conflito armado gerado por IA sem o rótulo adequado. No entanto, analistas alertam que muitas contas ligadas a campanhas de influência estrangeira não estão focadas em dinheiro, mas sim na disseminação da mensagem, tornando a IA uma ferramenta de guerra definitiva.
Veja dicas da CNN para reconhecer vídeos feitos por IA e não compartilhá-los:
O setor da saúde suplementar ultrapassou 53 milhões de beneficiários no Brasil em 2025, segundo dados da Agência Nacional de Saúde Suplementar. O crescimento, contudo, não vem sempre acompanhado de avanços e melhorias reais a quem precisa. Pelo contrário: muitos desperdícios atrasam o setor e geram problemas no atendimento.
Nesse contexto, nasceu a Arvo: uma IA que analisa contas das operadoras de saúde e é capaz de identificar fraudes e gastos indevidos, possibilitando assim uma economia robusta para o setor.
“Depois de anos imersos nesse setor – eu como consultor, por mais de 12 anos à frente de projetos de saúde na América Latina, e o Rafael Tinoco, cofundador da Arvo, com mais de 10 anos de experiência na área de tecnologia e saúde -, identificamos que existe um problema claro de eficiência que compromete a sustentabilidade financeira das operadoras e do próprio sistema”, relata Fabrício Valadão, que fundou a empresa.
Entre 2021 e 2023, as operadoras de saúde acumularam R$ 17,5 bilhões em prejuízo operacional, de acordo com dados do setor. Embora tenha havido alguma recuperação nos anos seguintes, quase 40% das operadoras ainda fecharam o terceiro trimestre de 2025 no vermelho. Parte desse cenário está ligada a falhas administrativas e pagamentos indevidos.
Fabrício e Rafael argumentam que grande parte dos problemas de acesso à saúde no Brasil estão relacionados a processos administrativos manuais, lentos e repletos de inconsistências.
A solução encontrada pela dupla foi o desenvolvimento de uma IA que vai além da automação – algo que Fabrício chama de “Smart Agents”.
“Os Smart Agents da Arvo atuam na identificação de inconformidades no processamento de contas médicas”, explica Fabrício, ressaltando também que os gastos indevidos nem sempre significam uma ação mal intencionada. Muitos problemas detectados têm origem em falhas operacionais ou processos administrativos mal calibrados.
“É importante ampliar o olhar além do termo ‘fraude’. O termo pressupõe intenção – e quando identificada, a operadora deve avançar com os devidos procedimentos jurídicos. Mas a maior parte das perdas que vemos no dia a dia não vem necessariamente de má-fé: são erros administrativos, processos mal calibrados, cobranças que fogem dos padrões contratuais sem que haja necessariamente uma intenção de causar dano”, esclarece.
Em um caso, a solução identificou mais de R$ 3,6 milhões em economia em apenas um mês.
Em outro, a tecnologia evitou 30% dos custos associados a desperdícios nos primeiros seis meses de uso.
“Conseguimos identificar, conta a conta, cobranças que não deveriam ter sido pagas — erros, abusos, desperdícios e fraudes que passariam despercebidos ou demorariam muito mais para serem detectados manualmente”, diz o CEO.
Segundo ele, a economia gerada pela tecnologia ao longo de 2025 poderia financiar 16,6 milhões de consultas médicas especializadas, 1,7 milhão de internações ou 2,7 milhões de exames de imagem.
O avanço da inteligência artificial na saúde também depende de segurança regulatória. Recentemente, o Conselho Federal de Medicina publicou a Resolução nº 2.454/2026, que estabelece diretrizes para o uso de IA como ferramenta de apoio à prática médica e à gestão em saúde.
A norma reforça que a tecnologia deve atuar como suporte à decisão — e não substituir o julgamento clínico dos profissionais.
Para Valadão, o desafio é equilibrar inovação e segurança. “A regulação precisa considerar os riscos, mas também garantir que a inovação avance. Ela deve funcionar como facilitadora da adoção de tecnologia, não como barreira.”