A OpenAI suspendeu indefinidamente o desenvolvimento do “modo adulto” do ChatGPT. A modalidade permitiria ter conversas de natureza sexual com o chatbot, mas foi alvo de críticas dentro da própria desenvolvedora.
A informação foi divulgada pelo site Financial Times. A versão erótica foi arquivada como parte de uma estratégia mais ampla da empresa para focar em seus produtos principais e segue a interrupção do Sora, rede social de vídeos gerados por IA (mais detalhes abaixo).
A decisão ocorre após resistência interna de funcionários e investidores preocupados com os possíveis efeitos nocivos do conteúdo sexualizado de IA na sociedade. De acordo com o FT, a OpenAI quer dedicar mais tempo pesquisando os efeitos de longo prazo desse tipo de interação antes de tomar uma decisão definitiva sobre o produto.
A empresa afirmou que atualmente não há “evidência empírica” sobre esses impactos.
Na semana passada, o Wall Street Journal também reportou que o modo adulto havia sido adiado devido a preocupações internas relacionadas à moderação e proteção de crianças.
Mais cedo nesta semana, OpenAI comunicou interrupção do Sora (Imagem: Tada Images/Shutterstock)
Não foi só o ChatGTP erótico: OpenAI revisita suas prioridades
A suspensão indefinida do projeto ocorre em um momento em que a OpenAI reavalia suas prioridades. A companhia tem enfrentado pressão crescente de rivais no setor de IA, levando a uma estratégia que prioriza produtos centrais em detrimento de funcionalidades experimentais.
Ainda nesta semana, a desenvolvedora comunicou a descontinuação do Sora, aplicativo de geração de vídeos de IA. A ação também faz parte da estratégia de priorizar produtos mais consolidados e rentáveis.
O encerramento resultou na recisão do contrato de US$ 1 bilhão com a Disney. O Olhar Digital deu os detalhes aqui.
Nesta terça-feira (24), o Google revelou o TurboQuant, uma tecnologia de compressão ultraeficiente que promete mudar a forma como as inteligências artificiais lidam com grandes volumes de informação. O sistema permite que os modelos “lembrem” de muito mais dados ao mesmo tempo em que ocupam menos espaço físico na memória do hardware, tudo isso sem perder a precisão nas respostas.
Para entender o impacto do TurboQuant, é preciso conhecer o KV Cache, que funciona como uma “memória de curto prazo” para a IA. Nessa memória temporária, o sistema anota as características mais importantes de uma conversa ou documento para não precisar reprocessar tudo do zero a cada nova interação.
Atualmente, essa “memória de curto prazo” é o grande vilão do consumo de hardware: quanto mais a IA precisa lembrar, mais memória RAM de alta performance ela exige, o que encarece o serviço e limita a capacidade dos chatbots. O TurboQuant consegue comprimir esses dados em pelo menos 6 vezes, permitindo que a IA lide com contextos imensos de forma muito mais leve e econômica.
PolarQuant e QJL: a matemática da eficiência
O funcionamento do TurboQuant baseia-se em dois pilares técnicos que simplificam o armazenamento de dados:
PolarQuant (troca de coordenadas): em vez de usar mapas complexos para localizar cada bit de informação, o algoritmo converte os dados para um sistema polar (baseado em ângulos e raios). Isso simplifica a geometria dos dados e remove o “peso morto” que métodos antigos de compressão carregavam.
QJL (o revisor de 1 bit): para garantir que nenhuma informação vital seja perdida ao “espremer” os dados, o Google utiliza o QJL. Ele atua como um revisor matemático que elimina distorções, garantindo que a IA continue precisa mesmo operando com arquivos reduzidos.
O “momento DeepSeek” do Google
Segundo o TechCrunch, a inovação está sendo comparada ao “momento DeepSeek” do Google, uma referência ao modelo chinês que provou ser possível alcançar alta performance com custos de hardware reduzidos. Em testes realizados com modelos como Gemma e Mistral, o TurboQuant não apenas economizou espaço, mas também aumentou a velocidade de processamento em até 8 vezes em aceleradores H100.
Embora ainda seja um avanço de laboratório que será detalhado na conferência ICLR 2026, a tecnologia deve ser integrada a sistemas de busca semântica e modelos como o Gemini, tornando as interações com IA muito mais ágeis. É importante notar, porém, que o TurboQuant foca na memória de uso (inferência) e não diminui a necessidade de RAM para o treinamento de novos modelos.
A decisão da OpenAI de encerrar o Sora, rede social de vídeos gerados por IA, abriu espaço para movimentações rápidas no setor. E uma delas veio de Elon Musk: o bilionário está planejando uma atualização “épica” para o Grok Imagine, seu modelo de IA para geração de vídeos.
Pouco depois do anúncio da OpenAI (mais detalhes abaixo), Musk indicou no X (antigo Twitter) que está preparando uma atualização para seu próprio gerador de vídeos. “O próximo lançamento do Grok Imagine será épico. Estamos investindo pesado”, escreveu. Ele também compartilhou exemplos de vídeos gerados pela ferramenta.
Publicação de Musk vem após decisão da OpenAI de encerrar o Sora
O timing de Musk foi bem calculado. O bilionário ‘twittou’ sobre o Grok Imagine pouco depois da rival OpenAI ter anunciado o encerramento do Sora.
O movimento ocorre em um momento de reconfiguração estratégica no mercado de IA. A OpenAI justificou que a descontinuidade da rede social de vídeos de IA faz parte de um redirecionamento para produtos mais alinhados a geração de receita, como ferramentas de produtividade, programação e soluções corporativas. Com isso, a OpenAI passa a concentrar esforços em iniciativas consideradas mais estratégicas para seu futuro, especialmente diante de planos de abertura de capital.
O fim do Sora também teve impacto imediato em parcerias: a Disney, que havia firmado um acordo bilionário envolvendo o uso de personagens em conteúdos gerados por IA, decidiu abandonar o investimento. O Olhar Digital deu os detalhes aqui.
Enquanto isso, a xAI tenta avançar no segmento deixado pela rival. A aposta de Musk reforça a disputa crescente entre empresas de tecnologia pela liderança em ferramentas criativas baseadas em IA.
Com o forte crescimento da inteligência artificial (IA) nos últimos anos, a demanda por data centers específicos vem aumentando no mundo todo. Sendo assim, as empresas que operam no setor estão construindo grandes complexos voltados para a tecnologia.
Um exemplo é a xAI, que construiu um supercomputador em Abilene, Texas (EUA), em 2024, mas que enfrentou resistência local por conta do consumo de recursos locais, que poderiam prejudicar a população que vive nos arredores.
No Brasil, a Scala Data Centers está se preparando para construir um complexo de data centers no em Eldorado do Sul (RS), que promete ser o maior complexo de infraestrutura digital da América Latina.
Em outubro de 2024, o governo estadual fechou parceria com a empresa para a realização do projeto. À época, o secretário de Desenvolvimento Econômico do Estado, Ernani Polo (PP), disse que o contrato “é oportunidade de transformar o Rio Grande do Sul no novo Vale do Silício no Brasil“.
“A interlocução entre o governo estadual e Eldorado do Sul assegurou alinhamento em infraestrutura urbana, planejamento territorial e qualificação de mão de obra, além de diálogo com o setor elétrico para viabilizar a demanda energética do campus”, explicou, ao Olhar Digital, Leandro Evaldt, o secretário de Desenvolvimento Econômico do Rio Grande do Sul.
“Essa atuação está inserida no Plano de Desenvolvimento Econômico, Inclusivo e Sustentável, que trabalha seus cinco habilitadores — capital humano, infraestrutura, ambiente de negócios, inovação e recursos naturais — como bases para atrair investimentos estruturantes como esse”, afirma.
Novo Vale do Silício no Brasil?
O empreendimento é chamado de Scala AI City. Confira mais informações do projeto, segundo dados do governo do Estado do Rio Grande do Sul:
O investimento inicial é de cerca de R$ 3 bilhões, com espaço total de mais de sete milhões de metros quadrados;
Contudo, as empresas que utilizarão as instalações injetarão mais R$ 4 bilhões, podendo passar dos R$ 600 bilhões no projeto total;
A título de comparação, o maior investimento do Estado realizado até hoje é de R$ 24 bilhões — a ampliação da CMPC, fábrica de celulose chilena, em 2024;
Mais de três mil empregos diretos e indiretos deverão ser gerados;
Quanto à capacidade inicial de TI do data center, serão 54 MW, podendo chegar a 4,75 GW;
O governo estadual afirma que a região escolhida tem segurança comprovada contra desastres naturais, grande oferta de energia elétrica e capacidade imobiliária;
O data center será ligado a outro do mesmo tipo, que se encontra em Porto Alegre (RS). Futuramente, ele será conectado ao cabo submarino Malbec, que liga São Paulo (SP), Rio de Janeiro (RJ) e Buenos Aires (Argentina).
Segundo a Scala, atualmente, o projeto está na fase de masterplan (plano diretor), com permits e validações em aspectos, como viabilidade, mobilidade, sustentabilidade, entre outros, sendo analisados.
A primeira etapa do empreendimento deverá entrar em operação em breve e, inicialmente, será híbrido, ou seja, servirá para cloud e IA.
Para Evaldt, o projeto é “estratégico” para o Estado. “O Estado já vinha estruturando políticas para inserir o RS na economia digital, e o projeto da Scala se conecta diretamente a essa visão de futuro”, disse ao OD.
“Estamos falando da criação de um novo eixo econômico, baseado em dados, inteligência artificial e serviços digitais de alta complexidade, posicionando o RS em uma indústria estratégica para as próximas décadas”, prosseguiu.
O secretário também explanou quais serão os benefícios da obra para a região. “A localização também favorece a logística, integração com redes de fibra óptica e acesso a talentos formados nas universidades da região”, pontuou.
“A escolha demonstra racionalidade técnica e visão de longo prazo, consolidando o município como núcleo de um novo cluster digital no Sul do país”. “O governo vê o projeto como um marco estruturante capaz de posicionar o RS como hub estratégico de infraestrutura digital na América Latina”, finalizou.
Dona do empreendimento frisa que o Scala AI City será dotado dos “mais altos padrões de sustentabilidade, inovação e governança” durante sua construção (Imagem: Nomad_Soul/Shutterstock)
Questões ambientais preocupam na construção da cidade de data centers
Porém, há preocupações com relação ao meio ambiente. Isso porque os data centers demandam muita energia e água para alimentar seu hardware e resfriamento, sem contar o lixo eletrônico gerado.
“Data centers consomem muita água. Isso é um problema porque a escassez de água está se tornando uma das principais razões de conflitos no mundo”, aponta Golestan Radwan, diretora digital do Programa das Nações Unidas para o Meio Ambiente (PNUMA).
Uma lei municipal aprovada exclusivamente para o projeto aponta que o licenciamento da obra “se dará de forma simplificada e autodeclaratória“.
A Scala garante que a operação do data center “não teria qualquer efeito no abastecimento elétrico da cidade ou de municípios vizinhos”, além de que a “energia utilizada será 100% renovável e certificada, com fornecimento garantido por parcerias estratégicas”, mas não cita de onde será obtida a energia demandada.
A Scala alega usar “tecnologias de resfriamento sem desperdício de água no resfriamento” e que não há “necessidade de reposição, mas apenas uma carga inicial no sistema”.
O governo estadual, por sua vez, afirma que, “com o auxílio do clima mais ameno do sul do Brasil, os data centers serão mais eficientes“, com eficiência energética e de água zerados, “ou seja, não utilizarão troca de água em seus sistemas de refrigeração”.
A dona do empreendimento frisa que o Scala AI City será dotado dos “mais altos padrões de sustentabilidade, inovação e governança” durante sua construção e prossegue, dizendo que “cumpre rigorosamente todos os requisitos legais em todos os seus empreendimentos“. A companhia enfatiza ainda que o licenciamento seguirá a mesma conduta.
Sobre a capacidade energética, a Scala aponta que os 4,75 GW de processamento de dados a serem alcançados quando a “cidade data center” estiver funcionando a pleno vapor a transformará “em um dos maiores polos de processamento de dados do mundo“.
Só que a quantidade de gigawatts anunciada é superlativa, já que, hoje, o Brasil tem capacidade total de 777 MW, tendo capacidade real de 54 MW. Ao colunista Renan Setti, do jornal O Globo, o CEO e cofundador da Scala, Marcos Peigo, comentou mais sobre as questões de capacidade da futura Scala AI City.
“O sonho é construir uma cidade. O plano eventual é ter até 4.750 MW, com consumo equivalente ao de todo o estado do Rio [de Janeiro]. No mundo, não há nada parecido; o maior de que tenho notícia é um projeto com cerca de 1.500 MW anunciados… Exigiria um investimento nosso da ordem de US$ 50 bilhões [R$ 261,7 bilhões] e seria um trabalho para dez, 20 anos…”
Enquanto isso, a prefeita de Eldorado do Sul, Juliana Carvalho (PSDB), ressalta que vai “olhar para todos os detalhes do empreendimento“, mesmo que a lei municipal deixe o licenciamento ambiental mais simples. “Qualquer intervenção tem algum impacto. O trabalho da prefeitura tem que ser amenizar isso de alguma forma, mas sem prejudicar o investimento e o desenvolvimento do município“, prossegue.
A Secretaria de Desenvolvimento Econômico do Rio Grande do Sul diz que “o Estado já levou ao governo federal a pauta que visa criar ambiente regulatório favorável aos data centers e às questões ligadas à inteligência artificial. Caso se efetive, será uma conquista que beneficiaria todo o país“, não citando informações sobre riscos e impactos ambientais.
Em setembro de 2024, o governador do Rio Grande do Sul, Eduardo Leite (PSD), defendeu a celeridade do processo no Brasil. “Se não construirmos imediatamente este ambiente favorável, corremos o risco de ver a transição energética acontecer em outros países, deixando-nos para trás. Agir agora é crucial para garantir que o Brasil não fique no final da fila nesta importante transformação global”, pontuou.
Por que Eldorado do Sul?
A Scala justifica a escolha da região para construir sua “cidade data center” não só pelas condições citadas nesta reportagem, mas, também, por fatores ligados ao “maior desafio para o setor, especialmente com a ascensão da IA“, sem contar que o município tem “robusta estrutura de transmissão, com uma subestação de capacidade de até 5 GW — a esmagadora maioria não utilizada”.
O governo do Estado também ressalta o clima ameno do sul do Brasil, que contribui para que a Scala AI City seja construída na região, pois, teoricamente, temperaturas mais baixas favorecem o resfriamento dos servidores, que demandariam menos energia elétrica para isso.
O hidrólogo Iporã Brito Possanttiressalta a necessidade de estudo sobre quais os possíveis impactos ao meio ambiente que esse tipo de projeto pode causar.
“Esse tipo de impacto precisa ser previsto no licenciamento. É importante que não haja isenção desses estudos para qualquer empreendimento, porque, depois, quem vai precisar pagar para corrigir e mitigar os impactos é a sociedade, os governos. É uma questão de economia e de justiça“, afirma.
“Não podemos simplesmente achar que uma inovação tecnológica, que é bem-vinda e necessária, está desprovida de impacto”, pontua ao Repórter Brasil o professor Ricardo Soares.
De acordo com a EBC, em 2024, o município da futura cidade data center teve toda a área urbana afetada pelas enchentes de 2024 (que assolaram o Estado todo), que segundo a Organização das Nações Unidas (ONU), é consequência da crise climática que o planeta enfrenta.
Em contrapartida, o terreno no qual o empreendimento será erguido ficou intacto.
O Google ampliou as capacidades de sua inteligência artificial (IA) de criação musical Lyria 3, que agora passa a gerar faixas com até três minutos de duração. A atualização chega com a versão Lyria 3 Pro, elevando em seis vezes o limite anterior, que era de apenas 30 segundos.
A mudança também amplia o controle do usuário sobre as composições. Além de definir estilo, humor ou instrumentação, agora é possível orientar melhor a estrutura das músicas geradas.
Controle aprimorado sobre arranjos musicais
O Lyria 3 Pro permite solicitar elementos específicos dentro da faixa, como introduções, refrões e pontes, oferecendo mais precisão na construção dos arranjos. A ferramenta segue a lógica de outros geradores de música por IA, como Suno e Udio, em que o usuário descreve o que deseja e o sistema produz a faixa correspondente.
O modelo também pode gerar letras a partir de prompts, incluindo referências vindas de texto, imagens ou vídeos, ampliando as possibilidades de criação dentro da plataforma.
Expansão para múltiplas plataformas Google
Uma das principais novidades está na integração com outros produtos do Google. Agora, é possível criar músicas diretamente dentro do Gemini, sem a necessidade de baixar aplicativos específicos.
O modelo também será incorporado ao Vertex AI para clientes corporativos, ao Google AI Studio e à API do Gemini para desenvolvedores, além de chegar ao Google Vids e à plataforma ProducerAI, adquirida recentemente pela empresa. A maior duração das faixas deve ser especialmente relevante para usuários do ProducerAI, que concorre diretamente com o Suno.
Integração com o Gemini é novidade comemorada pelo Google (Imagem: miss.cabul / Shutterstock.com)
A possibilidade de gerar músicas completas, em vez de trechos curtos, levanta questionamentos sobre imitação de artistas e violação de direitos autorais. Em comunicado, o Google afirmou que “Lyria 3 e Gemini não imitam artistas” e que, ao citar um criador em um prompt, o modelo utiliza isso apenas como inspiração ampla.
A empresa também informou que verifica as saídas do Lyria 3 Pro em relação a conteúdos existentes para evitar material que infrinja direitos. Além disso, as músicas geradas recebem uma marca d’água silenciosa SynthID, usada para identificar que foram criadas por inteligência artificial.
O presidente dos Estados Unidos, Donald Trump, anunciou a criação de um conselho tecnológico que reúne alguns dos principais nomes do setor, como Mark Zuckerberg, CEO da Meta Platforms, Larry Ellison, presidente executivo da Oracle, e Jensen Huang, CEO da Nvidia. O grupo terá como função aconselhar o governo em temas ligados à inteligência artificial (IA) e outras questões tecnológicas.
O colegiado será chamado de President’s Council of Advisors on Science and Technology (PCAST), segundo a Casa Branca. A iniciativa faz parte da estratégia do atual mandato de Trump, que tem dado ênfase à criação de um ambiente regulatório voltado para fortalecer a liderança dos Estados Unidos em IA e criptomoedas.
Liderança dupla para questões de IA e tecnologia
O conselho será liderado por David Sacks, que atua como responsável por IA e criptomoedas na Casa Branca, e por Michael Kratsios, também conselheiro na área de tecnologia.
De acordo com o governo, o PCAST deve atuar em temas relacionados às oportunidades e aos desafios das tecnologias emergentes, com impacto direto sobre a força de trabalho e o desenvolvimento econômico do país.
Perfil dos conselheiros escolhidos
Além de Zuckerberg, Ellison e Huang, Trump nomeou um grupo inicial de 13 membros da indústria, incluindo o cofundador do Google, Sergey Brin, e o fundador da Dell Technologies, Michael Dell. A expectativa é que o conselho possa chegar a até 24 integrantes, conforme previsto em ordem executiva.
Em declaração, Zuckerberg afirmou que os Estados Unidos têm a oportunidade de liderar o avanço global em inteligência artificial e disse estar honrado em integrar o conselho ao lado de outros líderes do setor.
Michael Dell também declarou que pretende colaborar com o grupo para avançar políticas que reforcem a competitividade americana e a segurança nacional.
Foco nas políticas de inteligência artificial
O conselho atuará como um grupo consultivo da Casa Branca em temas estratégicos, com destaque para a inteligência artificial e seus desdobramentos econômicos e sociais.
Segundo o governo, a proposta é garantir que o país aproveite as oportunidades da inovação tecnológica ao mesmo tempo em que enfrenta os desafios trazidos por essas mudanças.
Experiência prévia em conselhos governamentais
A criação do PCAST segue uma tradição de administrações anteriores, incluindo os governos de George W. Bush, Barack Obama e Joe Biden, que também estabeleceram conselhos semelhantes para assessorar decisões em ciência e tecnologia.
No primeiro mandato de Trump, um conselho do mesmo tipo também foi criado, embora com menor presença de executivos de grande visibilidade e apenas no terceiro ano de governo.
A participação de líderes de grandes empresas marca uma mudança em relação ao primeiro mandato de Trump, quando houve boicotes e renúncias de executivos do setor em iniciativas semelhantes.
Agora, a adesão de nomes relevantes da indústria indica maior disposição de colaboração entre o governo e empresas de tecnologia em discussões sobre políticas públicas e inovação.
A restauração de obras de arte sempre exigiu precisão extrema, quase que a mesma dos artistas originais. Em instituições como o Museu do Louvre, equipes inteiras trabalham para preservar pinturas e artefatos históricos. Agora, avanços em inteligência artificial e química prometem acelerar esse processo.
Restauradores utilizam técnicas como imagem infravermelha para identificar danos ocultos e solventes específicos para remover camadas de verniz sem comprometer a pintura original. Esse trabalho pode levar meses ou até anos, dependendo do nível de deterioração da obra, segundo informações do portal Euro News.
Inteligência artificial restaura pinturas em poucas horas
Pesquisadores estão testando inteligência artificial para restaurar obras de arte de forma rápida e reversível. O método analisa digitalmente uma pintura danificada e cria uma versão restaurada que é impressa em um filme polimérico ultrafino.
O método já restaurou mais de 57 mil cores em poucas horas, sendo até 66 vezes mais rápido que técnicas tradicionais e mantendo a reversibilidade. (Imagem: STEKLO/Shutterstock)
Essa “máscara” é aplicada sobre a obra original, permitindo visualizar a restauração sem alterar permanentemente o material. A técnica foi desenvolvida por Alex Kachkine, do Massachusetts Institute of Technology (MIT), e testada em uma pintura do século XV.
O resultado impressiona: mais de 57 mil cores foram restauradas em pouco mais de três horas, um processo até 66 vezes mais rápido do que métodos tradicionais. Além disso, a solução atende a uma exigência central da conservação moderna, que é a reversibilidade das intervenções.
Entre os principais diferenciais da tecnologia estão:
Restauração digital rápida e precisa;
Aplicação não permanente sobre a obra original;
Registro digital completo das intervenções;
Redução de custos e tempo de trabalho;
Compatibilidade com princípios éticos da conservação.
Novas soluções químicas ampliam possibilidades
Pesquisadores em Pequim também exploram o uso de derivados de celulose na conservação de artefatos históricos. Esses materiais apresentam propriedades adesivas e podem ser utilizados na restauração de papel, madeira, cerâmica e até murais.
Além disso, novas soluções com nanocelulose ampliam possibilidades ao reforçar materiais frágeis com baixo impacto ambiental e maior durabilidade. (Imagem: Stokkete/Shutterstock)
Nanocelulose, por exemplo, pode reforçar estruturas frágeis e criar revestimentos resistentes à água, mantendo a respirabilidade dos materiais. Além disso, sua baixa toxicidade e origem renovável atendem às exigências atuais por práticas mais sustentáveis.
O uso crescente de chatbots de inteligência artificial (IA) está associado a mudanças na forma como as pessoas escrevem, falam e até estruturam o pensamento. A avaliação é de cientistas da computação e psicólogos que publicaram, em meados de março, um artigo na revista Trends in Cognitive Sciences. Segundo os pesquisadores, essa transformação pode levar à homogeneização da expressão humana e afetar a diversidade cognitiva.
De acordo com o estudo, a popularização dos chamados grandes modelos de linguagem (LLMs) pode reduzir a variedade de estilos e perspectivas individuais. O tema ganha relevância à medida que mais pessoas recorrem às mesmas ferramentas de IA para tarefas cotidianas, como revisão de textos e geração de conteúdo.
Especialistas estão preocupados com a homogeneização da expressão humana causada pelo uso de chatbots de IA (Imagem: khunkornStudio / Shutterstock.com)
Risco de uniformização do pensamento
Os autores do artigo defendem que os desenvolvedores de IA devem considerar a pluralidade do mundo real nos dados de treinamento dos modelos. A proposta busca não apenas preservar a diversidade de pensamento, mas também melhorar a qualidade do raciocínio das próprias ferramentas.
O cientista da computação Zhivar Sourati, professor da Universidade do Sul da Califórnia e autor principal do estudo, afirma que as diferenças individuais tendem a se diluir quando mediadas por LLMs. Segundo ele, estilos linguísticos, perspectivas e estratégias de raciocínio acabam sendo padronizados entre os usuários.
Essa uniformização não se limita à forma de escrever. Para os pesquisadores, há também o risco de redefinição do que é considerado um discurso confiável ou um raciocínio adequado, com base nos padrões reproduzidos pelos sistemas de IA.
Impacto na criatividade e diversidade
A equipe cita estudos que indicam que os resultados gerados por LLMs apresentam menor variedade em comparação com textos produzidos por humanos. Além disso, esses sistemas tendem a refletir valores e formas de pensamento associadas a sociedades descritas pelo acrônimo WEIRD (ocidentais, educadas, industrializadas, ricas e democráticas), o que pode limitar a representação de outras experiências culturais.
Embora o uso de IA possa aumentar o número de ideias geradas individualmente, os pesquisadores apontam um efeito inverso em grupos. Equipes que utilizam LLMs tendem a ser menos criativas do que aquelas que combinam habilidades humanas sem o auxílio dessas ferramentas.
Estudo indica que uso de LLMs tem impacto na criatividade (Imagem: ArmadilloPhotograp / Shutterstock.com)
Mesmo pessoas que não utilizam diretamente a tecnologia podem ser impactadas. Segundo Sourati, há uma pressão social para se alinhar a padrões predominantes de linguagem e pensamento quando esses passam a ser amplamente adotados.
Como possível caminho, os autores sugerem a inclusão de uma multiplicidade global de perspectivas nos modelos de IA. A medida poderia ajudar a preservar o potencial criativo das futuras gerações e evitar a redução da diversidade cognitiva.
Ao questionar um chatbot sobre esse fenômeno, a própria IA reconheceu que pode influenciar e padronizar a comunicação humana, destacando a criação de um modelo de escrita considerado claro e correto. O sistema também apontou o risco de desumanização, com perda de interações mais genuínas e redução de vínculos pessoais.
A OpenAI cancelou o Sora, sua plataforma de geração de vídeos que causou fascínio e polêmica ao ser lançada no ano passado. A decisão, anunciada pelo CEO Sam Altman aos funcionários nesta terça-feira (24), marca uma guinada da empresa para priorizar funções de negócios e codificação.
O recuo é estratégico: a OpenAI planeja abrir capital (IPO) possivelmente já no quarto trimestre deste ano e quer alinhar seus talentos e alto poder computacional em torno de ferramentas de produtividade que gerem receita clara e direta.
A confirmação do encerramento veio também por meio de uma nota oficial publicada pela equipe do Sora no X (antigo Twitter). “Estamos nos despedindo do aplicativo Sora. A todos que criaram com o Sora, o compartilharam e construíram uma comunidade em torno dele: obrigado”, diz o comunicado.
We’re saying goodbye to the Sora app. To everyone who created with Sora, shared it, and built community around it: thank you. What you made with Sora mattered, and we know this news is disappointing.
We’ll share more soon, including timelines for the app and API and details on…
A equipe informou ainda que compartilhará em breve os cronogramas detalhados para o desligamento do aplicativo e da API, além de orientações para que os usuários possam preservar os trabalhos já criados na plataforma.
Disney abandona investimento de US$ 1 bilhão
A decisão de Sam Altman teve um efeito dominó imediato em Hollywood. De acordo com o The Hollywood Reporter, a Disney está oficialmente abandonando o acordo bilionário que assinou com a OpenAI no ano passado.
O contrato previa um investimento de US$ 1 bilhão e o licenciamento de personagens icônicos para uso exclusivo no Sora. Os pontos centrais da parceria agora desfeita incluíam:
Integração com o Disney+: o objetivo final era levar a tecnologia de geração de vídeo da OpenAI diretamente para dentro do serviço de streaming.
Uso de propriedade intelectual: usuários poderiam criar conteúdos originais com personagens de franquias como Star Wars e Toy Story.
Fim do acordo: com o fechamento do aplicativo autônomo do Sora, uma fonte confirmou que o “acordo está morto”, embora a Disney ainda possa buscar parcerias com outros gigantes da IA.
Em comunicado oficial, um porta-voz da Disney afirmou que a empresa “respeita a decisão da OpenAI de sair do negócio de geração de vídeo e mudar suas prioridades”, mas reforçou que continuará explorando novas tecnologias que respeitem os direitos dos criadores.
O novo foco da OpenAI
Com o encerramento do Sora, a OpenAI deixará de oferecer o aplicativo para consumidores e a versão para desenvolvedores. No entanto, existe um conflito de informações sobre o futuro da tecnologia dentro do ecossistema principal da empresa.
Embora o Wall Street Journal afirme que a função de vídeo será removida do ChatGPT, o The Hollywood Reporter indica que a tecnologia de vídeo por IA ainda pode ser integrada como uma ferramenta interna do chatbot, apesar do fim do aplicativo Sora como marca independente.
Para a diretora de aplicações da empresa, Fidji Simo, a OpenAI não pode mais se dar ao luxo de se distrair com projetos paralelos.
A nova visão da OpenAI foca em vencer a rival Anthropic no setor corporativo. Para isso, a empresa anunciou a fusão do app de desktop do ChatGPT, da ferramenta de programação Codex e do seu navegador em um único “superapp”.
O objetivo central agora são os sistemas agênticos:
Autonomia: softwares capazes de operar de forma independente no computador do usuário.
Tarefas complexas: IAs que podem escrever códigos inteiros e analisar dados massivos sem intervenção constante.
Infraestrutura: criação de sandboxes que permitem rodar códigos de agentes de forma instantânea.
O cofundador da Microsoft, Bill Gates, acredita que três setores específicos devem manter oportunidades de trabalho mesmo com o avanço da inteligência artificial (IA). Em publicação feita em seu blog no final de 2023, o bilionário listou as áreas que considera mais resistentes às mudanças tecnológicas.
Diferentemente de carreiras tradicionais, como medicina e educação — que Gates acredita que podem ser transformadas pela IA —, ele aponta que energias alternativas, biociências da saúde e o desenvolvimento da própria IA devem continuar gerando empregos.
Gates e energias alternativas: aposta na transição energética
Gates destaca o setor de energias alternativas como uma área com demanda crescente;
Segundo ele, a necessidade de enfrentar as mudanças climáticas já acelera a busca por fontes mais limpas de energia, mas há um desafio importante a ser resolvido;
O empresário explica que a energia eólica e solar precisam ser complementadas por algo mais confiável. Para ele, a energia nuclear entra como esse complemento para garantir fornecimento contínuo quando as fontes renováveis não estão disponíveis;
“Energia eólica e solar continuam a ser uma parte chave do futuro, mas líderes reconhecem agora que você precisa complementá-las com algo mais confiável quando o sol não está brilhando ou o vento não está soprando”, escreveu Gates.
O bilionário tem investimento próprio no setor: em 2008, fundou a TerraPower, empresa de energia nuclear cuja primeira usina deve ser inaugurada em 2030, no Estado do Wyoming (EUA). Gates também relata que viu espaço para a tecnologia nuclear ganhar tração na COP28, conferência do clima da ONU realizada em Dubai (Emirados Árabes Unidos).
Durante o evento, ele passou tempo explicando como a tecnologia poderia ser ampliada, em vez de justificar sua necessidade — um sinal de que o setor está ganhando aceitação.
Biociências da saúde: IA como ferramenta de aceleração
A segunda aposta de Gates é a área de biociências da saúde, com foco em novos medicamentos, vacinas e terapias. Neste setor, ele vê a inteligência artificial não como substituta, mas como ferramenta que pode ajudar cientistas.
Gates afirma que ferramentas de IA já ajudam a acelerar a descoberta de drogas, especialmente em pesquisas voltadas a doenças que afetam populações mais pobres. A tecnologia pode acelerar etapas de análise de grandes volumes de dados.
“Descobrir drogas exige passar um pente fino em enormes quantidades de dados e ferramentas de inteligência artificial podem agilizar este processo significativamente”, explicou.
Como exemplo prático, Gates menciona um projeto que usa ultrassons com IA para identificar gravidezes de risco na Índia. A tecnologia funciona em inglês e em télugo, ajustando-se automaticamente ao nível de experiência de quem faz o exame.
IA deve ser vista como ferramenta, e não como algo que vá substituir o ser humano, disse o bilionário (Imagem: bigjom jom/Shutterstock)
Desenvolvimento de IA: setor que cria a própria demanda
A terceira área destacada é o próprio desenvolvimento da IA. Gates considera que a tecnologia ainda está no início e que a criatividade é central para o crescimento do setor.
Segundo ele, a IA pode acelerar descobertas em diversas áreas, mas isso exige investimentos para ampliar o acesso à inovação. Gates defende que esses investimentos podem tornar o mundo mais igualitário. “Se fizermos investimentos inteligentes agora, a IA pode tornar o mundo um lugar mais igualitário”, escreveu no blog.
IA pode suprir escassez em outras profissões, segundo Gates
Em declarações mais recentes, Gates apresentou uma visão diferente sobre medicina e educação. Ele disse que a IA pode ajudar a suprir a escassez de médicos e professores, especialmente em regiões com déficit desses profissionais.
Gates citou que países na África e a Índia enfrentam dificuldade de mão de obra na área médica. Sobre educação, mencionou o uso de IA para apoiar professores em suas atividades. “A IA fornecerá inteligência médica e não haverá escassez”, disse, em podcast.
O bilionário também mencionou que a tecnologia pode suprir falta de trabalhadores em fábricas, construção e serviços de limpeza em hotéis. No entanto, ele ressalta que a transição depende de mão de obra qualificada para fazer a IA executar tarefas manuais. “É preciso de uma mão de obra muito habilidosa para fazer com que a IA supra esses profissionais. Vamos chegar lá“, afirmou.
Gates disse ainda que a IA pode ajudar a reduzir a carga de trabalho ao longo do tempo, permitindo que profissionais se aposentem mais cedo e tenham menores jornadas de trabalho.