shutterstock 2658804489

IA na literatura levanta dúvidas sobre autoria e confiança

O uso de inteligência artificial já começa a impactar diretamente o mercado editorial. A agente literária Kate Nash revelou em uma entrevista ao jornal The Guardian que percebeu uma mudança sutil nas cartas de submissão enviadas por autores. Os textos estavam mais completos, porém também mais padronizados, até que um detalhe chamou atenção: um prompt de IA incluído por engano no início de uma carta.

A partir desse momento, identificar conteúdos assistidos por IA passou a ser quase inevitável para profissionais experientes. Ainda assim, casos recentes mostram que distinguir o que é humano do que foi gerado por algoritmos está longe de ser uma tarefa simples.

Caso polêmico expõe limites da detecção

A controvérsia envolvendo o livro “Shy Girl”, da autora Mia Ballard, ampliou o debate. A obra, publicada pela Hachette, chegou a ser apontada como potencialmente até 78% gerada por IA. O caso levou à suspensão da publicação no Reino Unido e ao cancelamento do lançamento nos Estados Unidos.

Casos recentes mostram que identificar conteúdo gerado por IA é difícil, mesmo para profissionais experientes, evidenciando limites nas ferramentas atuais. (Imagem: metamorworks/Shutterstock) – Casos recentes mostram que identificar conteúdo gerado por IA é difícil, mesmo para profissionais experientes, evidenciando limites nas ferramentas atuais. (Imagem: metamorworks/Shutterstock)

A autora negou o uso direto de IA, afirmando que um editor contratado pode ter utilizado ferramentas automatizadas durante o processo. O episódio, no entanto, evidenciou uma fragilidade estrutural no setor editorial, que ainda não dispõe de métodos confiáveis para detectar conteúdo gerado por inteligência artificial.

Especialistas reforçam essa limitação. O pesquisador Patrick Juola afirma que ferramentas de detecção não acompanham a evolução dos sistemas de IA. Já Mor Naaman destaca que os próprios modelos aprendem rapidamente a evitar identificação.

Entre os principais desafios apontados estão:

  • Dificuldade em detectar textos gerados por IA;
  • Evolução constante dos modelos, que burlam sistemas de verificação;
  • Possibilidade de edição humana mascarar conteúdo automatizado;
  • Falta de padrões claros no mercado editorial;
  • Crescimento de zonas “cinzentas” entre autoria humana e assistida.

Fronteira entre humano e IA fica cada vez mais “borrada”

Com o avanço da tecnologia, surge uma questão central: até que ponto um texto continua sendo humano quando passa por múltiplas revisões com auxílio de IA? Para especialistas, autores podem utilizar ferramentas para gerar, editar e testar textos até que eles se tornem indistinguíveis de uma produção original.

O avanço da IA cria uma zona cinzenta na autoria e levanta preocupações sobre padronização criativa e perda de originalidade na literatura. (Imagem: Peshkova/Shutterstock)
O avanço da IA cria uma zona cinzenta na autoria e levanta preocupações sobre padronização criativa e perda de originalidade na literatura. (Imagem: Peshkova/Shutterstock) – O avanço da IA cria uma zona cinzenta na autoria e levanta preocupações sobre padronização criativa e perda de originalidade na literatura. (Imagem: Peshkova/Shutterstock)

Esse cenário cria uma zona intermediária, em que o conceito de autoria se torna mais complexo. O uso de IA como corretor gramatical ou ferramenta criativa já é amplamente aceito, mas o limite entre assistência e substituição ainda não está definido.

Leia mais:

Para além das questões técnicas, o impacto da IA na literatura levanta preocupações culturais. Segundo especialistas, existe o risco de uma padronização criativa, com textos cada vez mais homogêneos e influenciados por padrões algorítmicos.

O post IA na literatura levanta dúvidas sobre autoria e confiança apareceu primeiro em Olhar Digital.

IA na literatura levanta dúvidas sobre autoria e confiança Read More »

google vids 1024x682

Google lança Gemma 4 e novos recursos no Vids

O Google lançou a família de modelos de código aberto Gemma 4, trazendo para a comunidade de código aberto a tecnologia desenvolvida para os modelos de linguagem grande proprietários da empresa, como o Gemini 3 Pro. Essa nova família de modelos oferece quatro variantes distintas, que se diferenciam pelo número de parâmetros disponíveis.

Diversidade de modelos e capacidade de processamento do Gemma 4

  • Para dispositivos de borda, como smartphones, o Google disponibiliza os modelos “Effective” com dois bilhões e quatro bilhões de parâmetros;
  • Para máquinas mais potentes, as opções são os sistemas “Mixture of Experts” com 26 bilhões de parâmetros e “Dense” com 31 bilhões de parâmetros;
  • Em termos de inteligência, o Google afirma que conseguiu até então um nível sem precedentes de “inteligência-por-parâmetro” com a Gemma 4;
  • Essa afirmação é sustentada pelo desempenho das variantes de 31 bilhões e 26 bilhões de parâmetros, que conquistaram o terceiro e sexto lugares, respectivamente, no leaderboard de texto da Arena AI, superando modelos até 20 vezes maiores.

Todos os modelos Gemma 4 são capazes de processar vídeo e imagens, sendo ideais para tarefas, como reconhecimento óptico de caracteres. Os modelos menores, além disso, podem processar entradas de áudio e compreender fala. Outra funcionalidade destacada é a capacidade dos modelos de gerar código offline, possibilitando a programação sem a necessidade de uma conexão com a internet.

Além disso, a Gemma 4 foi treinada para operar em mais de 140 idiomas, refletindo a intenção da Google de criar modelos versáteis e acessíveis globalmente.

Os modelos Gemma 4 estão sendo disponibilizados sob a licença Apache 2.0, marcando uma mudança em relação aos modelos anteriores que estavam sob a licença própria da Gemma. Este licenciamento oferece maior flexibilidade para desenvolvedores modificarem os sistemas conforme necessário, permitindo controle total sobre dados, infraestrutura e modelos.

“Essa licença de código aberto proporciona uma base para completa flexibilidade do desenvolvedor e soberania digital, garantindo controle total sobre seus dados, infraestrutura e modelos”, declarou o Google. “Ela permite construir livremente e implantar com segurança em qualquer ambiente, seja on-premises ou na nuvem.”

Para aqueles interessados em explorar um dos sistemas Gemma 4, os pesos dos modelos estão disponíveis nas plataformas Hugging Face, Kaggle e Ollama. A movimentação da Google para tornar os modelos mais acessíveis reforça seu compromisso com a inovação colaborativa no campo da inteligência artificial (IA).

Google Vids também recebeu atualizações – Mamun_Sheikh/Shutterstock

Leia mais:

Google Vids recebe controle de avatares por comandos de texto

O Google também introduziu, nesta quinta-feira (2), novas funcionalidades no seu aplicativo de edição de vídeos, o Vids. Entre os novos recursos, destaca-se a capacidade de direcionar e customizar avatares usando comandos de texto. Além disso, o aplicativo agora suporta a integração com o Veo 3.1 e permite a exportação de vídeos diretamente para o YouTube, além de gravar com uma extensão do Chrome.

Utilizando comandos em linguagem natural, os usuários do Vids podem fazer com que os avatares “atuem” em cenas específicas. Isso inclui interações com produtos, adereços ou equipamentos.

O Google assegura que, mesmo com a natureza dinâmica dessas interações, o Vids mantém a consistência dos personagens. Além disso, os usuários podem personalizar os personagens, ajustando a aparência, roupas e cenários por meio de comandos, dependendo do tema do vídeo.

No mês passado, o Google havia adicionado os modelos de criação musical Lyria 3 e Lyria 3 Pro ao Vids, permitindo que os usuários adicionassem efeitos sonoros ou música aos seus clipes. Com este novo lançamento, a empresa introduziu o modelo de geração de vídeos Veo 3.1, que pode criar clipes de até oito segundos dentro da ferramenta de edição de vídeo do aplicativo.

Todos os usuários receberão dez gerações gratuitas por mês. Para aqueles com contas Google AI Ultra e Workspace AI Ultra, será possível gerar até mil vídeos Veo mensalmente.

Uma das funcionalidades mais aguardadas é a possibilidade de exportar vídeos diretamente para o YouTube. Com isso, elimina-se a etapa de download e posterior upload manual para o canal. Os vídeos exportados são, por padrão, privados, permitindo que o autor revise antes de torná-los públicos.

Além disso, uma nova extensão para o Chrome foi adicionada ao conjunto de suas ferramentas de vídeo. Essa extensão permite que os usuários capturem a tela com áudio ou vídeo, ampliando as possibilidades criativas dentro do ecossistema do Vids.

Desde o seu lançamento em 2024, voltado inicialmente para a criação de conteúdo empresarial, o Vids tem sofrido diversas atualizações. No ano passado, o aplicativo incorporou avatares de IA e expandiu seu uso para consumidores gerais. Em fevereiro deste ano, foram adicionados avatares em 2D e 3D no estilo cartoon, além do suporte a sete novos idiomas para narração, incluindo o português.

O post Google lança Gemma 4 e novos recursos no Vids apareceu primeiro em Olhar Digital.

Google lança Gemma 4 e novos recursos no Vids Read More »

openais e1766143534449 1024x577

ChatGPT testa sistema para identificar extremismo online

Uma nova ferramenta em desenvolvimento na Nova Zelândia pretende identificar sinais de extremismo violento em usuários do ChatGPT e encaminhá-los a serviços de apoio especializados. A proposta combina inteligência artificial com atendimento humano para reduzir riscos de violência.

A iniciativa envolve a startup neozelandesa ThroughLine, que já presta serviços para empresas como OpenAI, Anthropic e Google. O sistema atua quando há indícios de risco, incluindo automutilação, violência doméstica e transtornos alimentares, conectando usuários a redes de suporte.

Pressão sobre segurança impulsiona nova iniciativa

O projeto surge em meio a pressões sobre empresas de IA relacionadas à segurança, especialmente diante de processos judiciais que acusam plataformas de não impedir — ou até incentivar — episódios de violência.

Em fevereiro, a OpenAI foi alvo de uma ameaça de intervenção pelo governo do Canadá, após a revelação de que o autor de um ataque em uma escola havia sido banido da plataforma sem notificação às autoridades. A empresa confirmou à Reuters a parceria com a ThroughLine, mas não detalhou a iniciativa. Anthropic e Google não responderam ao contato da agência.

OpenAI confirmou parceria com a startup neozelandesa – Imagem: Thrive Studios ID/Shutterstock

Parceria busca ampliar prevenção ao extremismo

O fundador da ThroughLine, Elliot Taylor, afirmou à Reuters que a empresa estuda ampliar o serviço para incluir a prevenção ao extremismo violento. A startup negocia uma parceria com o The Christchurch Call, iniciativa criada após o ataque terrorista de 2019 na Nova Zelândia para combater o ódio online.

“É algo que gostaríamos de avançar e fazer um trabalho melhor em termos de cobertura, para então poder dar um suporte melhor às plataformas”, disse Taylor. Não há prazo definido para a implementação.

Atualmente, a ThroughLine mantém uma rede com 1.600 linhas de apoio em 180 países, conectando usuários a serviços locais com atendimento humano após a identificação de sinais de crise por sistemas de IA.

Como funciona o sistema híbrido de apoio

A tecnologia deve operar em um modelo híbrido, com chatbots treinados para interagir com usuários em risco e encaminhá-los para serviços presenciais de saúde mental.

Segundo Taylor, o sistema não utiliza dados de treinamento tradicionais de modelos de linguagem, mas sim orientações de especialistas. Hoje, o serviço ainda está restrito a algumas categorias, embora a empresa observe que o crescimento dos chatbots ampliou o tipo de problemas relatados online, incluindo o extremismo.

Leia mais:

Testes em andamento e desafios da implementação

A ferramenta segue em fase de testes e ainda não tem data de lançamento. O consultor de contraterrorismo Galen Lamphere-Englund, ligado ao The Christchurch Call, afirmou que o sistema pode ser utilizado por moderadores de fóruns de jogos e pais.

Para o pesquisador Henry Fraser, da Universidade de Tecnologia de Queensland, a proposta é relevante ao considerar não apenas o conteúdo, mas também a relação entre usuários e plataformas. Ele ressalta que o sucesso dependerá da qualidade do acompanhamento e dos serviços oferecidos.

Taylor afirmou que medidas como eventuais alertas às autoridades ainda estão em definição e levarão em conta o risco de agravar comportamentos. Segundo ele, usuários em sofrimento tendem a compartilhar online questões que evitariam em interações presenciais.

Um estudo de 2025 do Stern Center for Business and Human Rights, da Universidade de Nova York, aponta que o aumento da moderação pode levar usuários a migrar para plataformas menos reguladas, como o Telegram. Para Taylor, interromper conversas sem oferecer suporte pode deixar pessoas sem assistência.

O post ChatGPT testa sistema para identificar extremismo online apareceu primeiro em Olhar Digital.

ChatGPT testa sistema para identificar extremismo online Read More »

microsoft copilot 1024x576

Microsoft foca em superinteligência e lança novo modelo de voz

A Microsoft está redirecionando parte de sua estratégia em inteligência artificial (IA) sob a liderança de Mustafa Suleyman, atual CEO de IA da empresa. Após uma reestruturação anunciada em meados de março, o executivo transferiu algumas responsabilidades e passou a concentrar seus esforços no desenvolvimento de superinteligência.

Segundo Suleyman, essa mudança já vinha sendo planejada há meses e ganhou tração após a renegociação do contrato com a OpenAI. “Esse tem sido um plano de longa data”, afirmou. Para ele, o conceito de superinteligência está diretamente ligado à capacidade de modelos entregarem valor prático para empresas e usuários.

Embora termos como superinteligência e inteligência geral artificial (AGI) ainda tenham definições em aberto na indústria, o executivo afirma que o foco da Microsoft está em aplicações concretas. A meta é atender desenvolvedores, empresas e consumidores com modelos de linguagem capazes de gerar resultados em escala.

Novo modelo de transcrição

A Microsoft apresentou o MAI-Transcribe-1, um modelo de transcrição que, segundo a empresa, avança no reconhecimento de fala. De acordo com Suleyman, a tecnologia opera com cerca de metade do custo de GPU em comparação com outros modelos de ponta, o que representa economia operacional.

O modelo foi desenvolvido para lidar com condições adversas de áudio, como ruído de fundo, baixa qualidade e sobreposição de falas. Ele é capaz de transcrever reuniões, gerar legendas para vídeos e analisar interações em call centers em 25 idiomas.

O treinamento envolveu uma combinação de transcrições revisadas por humanos e conteúdos gerados por máquinas. Os dados incluem gravações em estúdios controlados, além de áudios captados em ambientes com ruído, como ruas movimentadas e cenários domésticos, além de dados públicos disponíveis na internet.

Estratégia e desenvolvimento

A reestruturação da Microsoft também unificou equipes voltadas para consumidores e empresas sob a marca Copilot. Com isso, parte das operações passou a ser liderada por Jacob Andreou, enquanto Suleyman direciona seu foco para o desenvolvimento de novos modelos de fronteira.

Microsoft unificou equipes voltadas para consumidores sob a marca Copilot – Imagem: Mijansk786 / Shutterstock

O MAI-Transcribe-1 passa a integrar o portfólio da empresa ao lado dos modelos MAI-Voice-1 e MAI-Image-2, disponíveis na plataforma Microsoft Foundry e no novo Microsoft AI Playground. Segundo a empresa, é a primeira vez que esses modelos estão amplamente disponíveis para uso comercial.

Suleyman atribui parte do desempenho do novo modelo a uma equipe reduzida, com cerca de dez pessoas, dedicada exclusivamente ao desenvolvimento. Segundo ele, o grupo opera com menos interferência burocrática, enquanto outras equipes dão suporte em tarefas como coleta de dados e gestão de fornecedores.

Leia mais:

Visão para o futuro

A estratégia da Microsoft também acompanha movimentos de outras empresas do setor, como Meta, Amazon e Google, que vêm testando estruturas organizacionais mais enxutas para acelerar o desenvolvimento de IA.

Suleyman afirma que o objetivo é criar sistemas de IA centrados no usuário. “Todos terão um assistente de IA no bolso, de classe mundial, responsável e alinhado aos seus interesses”, disse. A proposta, segundo ele, é oferecer ferramentas que atuem diretamente em benefício dos usuários.

O post Microsoft foca em superinteligência e lança novo modelo de voz apareceu primeiro em Olhar Digital.

Microsoft foca em superinteligência e lança novo modelo de voz Read More »

Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA”

A ideia de receber ordens de um algoritmo em vez de um ser humano pode se tornar realidade no mercado de trabalho. De acordo com uma pesquisa recente da Universidade Quinnipiac, divulgada no fim de março de 2026, 15% dos norte-americanos afirmam que estariam dispostos a trabalhar em um emprego em que seu supervisor direto fosse um programa de inteligência artificial (IA).

Embora a vasta maioria (80%) ainda rejeite a ideia de ter a rotina e as tarefas coordenadas por uma máquina, os dados revelam uma mudança de comportamento. O levantamento, que ouviu quase 1.400 adultos, mostra que a aceitação da IA em cargos de liderança começa a ganhar tração, especialmente em funções focadas em produtividade, como a atribuição de tarefas e a definição de cronogramas.

O fim da média gerência?

A disposição de parte dos trabalhadores em aceitar um “chefe robô” coincide com um movimento corporativo que especialistas estão chamando de “The Great Flattening” (ou “O Grande Achatamento”). Segundo análise do portal TechCrunch, empresas de tecnologia já estão utilizando agentes de IA para eliminar camadas intermediárias de gestão, tornando as organizações mais “leves” e diretas.

Exemplos práticos desse movimento já aparecem em gigantes do setor:

  • Amazon: implementou fluxos de trabalho automatizados para substituir responsabilidades que antes cabiam a gerentes médios.
  • Workday: lançou agentes de IA capazes de registrar e aprovar relatórios de despesas de funcionários sem intervenção humana.
  • Uber: engenheiros chegaram a criar um modelo de IA do próprio CEO, Dara Khosrowshahi, para avaliar propostas antes de reuniões presenciais.

Eficiência operacional vs. medo do desemprego

O paradoxo da IA na gestão fica evidente no contraste entre a eficiência e a segurança profissional. O estudo da Quinnipiac aponta que 70% dos entrevistados acreditam que os avanços da tecnologia levarão a uma redução geral nas oportunidades de emprego.

Curiosamente, existe uma desconexão entre a percepção do mercado e a segurança individual: enquanto a maioria prevê um cenário difícil para todos, apenas 30% dos profissionais empregados temem que a IA possa tornar seus cargos específicos obsoletos.

Para a Dra. A Dra. Tamilla Triantoro, professora da Escola de Negócios da Universidade Quinnipiac, afirma que essa tendência indica que o público aceita a IA como uma ferramenta de mercado, mas ainda luta para entender como ela afetará sua própria trajetória de carreira.

O futuro da supervisão

A resistência à supervisão automatizada também está ligada à falta de clareza das empresas. A pesquisa revela que 76% dos americanos sentem que as organizações não são transparentes o suficiente sobre como utilizam a IA.

O relatório conclui que, para que a aceitação de um “chefe de IA” cresça, será necessário mais do que apenas algoritmos eficientes: o mercado exige regulamentação governamental e diretrizes éticas claras, algo que 74% dos participantes sentem que ainda falta por parte das autoridades.

O post Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA” apareceu primeiro em Olhar Digital.

Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA” Read More »

scientist looking at 202603302215 1024x576

Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa

O uso de ferramentas de inteligência artificial está em alta nos Estados Unidos, mas a confiança do público não acompanha esse crescimento. Uma pesquisa recente da Quinnipiac University revela um cenário contraditório: mais pessoas utilizam IA no dia a dia, mas a maioria ainda desconfia dos resultados gerados.

Segundo o levantamento, que ouviu cerca de 1.400 americanos, 76% afirmam confiar pouco ou apenas ocasionalmente nas respostas fornecidas por sistemas de IA. Apenas 21% dizem confiar na tecnologia na maior parte do tempo, evidenciando um gap significativo entre adoção e credibilidade.

Adoção aumenta, mas percepção segue negativa

Mesmo com a desconfiança, o uso de IA continua avançando. Apenas 27% dos entrevistados disseram nunca ter utilizado ferramentas do tipo, uma queda em relação aos 33% registrados em 2025. A tecnologia já faz parte de atividades como pesquisa, produção de textos, projetos profissionais e análise de dados.

Pesquisa da Quinnipiac University mostra que apenas 21% confiam na IA na maior parte do tempo, revelando um descompasso entre adoção e credibilidade. (ChatGPT / Olhar Digital)

O dado mais revelador está na contradição: 51% dos entrevistados usam IA para pesquisa, mas poucos consideram os resultados confiáveis. Esse comportamento sugere uma relação pragmática, em que a tecnologia é útil, mas ainda vista com cautela.

Entre os principais usos da IA apontados na pesquisa estão:

  • Pesquisa e busca de informações;
  • Produção de textos e conteúdos;
  • Apoio em atividades de trabalho;
  • Análise de dados;
  • Tarefas acadêmicas.

Preocupações superam o entusiasmo

O estudo também mostra que o entusiasmo com a inteligência artificial é limitado. Apenas 6% dos entrevistados disseram estar muito animados com a tecnologia, enquanto 62% afirmam não estar empolgados ou estarem pouco interessados.

O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock)
O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock) – O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock)

Quando o assunto é preocupação, os números se invertem. Cerca de 80% dizem estar muito ou moderadamente preocupados com os impactos da IA. Entre os mais apreensivos estão millennials e baby boomers, com a geração Z logo atrás.

Essa percepção negativa também aparece na avaliação do impacto da tecnologia no cotidiano. Mais da metade dos entrevistados acredita que a IA trará mais prejuízos do que benefícios em suas vidas diárias, enquanto apenas um terço vê efeitos positivos predominantes.

Infraestrutura de IA também enfrenta resistência

Outro ponto relevante da pesquisa envolve a infraestrutura necessária para sustentar o avanço da IA. A construção de data centers, essenciais para operar modelos avançados, enfrenta forte rejeição pública.

Leia mais:

Cerca de 65% dos entrevistados disseram que não gostariam de ter um centro de dados instalado em suas comunidades. Entre as principais preocupações estão o alto consumo de energia elétrica e o uso intensivo de água, fatores que impactam diretamente o custo de vida e o meio ambiente.

O cenário indica que, apesar do avanço tecnológico, a aceitação social da inteligência artificial ainda depende de fatores como transparência, segurança e impacto ambiental.

O post Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa apareceu primeiro em Olhar Digital.

Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa Read More »

assessoria de investimentos ma 300x169

A nova era dos “megadeals”: IA leva volume global de M&As ao patamar mais alto desde 2008

🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.


assessoria de investimentos M&A

A intensificação na corrida para garantir avanços e recursos de inteligência artificial (IA) fez com que o volume de M&As atingisse um outro patamar no primeiro trimestre deste ano. Fusões e aquisições realizadas no período alcançaram o volume de US$ 438 bilhões, um aumento de 155% em relação ao primeiro trimestre de 2025. Os números […]

O post A nova era dos “megadeals”: IA leva volume global de M&As ao patamar mais alto desde 2008 apareceu primeiro em NeoFeed.


Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.

Conteúdo original publicado em: Acesse a fonte oficial

Read More »

youtube jovem 1024x768

YouTube é pressionado por vídeos de IA para crianças

O Google passou a enfrentar pressão direta de especialistas em desenvolvimento infantil para restringir a presença de vídeos gerados por inteligência artificial (IA) voltados ao público infantil no YouTube e no YouTube Kids. A cobrança foi formalizada nesta quarta-feira (1º), em uma carta enviada ao CEO Sundar Pichai e ao chefe da plataforma, Neal Mohan.

O documento reúne mais de 200 assinaturas de pesquisadores, organizações e instituições, que apontam riscos associados à expansão acelerada desse tipo de conteúdo. Entre as principais preocupações estão impactos no desenvolvimento cognitivo, dificuldade de distinguir realidade de ficção e aumento do tempo de exposição às telas.

Uso de plataformas de vídeo por crianças está no centro de debates sobre conteúdo digital – Imagem: Kate Krav-Rude/Shutterstock

Carta propõe mudanças diretas na plataforma

Os signatários defendem uma série de medidas para limitar o alcance desses vídeos. Entre elas estão a proibição de conteúdos gerados por IA no YouTube Kids, a restrição de vídeos desse tipo marcados como “para crianças” na plataforma principal e o bloqueio de recomendações automáticas para menores de 18 anos.

A carta também sugere a criação de um controle parental específico para desativar conteúdos gerados por IA e a interrupção de investimentos na produção desse tipo de material voltado ao público infantil.

Segundo o documento, o crescimento do chamado “AI slop” — termo usado para conteúdos automatizados e de baixa qualidade — pode “distorcer a percepção de realidade” e “sobrecarregar os processos de aprendizagem” das crianças.

Impactos no desenvolvimento e no comportamento

Os especialistas afirmam que a exposição recorrente a vídeos gerados por IA pode dificultar a capacidade de crianças identificarem o que é real. O texto destaca que até adultos têm dificuldade em reconhecer conteúdos artificiais, o que ampliaria os riscos para o público infantil.

Outro ponto levantado é o possível impacto cognitivo negativo, já que conteúdos sem lógica clara podem gerar sobrecarga mental e prejudicar o aprendizado. Além disso, vídeos com ritmo acelerado, cores intensas e estímulos constantes seriam projetados para prender a atenção por longos períodos.

A carta também relaciona o consumo excessivo desses conteúdos à substituição de atividades essenciais, como interação social, sono e brincadeiras, fundamentais para o desenvolvimento emocional, físico e cognitivo.

YouTube defende políticas atuais

Procurado pela Bloomberg, o YouTube afirmou que mantém padrões elevados para conteúdos infantis e que limita vídeos gerados por IA no YouTube Kids a um conjunto reduzido de canais considerados de alta qualidade.

“Temos altos padrões para conteúdos no YouTube Kids, incluindo a limitação de conteúdo gerado por IA a um pequeno conjunto de canais de alta qualidade”, disse o porta-voz Boot Bullwinkle, em declaração ao site norte-americano.

Fachada de prédio com logotipo do YouTube em destaque.
YouTube é uma das principais plataformas de vídeo do mundo – Imagem: Alex Yeung / Shutterstock

Ele acrescentou que a plataforma prioriza transparência, com identificação de conteúdos criados com IA, e que os pais podem bloquear canais. Segundo o porta-voz, conteúdos produzidos em massa e de baixa qualidade não são uma estratégia viável, já que os sistemas da plataforma penalizam esse tipo de prática.

Leia mais:

Debate ocorre em meio à expansão da IA

Vídeos gerados por inteligência artificial vêm ganhando espaço no YouTube, especialmente entre conteúdos voltados a crianças pequenas. Criadores têm utilizado ferramentas automatizadas para reduzir custos e ampliar a produção.

Apesar das medidas atuais, os especialistas defendem que a resposta da plataforma ainda é insuficiente diante da escala e da velocidade de crescimento desse tipo de conteúdo.

O post YouTube é pressionado por vídeos de IA para crianças apareceu primeiro em Olhar Digital.

YouTube é pressionado por vídeos de IA para crianças Read More »

Além da energia: data centers criam “ilhas de calor” e aumentam temperatura em até 9 °C

A expansão acelerada da inteligência artificial levantou um novo alerta ambiental que vai além do consumo de energia: as “ilhas de calor” geradas por data centers. Um novo estudo dirigido pelo professor Andrea Marinoni, da Universidade de Cambridge, no Reino Unido, indica que estas instalações estão alterando consideravelmente a temperatura da superfície em seu entorno.

Ao contrário de pesquisas anteriores focadas somente na pegada de carbono, este trabalho analisou dados térmicos obtidos por sensores remotos durante um período de 20 anos. O foco foram os “hyperscalers”, complexos gigantescos que abrigam milhares de servidores e que se multiplicaram globalmente na última década.

Calor além dos muros

Os pesquisadores monitoraram mais de 6 mil data centers localizados fora de zonas urbanas densas para isolar o calor gerado pelas máquinas de outros fatores, como a indústria ou o aquecimento residencial. Os resultados revelam um impacto térmico preocupante:

  • Aumento médio: a temperatura da superfície subiu, em média, 1,8 °C após a inauguração de um centro de processamento.
  • Picos extremos: em casos específicos, o aquecimento detectado chegou a 9,1 °C.
  • Efeito regional: na região de Bahio (México) e em Aragão (Espanha), os termômetros subiram cerca de 3,6 °C, um padrão não observado em áreas vizinhas sem essas instalações.

O ponto mais crítico da pesquisa é a área de abrangência. O aquecimento não se limita ao terreno da empresa, estendendo-se por um raio de até 10 quilômetros. Esse fenômeno afeta diretamente o bem-estar de aproximadamente 340 milhões de pessoas ao redor do mundo.

A “corrida do ouro” da IA

Para especialistas ouvidos pela RTP, o desenvolvimento tecnológico está atropelando as metas ambientais. Deborah Andrews, professora de Design Sustentável na London South Bank University, afirma que a atual “corrida do ouro” pela IA está se sobrepondo às boas práticas e ao pensamento sistêmico.

Embora o estudo tenha acendido um sinal vermelho, parte da comunidade científica pede cautela. Ralph Hindeman, do Borderstep Institute, considera os valores de impacto “muito elevados” e defende que mais investigações são necessárias para confirmar se o calor direto é, de fato, uma ameaça maior que as emissões de CO₂ geradas pela produção da energia que alimenta esses centros.

O estudo, que ainda passará por revisão por pares, busca abrir um debate sobre como conciliar a demanda crescente por processamento de dados com a preservação climática. Segundo Marinoni, ainda há tempo para considerar caminhos que não prejudiquem o progresso da humanidade.

O post Além da energia: data centers criam “ilhas de calor” e aumentam temperatura em até 9 °C apareceu primeiro em Olhar Digital.

Além da energia: data centers criam “ilhas de calor” e aumentam temperatura em até 9 °C Read More »

cerebro 1024x576

A IA está “fritando” nossos cérebros?

Cada vez mais presente na rotina humana, a inteligência artificial e seu uso excessivo podem estar gerando um novo tipo de cansaço. Um estudo da Boston Consulting Group, citado em reportagem do TechXplore, acompanhou cerca de 1.488 profissionais nos Estados Unidos e identificou uma condição chamada “brain fry” (na tradução livre – fritura cerebral), uma espécie de esgotamento mental associado ao uso intensivo de IA.

Para quem tem pressa:

  • Uso intenso de IA pode gerar “brain fry”, uma nova forma de fadiga mental ligada à sobrecarga cognitiva;
  • Profissionais relatam maior desgaste ao lidar com múltiplas ferramentas e revisar conteúdos gerados por IA;
  • Impacto depende do uso: IA pode aliviar tarefas repetitivas, mas aumenta o cansaço quando amplia a carga de trabalho.

O que é o “brain fry”?

Imagem: nobeastsofierce / Shutterstock

O estudo definiu esse esgotamento de “fritura cerebral” como resultado da sobrecarga na tentativa de acompanhar e “dominar” a inteligência artificial. Entre os relatos, principalmente de programadores e desenvolvedores de software, estão muitas linhas de código para analisar, diversos assistentes de IA para gerenciar e longos prompts para redigir.

“A cruel ironia é que o código gerado por IA exige uma revisão mais cuidadosa do que o código escrito por humanos“, escreveu o engenheiro de software Siddhant Khare em seu blog.

Essa demanda, que implica longas horas de desgaste, tem se tornado um problema para profissionais de tecnologia. Segundo o TechXplore, Ben Wigler, cofundador da startup LoveMind AI, afirmou que as equipes têm apresentado jornadas de trabalho cada vez maiores, ampliando o cansaço.

Leia mais:

Ainda em seu blog, Siddhant Khare contou que já passou 15 horas consecutivas para adequar 25 mil linhas de código e relatou um cansaço extremo, além de irritabilidade que afetou seu descanso e condição mental. “Percebi que meu nível de dopamina estava baixo porque eu estava irritado e não queria responder a perguntas básicas sobre o meu dia”, comentou.

Sindrome De Burnout 1024x576
Imagem: Shutterstock/PEERAWICH PHAISITSAWAN

Por outro lado, o estudo da Boston Consulting Group identificou que o número de burnout diminuiu entre trabalhadores que passaram a utilizar a IA em tarefas repetitivas. A análise, portanto, demonstra um paradoxo entre quem utiliza a tecnologia como apoio e quem precisa lidar diretamente com sua complexidade.

Na conclusão, Wigler afirmou que sua expectativa sobre o futuro da programação de IA não é positiva: além de não ser saudável, o cenário também pode comprometer a qualidade do trabalho a longo prazo.

O post A IA está “fritando” nossos cérebros? apareceu primeiro em Olhar Digital.

A IA está “fritando” nossos cérebros? Read More »