inteligência artificial

Auto Added by WPeMatico

microsoft copilot 1024x576

Microsoft foca em superinteligência e lança novo modelo de voz

A Microsoft está redirecionando parte de sua estratégia em inteligência artificial (IA) sob a liderança de Mustafa Suleyman, atual CEO de IA da empresa. Após uma reestruturação anunciada em meados de março, o executivo transferiu algumas responsabilidades e passou a concentrar seus esforços no desenvolvimento de superinteligência.

Segundo Suleyman, essa mudança já vinha sendo planejada há meses e ganhou tração após a renegociação do contrato com a OpenAI. “Esse tem sido um plano de longa data”, afirmou. Para ele, o conceito de superinteligência está diretamente ligado à capacidade de modelos entregarem valor prático para empresas e usuários.

Embora termos como superinteligência e inteligência geral artificial (AGI) ainda tenham definições em aberto na indústria, o executivo afirma que o foco da Microsoft está em aplicações concretas. A meta é atender desenvolvedores, empresas e consumidores com modelos de linguagem capazes de gerar resultados em escala.

Novo modelo de transcrição

A Microsoft apresentou o MAI-Transcribe-1, um modelo de transcrição que, segundo a empresa, avança no reconhecimento de fala. De acordo com Suleyman, a tecnologia opera com cerca de metade do custo de GPU em comparação com outros modelos de ponta, o que representa economia operacional.

O modelo foi desenvolvido para lidar com condições adversas de áudio, como ruído de fundo, baixa qualidade e sobreposição de falas. Ele é capaz de transcrever reuniões, gerar legendas para vídeos e analisar interações em call centers em 25 idiomas.

O treinamento envolveu uma combinação de transcrições revisadas por humanos e conteúdos gerados por máquinas. Os dados incluem gravações em estúdios controlados, além de áudios captados em ambientes com ruído, como ruas movimentadas e cenários domésticos, além de dados públicos disponíveis na internet.

Estratégia e desenvolvimento

A reestruturação da Microsoft também unificou equipes voltadas para consumidores e empresas sob a marca Copilot. Com isso, parte das operações passou a ser liderada por Jacob Andreou, enquanto Suleyman direciona seu foco para o desenvolvimento de novos modelos de fronteira.

Microsoft unificou equipes voltadas para consumidores sob a marca Copilot – Imagem: Mijansk786 / Shutterstock

O MAI-Transcribe-1 passa a integrar o portfólio da empresa ao lado dos modelos MAI-Voice-1 e MAI-Image-2, disponíveis na plataforma Microsoft Foundry e no novo Microsoft AI Playground. Segundo a empresa, é a primeira vez que esses modelos estão amplamente disponíveis para uso comercial.

Suleyman atribui parte do desempenho do novo modelo a uma equipe reduzida, com cerca de dez pessoas, dedicada exclusivamente ao desenvolvimento. Segundo ele, o grupo opera com menos interferência burocrática, enquanto outras equipes dão suporte em tarefas como coleta de dados e gestão de fornecedores.

Leia mais:

Visão para o futuro

A estratégia da Microsoft também acompanha movimentos de outras empresas do setor, como Meta, Amazon e Google, que vêm testando estruturas organizacionais mais enxutas para acelerar o desenvolvimento de IA.

Suleyman afirma que o objetivo é criar sistemas de IA centrados no usuário. “Todos terão um assistente de IA no bolso, de classe mundial, responsável e alinhado aos seus interesses”, disse. A proposta, segundo ele, é oferecer ferramentas que atuem diretamente em benefício dos usuários.

O post Microsoft foca em superinteligência e lança novo modelo de voz apareceu primeiro em Olhar Digital.

Microsoft foca em superinteligência e lança novo modelo de voz Read More »

Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA”

A ideia de receber ordens de um algoritmo em vez de um ser humano pode se tornar realidade no mercado de trabalho. De acordo com uma pesquisa recente da Universidade Quinnipiac, divulgada no fim de março de 2026, 15% dos norte-americanos afirmam que estariam dispostos a trabalhar em um emprego em que seu supervisor direto fosse um programa de inteligência artificial (IA).

Embora a vasta maioria (80%) ainda rejeite a ideia de ter a rotina e as tarefas coordenadas por uma máquina, os dados revelam uma mudança de comportamento. O levantamento, que ouviu quase 1.400 adultos, mostra que a aceitação da IA em cargos de liderança começa a ganhar tração, especialmente em funções focadas em produtividade, como a atribuição de tarefas e a definição de cronogramas.

O fim da média gerência?

A disposição de parte dos trabalhadores em aceitar um “chefe robô” coincide com um movimento corporativo que especialistas estão chamando de “The Great Flattening” (ou “O Grande Achatamento”). Segundo análise do portal TechCrunch, empresas de tecnologia já estão utilizando agentes de IA para eliminar camadas intermediárias de gestão, tornando as organizações mais “leves” e diretas.

Exemplos práticos desse movimento já aparecem em gigantes do setor:

  • Amazon: implementou fluxos de trabalho automatizados para substituir responsabilidades que antes cabiam a gerentes médios.
  • Workday: lançou agentes de IA capazes de registrar e aprovar relatórios de despesas de funcionários sem intervenção humana.
  • Uber: engenheiros chegaram a criar um modelo de IA do próprio CEO, Dara Khosrowshahi, para avaliar propostas antes de reuniões presenciais.

Eficiência operacional vs. medo do desemprego

O paradoxo da IA na gestão fica evidente no contraste entre a eficiência e a segurança profissional. O estudo da Quinnipiac aponta que 70% dos entrevistados acreditam que os avanços da tecnologia levarão a uma redução geral nas oportunidades de emprego.

Curiosamente, existe uma desconexão entre a percepção do mercado e a segurança individual: enquanto a maioria prevê um cenário difícil para todos, apenas 30% dos profissionais empregados temem que a IA possa tornar seus cargos específicos obsoletos.

Para a Dra. A Dra. Tamilla Triantoro, professora da Escola de Negócios da Universidade Quinnipiac, afirma que essa tendência indica que o público aceita a IA como uma ferramenta de mercado, mas ainda luta para entender como ela afetará sua própria trajetória de carreira.

O futuro da supervisão

A resistência à supervisão automatizada também está ligada à falta de clareza das empresas. A pesquisa revela que 76% dos americanos sentem que as organizações não são transparentes o suficiente sobre como utilizam a IA.

O relatório conclui que, para que a aceitação de um “chefe de IA” cresça, será necessário mais do que apenas algoritmos eficientes: o mercado exige regulamentação governamental e diretrizes éticas claras, algo que 74% dos participantes sentem que ainda falta por parte das autoridades.

O post Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA” apareceu primeiro em Olhar Digital.

Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA” Read More »

scientist looking at 202603302215 1024x576

Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa

O uso de ferramentas de inteligência artificial está em alta nos Estados Unidos, mas a confiança do público não acompanha esse crescimento. Uma pesquisa recente da Quinnipiac University revela um cenário contraditório: mais pessoas utilizam IA no dia a dia, mas a maioria ainda desconfia dos resultados gerados.

Segundo o levantamento, que ouviu cerca de 1.400 americanos, 76% afirmam confiar pouco ou apenas ocasionalmente nas respostas fornecidas por sistemas de IA. Apenas 21% dizem confiar na tecnologia na maior parte do tempo, evidenciando um gap significativo entre adoção e credibilidade.

Adoção aumenta, mas percepção segue negativa

Mesmo com a desconfiança, o uso de IA continua avançando. Apenas 27% dos entrevistados disseram nunca ter utilizado ferramentas do tipo, uma queda em relação aos 33% registrados em 2025. A tecnologia já faz parte de atividades como pesquisa, produção de textos, projetos profissionais e análise de dados.

Pesquisa da Quinnipiac University mostra que apenas 21% confiam na IA na maior parte do tempo, revelando um descompasso entre adoção e credibilidade. (ChatGPT / Olhar Digital)

O dado mais revelador está na contradição: 51% dos entrevistados usam IA para pesquisa, mas poucos consideram os resultados confiáveis. Esse comportamento sugere uma relação pragmática, em que a tecnologia é útil, mas ainda vista com cautela.

Entre os principais usos da IA apontados na pesquisa estão:

  • Pesquisa e busca de informações;
  • Produção de textos e conteúdos;
  • Apoio em atividades de trabalho;
  • Análise de dados;
  • Tarefas acadêmicas.

Preocupações superam o entusiasmo

O estudo também mostra que o entusiasmo com a inteligência artificial é limitado. Apenas 6% dos entrevistados disseram estar muito animados com a tecnologia, enquanto 62% afirmam não estar empolgados ou estarem pouco interessados.

O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock)
O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock) – O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock)

Quando o assunto é preocupação, os números se invertem. Cerca de 80% dizem estar muito ou moderadamente preocupados com os impactos da IA. Entre os mais apreensivos estão millennials e baby boomers, com a geração Z logo atrás.

Essa percepção negativa também aparece na avaliação do impacto da tecnologia no cotidiano. Mais da metade dos entrevistados acredita que a IA trará mais prejuízos do que benefícios em suas vidas diárias, enquanto apenas um terço vê efeitos positivos predominantes.

Infraestrutura de IA também enfrenta resistência

Outro ponto relevante da pesquisa envolve a infraestrutura necessária para sustentar o avanço da IA. A construção de data centers, essenciais para operar modelos avançados, enfrenta forte rejeição pública.

Leia mais:

Cerca de 65% dos entrevistados disseram que não gostariam de ter um centro de dados instalado em suas comunidades. Entre as principais preocupações estão o alto consumo de energia elétrica e o uso intensivo de água, fatores que impactam diretamente o custo de vida e o meio ambiente.

O cenário indica que, apesar do avanço tecnológico, a aceitação social da inteligência artificial ainda depende de fatores como transparência, segurança e impacto ambiental.

O post Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa apareceu primeiro em Olhar Digital.

Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa Read More »

youtube jovem 1024x768

YouTube é pressionado por vídeos de IA para crianças

O Google passou a enfrentar pressão direta de especialistas em desenvolvimento infantil para restringir a presença de vídeos gerados por inteligência artificial (IA) voltados ao público infantil no YouTube e no YouTube Kids. A cobrança foi formalizada nesta quarta-feira (1º), em uma carta enviada ao CEO Sundar Pichai e ao chefe da plataforma, Neal Mohan.

O documento reúne mais de 200 assinaturas de pesquisadores, organizações e instituições, que apontam riscos associados à expansão acelerada desse tipo de conteúdo. Entre as principais preocupações estão impactos no desenvolvimento cognitivo, dificuldade de distinguir realidade de ficção e aumento do tempo de exposição às telas.

Uso de plataformas de vídeo por crianças está no centro de debates sobre conteúdo digital – Imagem: Kate Krav-Rude/Shutterstock

Carta propõe mudanças diretas na plataforma

Os signatários defendem uma série de medidas para limitar o alcance desses vídeos. Entre elas estão a proibição de conteúdos gerados por IA no YouTube Kids, a restrição de vídeos desse tipo marcados como “para crianças” na plataforma principal e o bloqueio de recomendações automáticas para menores de 18 anos.

A carta também sugere a criação de um controle parental específico para desativar conteúdos gerados por IA e a interrupção de investimentos na produção desse tipo de material voltado ao público infantil.

Segundo o documento, o crescimento do chamado “AI slop” — termo usado para conteúdos automatizados e de baixa qualidade — pode “distorcer a percepção de realidade” e “sobrecarregar os processos de aprendizagem” das crianças.

Impactos no desenvolvimento e no comportamento

Os especialistas afirmam que a exposição recorrente a vídeos gerados por IA pode dificultar a capacidade de crianças identificarem o que é real. O texto destaca que até adultos têm dificuldade em reconhecer conteúdos artificiais, o que ampliaria os riscos para o público infantil.

Outro ponto levantado é o possível impacto cognitivo negativo, já que conteúdos sem lógica clara podem gerar sobrecarga mental e prejudicar o aprendizado. Além disso, vídeos com ritmo acelerado, cores intensas e estímulos constantes seriam projetados para prender a atenção por longos períodos.

A carta também relaciona o consumo excessivo desses conteúdos à substituição de atividades essenciais, como interação social, sono e brincadeiras, fundamentais para o desenvolvimento emocional, físico e cognitivo.

YouTube defende políticas atuais

Procurado pela Bloomberg, o YouTube afirmou que mantém padrões elevados para conteúdos infantis e que limita vídeos gerados por IA no YouTube Kids a um conjunto reduzido de canais considerados de alta qualidade.

“Temos altos padrões para conteúdos no YouTube Kids, incluindo a limitação de conteúdo gerado por IA a um pequeno conjunto de canais de alta qualidade”, disse o porta-voz Boot Bullwinkle, em declaração ao site norte-americano.

Fachada de prédio com logotipo do YouTube em destaque.
YouTube é uma das principais plataformas de vídeo do mundo – Imagem: Alex Yeung / Shutterstock

Ele acrescentou que a plataforma prioriza transparência, com identificação de conteúdos criados com IA, e que os pais podem bloquear canais. Segundo o porta-voz, conteúdos produzidos em massa e de baixa qualidade não são uma estratégia viável, já que os sistemas da plataforma penalizam esse tipo de prática.

Leia mais:

Debate ocorre em meio à expansão da IA

Vídeos gerados por inteligência artificial vêm ganhando espaço no YouTube, especialmente entre conteúdos voltados a crianças pequenas. Criadores têm utilizado ferramentas automatizadas para reduzir custos e ampliar a produção.

Apesar das medidas atuais, os especialistas defendem que a resposta da plataforma ainda é insuficiente diante da escala e da velocidade de crescimento desse tipo de conteúdo.

O post YouTube é pressionado por vídeos de IA para crianças apareceu primeiro em Olhar Digital.

YouTube é pressionado por vídeos de IA para crianças Read More »

Além da energia: data centers criam “ilhas de calor” e aumentam temperatura em até 9 °C

A expansão acelerada da inteligência artificial levantou um novo alerta ambiental que vai além do consumo de energia: as “ilhas de calor” geradas por data centers. Um novo estudo dirigido pelo professor Andrea Marinoni, da Universidade de Cambridge, no Reino Unido, indica que estas instalações estão alterando consideravelmente a temperatura da superfície em seu entorno.

Ao contrário de pesquisas anteriores focadas somente na pegada de carbono, este trabalho analisou dados térmicos obtidos por sensores remotos durante um período de 20 anos. O foco foram os “hyperscalers”, complexos gigantescos que abrigam milhares de servidores e que se multiplicaram globalmente na última década.

Calor além dos muros

Os pesquisadores monitoraram mais de 6 mil data centers localizados fora de zonas urbanas densas para isolar o calor gerado pelas máquinas de outros fatores, como a indústria ou o aquecimento residencial. Os resultados revelam um impacto térmico preocupante:

  • Aumento médio: a temperatura da superfície subiu, em média, 1,8 °C após a inauguração de um centro de processamento.
  • Picos extremos: em casos específicos, o aquecimento detectado chegou a 9,1 °C.
  • Efeito regional: na região de Bahio (México) e em Aragão (Espanha), os termômetros subiram cerca de 3,6 °C, um padrão não observado em áreas vizinhas sem essas instalações.

O ponto mais crítico da pesquisa é a área de abrangência. O aquecimento não se limita ao terreno da empresa, estendendo-se por um raio de até 10 quilômetros. Esse fenômeno afeta diretamente o bem-estar de aproximadamente 340 milhões de pessoas ao redor do mundo.

A “corrida do ouro” da IA

Para especialistas ouvidos pela RTP, o desenvolvimento tecnológico está atropelando as metas ambientais. Deborah Andrews, professora de Design Sustentável na London South Bank University, afirma que a atual “corrida do ouro” pela IA está se sobrepondo às boas práticas e ao pensamento sistêmico.

Embora o estudo tenha acendido um sinal vermelho, parte da comunidade científica pede cautela. Ralph Hindeman, do Borderstep Institute, considera os valores de impacto “muito elevados” e defende que mais investigações são necessárias para confirmar se o calor direto é, de fato, uma ameaça maior que as emissões de CO₂ geradas pela produção da energia que alimenta esses centros.

O estudo, que ainda passará por revisão por pares, busca abrir um debate sobre como conciliar a demanda crescente por processamento de dados com a preservação climática. Segundo Marinoni, ainda há tempo para considerar caminhos que não prejudiquem o progresso da humanidade.

O post Além da energia: data centers criam “ilhas de calor” e aumentam temperatura em até 9 °C apareceu primeiro em Olhar Digital.

Além da energia: data centers criam “ilhas de calor” e aumentam temperatura em até 9 °C Read More »

cerebro 1024x576

A IA está “fritando” nossos cérebros?

Cada vez mais presente na rotina humana, a inteligência artificial e seu uso excessivo podem estar gerando um novo tipo de cansaço. Um estudo da Boston Consulting Group, citado em reportagem do TechXplore, acompanhou cerca de 1.488 profissionais nos Estados Unidos e identificou uma condição chamada “brain fry” (na tradução livre – fritura cerebral), uma espécie de esgotamento mental associado ao uso intensivo de IA.

Para quem tem pressa:

  • Uso intenso de IA pode gerar “brain fry”, uma nova forma de fadiga mental ligada à sobrecarga cognitiva;
  • Profissionais relatam maior desgaste ao lidar com múltiplas ferramentas e revisar conteúdos gerados por IA;
  • Impacto depende do uso: IA pode aliviar tarefas repetitivas, mas aumenta o cansaço quando amplia a carga de trabalho.

O que é o “brain fry”?

Imagem: nobeastsofierce / Shutterstock

O estudo definiu esse esgotamento de “fritura cerebral” como resultado da sobrecarga na tentativa de acompanhar e “dominar” a inteligência artificial. Entre os relatos, principalmente de programadores e desenvolvedores de software, estão muitas linhas de código para analisar, diversos assistentes de IA para gerenciar e longos prompts para redigir.

“A cruel ironia é que o código gerado por IA exige uma revisão mais cuidadosa do que o código escrito por humanos“, escreveu o engenheiro de software Siddhant Khare em seu blog.

Essa demanda, que implica longas horas de desgaste, tem se tornado um problema para profissionais de tecnologia. Segundo o TechXplore, Ben Wigler, cofundador da startup LoveMind AI, afirmou que as equipes têm apresentado jornadas de trabalho cada vez maiores, ampliando o cansaço.

Leia mais:

Ainda em seu blog, Siddhant Khare contou que já passou 15 horas consecutivas para adequar 25 mil linhas de código e relatou um cansaço extremo, além de irritabilidade que afetou seu descanso e condição mental. “Percebi que meu nível de dopamina estava baixo porque eu estava irritado e não queria responder a perguntas básicas sobre o meu dia”, comentou.

Sindrome De Burnout 1024x576
Imagem: Shutterstock/PEERAWICH PHAISITSAWAN

Por outro lado, o estudo da Boston Consulting Group identificou que o número de burnout diminuiu entre trabalhadores que passaram a utilizar a IA em tarefas repetitivas. A análise, portanto, demonstra um paradoxo entre quem utiliza a tecnologia como apoio e quem precisa lidar diretamente com sua complexidade.

Na conclusão, Wigler afirmou que sua expectativa sobre o futuro da programação de IA não é positiva: além de não ser saudável, o cenário também pode comprometer a qualidade do trabalho a longo prazo.

O post A IA está “fritando” nossos cérebros? apareceu primeiro em Olhar Digital.

A IA está “fritando” nossos cérebros? Read More »

mcp connectors hero 1024x576

Opera integra ChatGPT, Claude e outras IAs ao navegador Neon

A Opera anunciou nesta terça-feira (31) o lançamento do MCP Connector para o Opera Neon, navegador com foco em inteligência artificial (IA) agêntica da empresa. A novidade permite integrar ferramentas de inteligência artificial diretamente ao ambiente de navegação, com acesso ao contexto em tempo real e execução de ações dentro do próprio software.

Segundo a companhia, a tecnologia é baseada no Model Context Protocol (MCP) e busca resolver um problema recorrente no uso de IA: a necessidade de alternar entre diferentes plataformas. Com a atualização, o navegador passa a funcionar como uma camada de execução de IA, conectando ferramentas externas ao fluxo de trabalho já em andamento.

Integração direta com agentes de IA

Com o MCP Connector, o Opera Neon passa a oferecer suporte a agentes de IA de terceiros, permitindo que soluções como ChatGPT, Claude, Lovable, OpenClaw e n8n operem diretamente na sessão ativa do usuário.

Diferente de outras abordagens que utilizam ambientes simulados, o navegador permite que essas ferramentas atuem na sessão real, com acesso a abas abertas, conteúdos de páginas e sessões autenticadas. Isso elimina etapas como copiar e colar informações ou reexplicar contextos ao alternar entre serviços.

MCP Connectors permite a conexão do Opera Neon com agentes de IA de terceiros (Imagem: Divulgação / Opera)

“No ano passado, lançamos o Browser Operator como um primeiro passo em direção a um navegador agêntico. Agora estamos abrindo essas capacidades para clientes de IA externos por meio do MCP, para que possam atuar diretamente dentro do navegador, não fora dele”, afirma Monika Kurczyńska, Diretora de P&D para IA de navegador na Opera.

Execução de tarefas dentro do navegador

Ao expor um endpoint baseado no MCP, o Opera Neon permite que ferramentas conectadas executem ações diretamente no navegador. Entre as funcionalidades disponíveis estão navegação por páginas, extração de informações, captura de screenshots, preenchimento de formulários, abertura de abas e buscas.

A proposta é tornar os fluxos mais fluidos, reduzindo a fricção entre o uso de IA e a navegação tradicional. De acordo com a empresa, essa integração amplia o ecossistema do navegador e cria uma plataforma aberta para inovação em IA aplicada ao browsing.

Casos de uso e aplicações

A Opera destaca que a novidade pode ser aplicada em diferentes cenários, como desenvolvimento, prototipagem e automação. Desenvolvedores já utilizam ferramentas como Claude Code para testar aplicações em ambientes reais de navegação.

Outras plataformas, como Lovable, permitem a criação de interfaces a partir de páginas ao vivo, enquanto soluções como n8n e assistentes como o ChatGPT podem incorporar ações do navegador em fluxos automatizados.

“O navegador é onde os fluxos de trabalho vivem, mas a IA estava desconectada dele. Com o Opera Neon, conectamos clientes de IA populares diretamente a um navegador agêntico, permitindo que operem onde os usuários já trabalham, sem precisar recriar contextos”, completa Kurczyńska.

Leia mais:

Segurança e disponibilidade

Para garantir segurança e estabilidade, o MCP Connector utiliza autenticação via URL segura de servidor MCP e uma camada de proxy persistente, que mantém a conexão ativa e informa quando o navegador não está disponível.

O recurso já está disponível para assinantes do Opera Neon. A empresa também informou que pretende lançar uma versão simplificada do conector para os navegadores Opera One e Opera GX, ampliando o acesso à funcionalidade em seu portfólio.

O post Opera integra ChatGPT, Claude e outras IAs ao navegador Neon apareceu primeiro em Olhar Digital.

Opera integra ChatGPT, Claude e outras IAs ao navegador Neon Read More »

OpenAI lança guias no Brasil para uso seguro de IA por adolescentes

A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira (30) o lançamento de dois guias inéditos em português voltados à segurança digital de jovens no Brasil. Os materiais foram desenvolvidos para auxiliar pais, adolescentes e educadores a utilizarem a inteligência artificial (IA) de maneira responsável, diminuindo riscos e aproveitando o potencial educativo da tecnologia.

O Brasil é o primeiro país fora do eixo de língua inglesa a receber esses recursos. A adaptação para o contexto nacional contou com a curadoria científica do Dr. Cristiano Nabuco de Abreu, psicólogo e referência em saúde mental no país, além de uma parceria com a editora Artmed.

Foco em segurança e controle parental

Os guias detalham as ferramentas de proteção já existentes no ChatGPT, como filtros contra conteúdos violentos ou que promovam padrões de beleza nocivos. Um dos pontos centrais da iniciativa é o reforço dos Controles Parentais, que permitem aos responsáveis:

  • Definir limites de tempo de uso;
  • Monitorar configurações de privacidade;
  • Estabelecer camadas adicionais de proteção adequadas à idade do jovem.

De acordo com Rafaela Nicolazzi, executiva brasileira e Líder de Dados, Privacidade & Proteção do Consumidor da OpenAI, o objetivo é que o empoderamento tecnológico e a proteção caminhem juntos, oferecendo informações claras em uma linguagem acessível para quem não é especialista na área.

Conheça os dois manuais lançados

A iniciativa se divide em dois materiais com focos complementares, disponíveis gratuitamente para download:

1. Guia para famílias e uso responsável

Este documento explica os fundamentos técnicos da IA de forma simples. Ele aborda desde como os modelos são treinados até a importância de verificar informações, já que a IA pode cometer erros (as chamadas “alucinações”). Também ensina a escrever prompts (comandos) melhores e a gerenciar a privacidade dos dados.

2. Dicas para diálogo com adolescentes

Focado no comportamento e na saúde mental, este guia oferece sugestões de como iniciar conversas sobre os limites da tecnologia. O texto incentiva o pensamento crítico e orienta como lidar com temas sensíveis e o bem-estar emocional diante do avanço das ferramentas digitais.

Como baixar os materiais

A parceria com a Artmed visa levar esse conhecimento também aos consultórios. Para o Dr. Cristiano Nabuco, é fundamental que profissionais de saúde saibam orientar as famílias sobre os impactos da IA no dia a dia clínico.

Os materiais podem ser acessados diretamente no portal de Recursos para Famílias da OpenAI ou no site oficial da Artmed.

O post OpenAI lança guias no Brasil para uso seguro de IA por adolescentes apareceu primeiro em Olhar Digital.

OpenAI lança guias no Brasil para uso seguro de IA por adolescentes Read More »

suno 1024x682

Músicas geradas por IA avançam e desafiam plataformas

A inteligência artificial (IA) já está presente em diferentes etapas da indústria da música, da criação de samples e gravação de demos à organização de playlists e conteúdos digitais. Esse avanço vem acompanhado de desafios técnicos, disputas legais e debates sobre o impacto da tecnologia na produção artística e no trabalho de músicos profissionais.

Ao mesmo tempo, novos lançamentos, decisões de plataformas e casos recentes mostram como o uso de IA na música evolui rapidamente, com efeitos diretos sobre criação, distribuição e monetização.

Suno aposta em mais controle com atualização v5.5

A Suno lançou uma das suas atualizações mais relevantes com a versão 5.5 do seu modelo de geração musical por IA. Diferente de versões anteriores, que focavam na melhoria da qualidade sonora e em vocais mais naturais, a nova versão prioriza dar mais controle ao usuário.

Suno é destaque no setor de geração de músicas com IA (Imagem: Ralf Liebhold / Shutterstock.com)

A atualização traz três recursos principais: Voices, My Taste e Custom Models. Segundo a empresa, o Voices é o recurso mais solicitado e permite treinar o modelo com a própria voz do usuário. Para isso, é possível enviar acapellas, faixas completas ou gravar diretamente pelo microfone de um dispositivo.

A qualidade da gravação influencia diretamente a quantidade de dados necessários para o treinamento. Como medida de proteção, a plataforma exige que o usuário fale uma frase de verificação, embora exista a possibilidade de contornar esse sistema com modelos de voz já disponíveis.

Indústria adota postura discreta sobre uso de IA

O uso de inteligência artificial na música tem avançado sem grande transparência. Na prática, a indústria passou a adotar uma abordagem informal de “não pergunte, não conte”, com artistas de diferentes gêneros utilizando IA em etapas como experimentação de arranjos, criação de demos e produção de samples.

A compositora Michelle Lewis afirmou à Rolling Stone que há resistência em admitir o uso da tecnologia. Já o produtor Young Guru avalia que a prática é mais disseminada do que parece, especialmente no hip-hop. Segundo ele, tornou-se comum criar samples de funk e soul com IA em vez de licenciar músicas originais ou contratar músicos, estimando que “mais da metade” do hip-hop baseado em samples siga esse caminho.

Caso de fraude expõe riscos do modelo

O avanço da IA também abriu espaço para esquemas fraudulentos. Um exemplo recente envolve Michael Smith, da Carolina do Norte, que se declarou culpado por criar centenas de milhares de músicas geradas por IA e utilizar bots para reproduzi-las bilhões de vezes.

De acordo com o Departamento de Justiça dos EUA, o esquema rendeu mais de US$ 8 milhões em royalties. O caso evidencia como ferramentas de geração automática podem ser exploradas para manipular plataformas de streaming.

Plataformas ampliam medidas de transparência

Diante do crescimento do conteúdo gerado por IA, serviços de streaming começaram a implementar mecanismos de identificação. A Apple Music passou a adotar um sistema opcional de “Transparency Tags”, que permite classificar conteúdos conforme o uso de inteligência artificial.

O sistema inclui quatro categorias: faixa, composição, arte visual e videoclipe. A etiqueta de faixa deve ser aplicada quando uma parte relevante da gravação foi gerada por IA, enquanto a de composição cobre elementos como letras. Já a de arte visual vale para imagens no nível do álbum, e a de videoclipe para outros conteúdos visuais.

Outras plataformas seguem caminhos semelhantes. A Qobuz passou a detectar e rotular automaticamente músicas geradas por IA, acompanhando um movimento iniciado anteriormente pela Deezer. A empresa também divulgou uma carta de princípios afirmando que sua curadoria continuará sendo humana, sem banir completamente esse tipo de conteúdo.

Bandcamp adota posição mais rígida

Entre as principais plataformas, o Bandcamp tomou a decisão mais restritiva até agora. A empresa anunciou a proibição de conteúdos gerados total ou substancialmente por IA, incluindo materiais que imitam artistas ou estilos específicos.

Segundo as diretrizes, músicas que dependam fortemente de IA não são permitidas e podem ser removidas. A plataforma também incentiva usuários a denunciarem conteúdos suspeitos.

Dificuldade em identificar músicas geradas por IA

A identificação de músicas criadas por IA ainda é um desafio. Um estudo conduzido pela Deezer em parceria com a Ipsos indicou que 97% das pessoas não conseguem diferenciar faixas geradas por IA de músicas feitas por humanos.

Apesar do número elevado, o resultado tem nuances. No experimento, participantes ouviam três músicas e precisavam acertar todas para serem considerados capazes de distinguir corretamente. Mesmo quem acertava duas era classificado como incapaz de identificar a diferença, o que impacta a interpretação do dado.

ia musical
A grande maioria das pessoas não consegue diferenciar músicas geradas por IA das feitas por humanos (Imagem: New Africa / Shutterstock.com)

Leia mais:

Debate sobre criação musical segue em aberto

O avanço da IA também levanta discussões sobre o conceito de criação artística. Um dos pontos em debate é se o uso de prompts para gerar músicas pode ser considerado um processo criativo ativo.

A questão se soma a outras, como direitos autorais envolvendo artistas gerados por IA e o papel da tecnologia na indústria. Com novos modelos, acordos e regulações em andamento, o cenário segue em transformação.

O post Músicas geradas por IA avançam e desafiam plataformas apareceu primeiro em Olhar Digital.

Músicas geradas por IA avançam e desafiam plataformas Read More »

claude chatgpt scaled e1772626568145 1024x577

Copilot ganha recurso que combina GPT e Claude

A Microsoft anunciou nesta segunda-feira (30) uma série de atualizações em seu assistente Copilot, com foco em ampliar o uso de inteligência artificial (IA) em fluxos de trabalho corporativos. Entre as novidades, a empresa revelou recursos que permitem utilizar múltiplos modelos de IA simultaneamente, além de disponibilizar o agente Copilot Cowork para um grupo inicial de clientes.

As mudanças fazem parte da estratégia da companhia para aumentar a adoção de suas ferramentas de IA em meio à concorrência crescente no setor. A iniciativa inclui melhorias voltadas à confiabilidade das respostas e à produtividade dos usuários, além da expansão do acesso a recursos experimentais por meio de seu programa Frontier.

Copilot agora tem recurso que combina IAs da Anthropic e OpenAI para gerar respostas mais confiáveis (Imagem: Tada Images / Shutterstock.com)

Uso combinado de modelos de IA

Um dos principais anúncios é o recurso chamado “Critique”, integrado ao agente Researcher do Copilot. Com ele, a ferramenta passa a combinar resultados de diferentes modelos de IA em uma única resposta.

Na prática, o sistema utiliza o modelo GPT, da OpenAI, para gerar o conteúdo inicial. Em seguida, o modelo Claude, da Anthropic, realiza uma revisão da resposta, avaliando aspectos como precisão e qualidade antes da entrega ao usuário.

Segundo Nicole Herskowitz, vice-presidente corporativa de Microsoft 365 e Copilot, a proposta vai além de apenas oferecer múltiplos modelos. “Os clientes passam a ter o benefício dos modelos trabalhando juntos”, afirmou em entrevista à Reuters.

A empresa também informou que pretende tornar esse fluxo bidirecional no futuro, permitindo que o GPT revise respostas geradas pelo Claude.

Redução de erros e ganho de produtividade

De acordo com a Microsoft, a abordagem com múltiplos modelos pode ajudar a reduzir alucinações de IA, termo usado quando sistemas geram informações incorretas. A expectativa é que o cruzamento entre diferentes modelos contribua para respostas mais confiáveis.

Além disso, a empresa afirma que o recurso pode acelerar tarefas e melhorar a qualidade das entregas, impactando diretamente a produtividade dos usuários.

Fachada de um prédio da Microsoft
Microsoft aposta em múltiplos modelos trabalhando juntos para fornecer menos alucinações e respostas mais confiáveis (Imagem: Skorzewiak/Shutterstock)

Comparação entre respostas de IA

Outra novidade é o “Model Council”, funcionalidade que permite comparar respostas de diferentes modelos lado a lado. A ideia é dar mais transparência e controle ao usuário na escolha da melhor resposta para cada contexto.

Esse tipo de comparação também pode ajudar equipes a entender melhor o comportamento de diferentes modelos em tarefas específicas.

Leia mais:

Copilot Cowork chega a mais usuários

A Microsoft também anunciou a ampliação do acesso ao Copilot Cowork, ferramenta baseada no Claude Cowork, da Anthropic. O recurso havia sido apresentado em fase de testes no início do mês e agora passa a ser disponibilizado para usuários do programa Frontier.

Esse programa oferece acesso antecipado a funcionalidades experimentais da empresa, permitindo que clientes testem novas soluções antes do lançamento mais amplo.

O post Copilot ganha recurso que combina GPT e Claude apareceu primeiro em Olhar Digital.

Copilot ganha recurso que combina GPT e Claude Read More »