mcp connectors hero 1024x576

Opera integra ChatGPT, Claude e outras IAs ao navegador Neon

A Opera anunciou nesta terça-feira (31) o lançamento do MCP Connector para o Opera Neon, navegador com foco em inteligência artificial (IA) agêntica da empresa. A novidade permite integrar ferramentas de inteligência artificial diretamente ao ambiente de navegação, com acesso ao contexto em tempo real e execução de ações dentro do próprio software.

Segundo a companhia, a tecnologia é baseada no Model Context Protocol (MCP) e busca resolver um problema recorrente no uso de IA: a necessidade de alternar entre diferentes plataformas. Com a atualização, o navegador passa a funcionar como uma camada de execução de IA, conectando ferramentas externas ao fluxo de trabalho já em andamento.

Integração direta com agentes de IA

Com o MCP Connector, o Opera Neon passa a oferecer suporte a agentes de IA de terceiros, permitindo que soluções como ChatGPT, Claude, Lovable, OpenClaw e n8n operem diretamente na sessão ativa do usuário.

Diferente de outras abordagens que utilizam ambientes simulados, o navegador permite que essas ferramentas atuem na sessão real, com acesso a abas abertas, conteúdos de páginas e sessões autenticadas. Isso elimina etapas como copiar e colar informações ou reexplicar contextos ao alternar entre serviços.

MCP Connectors permite a conexão do Opera Neon com agentes de IA de terceiros (Imagem: Divulgação / Opera)

“No ano passado, lançamos o Browser Operator como um primeiro passo em direção a um navegador agêntico. Agora estamos abrindo essas capacidades para clientes de IA externos por meio do MCP, para que possam atuar diretamente dentro do navegador, não fora dele”, afirma Monika Kurczyńska, Diretora de P&D para IA de navegador na Opera.

Execução de tarefas dentro do navegador

Ao expor um endpoint baseado no MCP, o Opera Neon permite que ferramentas conectadas executem ações diretamente no navegador. Entre as funcionalidades disponíveis estão navegação por páginas, extração de informações, captura de screenshots, preenchimento de formulários, abertura de abas e buscas.

A proposta é tornar os fluxos mais fluidos, reduzindo a fricção entre o uso de IA e a navegação tradicional. De acordo com a empresa, essa integração amplia o ecossistema do navegador e cria uma plataforma aberta para inovação em IA aplicada ao browsing.

Casos de uso e aplicações

A Opera destaca que a novidade pode ser aplicada em diferentes cenários, como desenvolvimento, prototipagem e automação. Desenvolvedores já utilizam ferramentas como Claude Code para testar aplicações em ambientes reais de navegação.

Outras plataformas, como Lovable, permitem a criação de interfaces a partir de páginas ao vivo, enquanto soluções como n8n e assistentes como o ChatGPT podem incorporar ações do navegador em fluxos automatizados.

“O navegador é onde os fluxos de trabalho vivem, mas a IA estava desconectada dele. Com o Opera Neon, conectamos clientes de IA populares diretamente a um navegador agêntico, permitindo que operem onde os usuários já trabalham, sem precisar recriar contextos”, completa Kurczyńska.

Leia mais:

Segurança e disponibilidade

Para garantir segurança e estabilidade, o MCP Connector utiliza autenticação via URL segura de servidor MCP e uma camada de proxy persistente, que mantém a conexão ativa e informa quando o navegador não está disponível.

O recurso já está disponível para assinantes do Opera Neon. A empresa também informou que pretende lançar uma versão simplificada do conector para os navegadores Opera One e Opera GX, ampliando o acesso à funcionalidade em seu portfólio.

O post Opera integra ChatGPT, Claude e outras IAs ao navegador Neon apareceu primeiro em Olhar Digital.

Opera integra ChatGPT, Claude e outras IAs ao navegador Neon Read More »

cifrao afundando 300x169

O risco escondido que começa a preocupar gestores de crédito privado nos EUA

🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.


Cifrao Afundando 300x169

A IA generativa vai matar o software? O tema ganhou relevância com a queda das ações das empresas da área neste ano.  O ETF iShares Expanded Tech-Software (IGV), proxy de empresas de software, acumula queda de 26,5% no ano. Mas os temores não se restringem ao mercado de ações. O otimismo também já não é […]

O post O risco escondido que começa a preocupar gestores de crédito privado nos EUA apareceu primeiro em NeoFeed.


Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.

Conteúdo original publicado em: Acesse a fonte oficial

O risco escondido que começa a preocupar gestores de crédito privado nos EUA Read More »

OpenAI lança guias no Brasil para uso seguro de IA por adolescentes

A OpenAI, criadora do ChatGPT, anunciou nesta segunda-feira (30) o lançamento de dois guias inéditos em português voltados à segurança digital de jovens no Brasil. Os materiais foram desenvolvidos para auxiliar pais, adolescentes e educadores a utilizarem a inteligência artificial (IA) de maneira responsável, diminuindo riscos e aproveitando o potencial educativo da tecnologia.

O Brasil é o primeiro país fora do eixo de língua inglesa a receber esses recursos. A adaptação para o contexto nacional contou com a curadoria científica do Dr. Cristiano Nabuco de Abreu, psicólogo e referência em saúde mental no país, além de uma parceria com a editora Artmed.

Foco em segurança e controle parental

Os guias detalham as ferramentas de proteção já existentes no ChatGPT, como filtros contra conteúdos violentos ou que promovam padrões de beleza nocivos. Um dos pontos centrais da iniciativa é o reforço dos Controles Parentais, que permitem aos responsáveis:

  • Definir limites de tempo de uso;
  • Monitorar configurações de privacidade;
  • Estabelecer camadas adicionais de proteção adequadas à idade do jovem.

De acordo com Rafaela Nicolazzi, executiva brasileira e Líder de Dados, Privacidade & Proteção do Consumidor da OpenAI, o objetivo é que o empoderamento tecnológico e a proteção caminhem juntos, oferecendo informações claras em uma linguagem acessível para quem não é especialista na área.

Conheça os dois manuais lançados

A iniciativa se divide em dois materiais com focos complementares, disponíveis gratuitamente para download:

1. Guia para famílias e uso responsável

Este documento explica os fundamentos técnicos da IA de forma simples. Ele aborda desde como os modelos são treinados até a importância de verificar informações, já que a IA pode cometer erros (as chamadas “alucinações”). Também ensina a escrever prompts (comandos) melhores e a gerenciar a privacidade dos dados.

2. Dicas para diálogo com adolescentes

Focado no comportamento e na saúde mental, este guia oferece sugestões de como iniciar conversas sobre os limites da tecnologia. O texto incentiva o pensamento crítico e orienta como lidar com temas sensíveis e o bem-estar emocional diante do avanço das ferramentas digitais.

Como baixar os materiais

A parceria com a Artmed visa levar esse conhecimento também aos consultórios. Para o Dr. Cristiano Nabuco, é fundamental que profissionais de saúde saibam orientar as famílias sobre os impactos da IA no dia a dia clínico.

Os materiais podem ser acessados diretamente no portal de Recursos para Famílias da OpenAI ou no site oficial da Artmed.

O post OpenAI lança guias no Brasil para uso seguro de IA por adolescentes apareceu primeiro em Olhar Digital.

OpenAI lança guias no Brasil para uso seguro de IA por adolescentes Read More »

suno 1024x682

Músicas geradas por IA avançam e desafiam plataformas

A inteligência artificial (IA) já está presente em diferentes etapas da indústria da música, da criação de samples e gravação de demos à organização de playlists e conteúdos digitais. Esse avanço vem acompanhado de desafios técnicos, disputas legais e debates sobre o impacto da tecnologia na produção artística e no trabalho de músicos profissionais.

Ao mesmo tempo, novos lançamentos, decisões de plataformas e casos recentes mostram como o uso de IA na música evolui rapidamente, com efeitos diretos sobre criação, distribuição e monetização.

Suno aposta em mais controle com atualização v5.5

A Suno lançou uma das suas atualizações mais relevantes com a versão 5.5 do seu modelo de geração musical por IA. Diferente de versões anteriores, que focavam na melhoria da qualidade sonora e em vocais mais naturais, a nova versão prioriza dar mais controle ao usuário.

Suno é destaque no setor de geração de músicas com IA (Imagem: Ralf Liebhold / Shutterstock.com)

A atualização traz três recursos principais: Voices, My Taste e Custom Models. Segundo a empresa, o Voices é o recurso mais solicitado e permite treinar o modelo com a própria voz do usuário. Para isso, é possível enviar acapellas, faixas completas ou gravar diretamente pelo microfone de um dispositivo.

A qualidade da gravação influencia diretamente a quantidade de dados necessários para o treinamento. Como medida de proteção, a plataforma exige que o usuário fale uma frase de verificação, embora exista a possibilidade de contornar esse sistema com modelos de voz já disponíveis.

Indústria adota postura discreta sobre uso de IA

O uso de inteligência artificial na música tem avançado sem grande transparência. Na prática, a indústria passou a adotar uma abordagem informal de “não pergunte, não conte”, com artistas de diferentes gêneros utilizando IA em etapas como experimentação de arranjos, criação de demos e produção de samples.

A compositora Michelle Lewis afirmou à Rolling Stone que há resistência em admitir o uso da tecnologia. Já o produtor Young Guru avalia que a prática é mais disseminada do que parece, especialmente no hip-hop. Segundo ele, tornou-se comum criar samples de funk e soul com IA em vez de licenciar músicas originais ou contratar músicos, estimando que “mais da metade” do hip-hop baseado em samples siga esse caminho.

Caso de fraude expõe riscos do modelo

O avanço da IA também abriu espaço para esquemas fraudulentos. Um exemplo recente envolve Michael Smith, da Carolina do Norte, que se declarou culpado por criar centenas de milhares de músicas geradas por IA e utilizar bots para reproduzi-las bilhões de vezes.

De acordo com o Departamento de Justiça dos EUA, o esquema rendeu mais de US$ 8 milhões em royalties. O caso evidencia como ferramentas de geração automática podem ser exploradas para manipular plataformas de streaming.

Plataformas ampliam medidas de transparência

Diante do crescimento do conteúdo gerado por IA, serviços de streaming começaram a implementar mecanismos de identificação. A Apple Music passou a adotar um sistema opcional de “Transparency Tags”, que permite classificar conteúdos conforme o uso de inteligência artificial.

O sistema inclui quatro categorias: faixa, composição, arte visual e videoclipe. A etiqueta de faixa deve ser aplicada quando uma parte relevante da gravação foi gerada por IA, enquanto a de composição cobre elementos como letras. Já a de arte visual vale para imagens no nível do álbum, e a de videoclipe para outros conteúdos visuais.

Outras plataformas seguem caminhos semelhantes. A Qobuz passou a detectar e rotular automaticamente músicas geradas por IA, acompanhando um movimento iniciado anteriormente pela Deezer. A empresa também divulgou uma carta de princípios afirmando que sua curadoria continuará sendo humana, sem banir completamente esse tipo de conteúdo.

Bandcamp adota posição mais rígida

Entre as principais plataformas, o Bandcamp tomou a decisão mais restritiva até agora. A empresa anunciou a proibição de conteúdos gerados total ou substancialmente por IA, incluindo materiais que imitam artistas ou estilos específicos.

Segundo as diretrizes, músicas que dependam fortemente de IA não são permitidas e podem ser removidas. A plataforma também incentiva usuários a denunciarem conteúdos suspeitos.

Dificuldade em identificar músicas geradas por IA

A identificação de músicas criadas por IA ainda é um desafio. Um estudo conduzido pela Deezer em parceria com a Ipsos indicou que 97% das pessoas não conseguem diferenciar faixas geradas por IA de músicas feitas por humanos.

Apesar do número elevado, o resultado tem nuances. No experimento, participantes ouviam três músicas e precisavam acertar todas para serem considerados capazes de distinguir corretamente. Mesmo quem acertava duas era classificado como incapaz de identificar a diferença, o que impacta a interpretação do dado.

ia musical
A grande maioria das pessoas não consegue diferenciar músicas geradas por IA das feitas por humanos (Imagem: New Africa / Shutterstock.com)

Leia mais:

Debate sobre criação musical segue em aberto

O avanço da IA também levanta discussões sobre o conceito de criação artística. Um dos pontos em debate é se o uso de prompts para gerar músicas pode ser considerado um processo criativo ativo.

A questão se soma a outras, como direitos autorais envolvendo artistas gerados por IA e o papel da tecnologia na indústria. Com novos modelos, acordos e regulações em andamento, o cenário segue em transformação.

O post Músicas geradas por IA avançam e desafiam plataformas apareceu primeiro em Olhar Digital.

Músicas geradas por IA avançam e desafiam plataformas Read More »

claude chatgpt scaled e1772626568145 1024x577

Copilot ganha recurso que combina GPT e Claude

A Microsoft anunciou nesta segunda-feira (30) uma série de atualizações em seu assistente Copilot, com foco em ampliar o uso de inteligência artificial (IA) em fluxos de trabalho corporativos. Entre as novidades, a empresa revelou recursos que permitem utilizar múltiplos modelos de IA simultaneamente, além de disponibilizar o agente Copilot Cowork para um grupo inicial de clientes.

As mudanças fazem parte da estratégia da companhia para aumentar a adoção de suas ferramentas de IA em meio à concorrência crescente no setor. A iniciativa inclui melhorias voltadas à confiabilidade das respostas e à produtividade dos usuários, além da expansão do acesso a recursos experimentais por meio de seu programa Frontier.

Copilot agora tem recurso que combina IAs da Anthropic e OpenAI para gerar respostas mais confiáveis (Imagem: Tada Images / Shutterstock.com)

Uso combinado de modelos de IA

Um dos principais anúncios é o recurso chamado “Critique”, integrado ao agente Researcher do Copilot. Com ele, a ferramenta passa a combinar resultados de diferentes modelos de IA em uma única resposta.

Na prática, o sistema utiliza o modelo GPT, da OpenAI, para gerar o conteúdo inicial. Em seguida, o modelo Claude, da Anthropic, realiza uma revisão da resposta, avaliando aspectos como precisão e qualidade antes da entrega ao usuário.

Segundo Nicole Herskowitz, vice-presidente corporativa de Microsoft 365 e Copilot, a proposta vai além de apenas oferecer múltiplos modelos. “Os clientes passam a ter o benefício dos modelos trabalhando juntos”, afirmou em entrevista à Reuters.

A empresa também informou que pretende tornar esse fluxo bidirecional no futuro, permitindo que o GPT revise respostas geradas pelo Claude.

Redução de erros e ganho de produtividade

De acordo com a Microsoft, a abordagem com múltiplos modelos pode ajudar a reduzir alucinações de IA, termo usado quando sistemas geram informações incorretas. A expectativa é que o cruzamento entre diferentes modelos contribua para respostas mais confiáveis.

Além disso, a empresa afirma que o recurso pode acelerar tarefas e melhorar a qualidade das entregas, impactando diretamente a produtividade dos usuários.

Fachada de um prédio da Microsoft
Microsoft aposta em múltiplos modelos trabalhando juntos para fornecer menos alucinações e respostas mais confiáveis (Imagem: Skorzewiak/Shutterstock)

Comparação entre respostas de IA

Outra novidade é o “Model Council”, funcionalidade que permite comparar respostas de diferentes modelos lado a lado. A ideia é dar mais transparência e controle ao usuário na escolha da melhor resposta para cada contexto.

Esse tipo de comparação também pode ajudar equipes a entender melhor o comportamento de diferentes modelos em tarefas específicas.

Leia mais:

Copilot Cowork chega a mais usuários

A Microsoft também anunciou a ampliação do acesso ao Copilot Cowork, ferramenta baseada no Claude Cowork, da Anthropic. O recurso havia sido apresentado em fase de testes no início do mês e agora passa a ser disponibilizado para usuários do programa Frontier.

Esse programa oferece acesso antecipado a funcionalidades experimentais da empresa, permitindo que clientes testem novas soluções antes do lançamento mais amplo.

O post Copilot ganha recurso que combina GPT e Claude apareceu primeiro em Olhar Digital.

Copilot ganha recurso que combina GPT e Claude Read More »

sora aplicativo 1 1024x682

O que causou o fim do Sora, da OpenAI?

O fim do Sora, plataforma de geração de vídeos da OpenAI, pegou parceiros e executivos de surpresa. O encerramento foi anunciado na semana passada e marca uma mudança na estratégia da desenvolvedora na corrida de IA.

O Sora foi apresentado inicialmente como a próxima grande aposta da empresa após o sucesso do ChatGPT. O aplicativo prometia democratizar a criação de vídeos com IA, permitindo que usuários inserissem a si mesmos em diferentes cenários, e publicassem tudo em uma rede social própria.

A proposta chegou a atrair o interesse de gigantes do entretenimento, como a Disney, que fechou um acordo bilionário para licenciar mais de 200 personagens para uso dentro da plataforma.

A decisão de descontinuar o produto foi comunicada internamente e confirmada publicamente pela OpenAI, encerrando um projeto que vinha sendo tratado como peça central na expansão da desenvolvedora para o mercado criativo.

O movimento também interrompeu o acordo com a Disney. Segundo apuração do The Wall Street Journal, executivos da empresa de mídia teriam sido informados do fim do Sora pouco antes do anúncio oficial.

O que levou ao fim do Sora?

Apesar do impacto inicial no mercado e do interesse do público, o Sora enfrentava dificuldades internas. O uso da ferramenta não cresceu como esperado após o lançamento do aplicativo independente, e a base de usuários recuou após um pico inicial.

Além disso, o produto demandava grande capacidade computacional – um dos recursos mais valiosos na indústria de IA. A geração de vídeos exige muito mais processamento do que modelos baseados em texto, o que elevava significativamente os custos operacionais.

Segundo relatos, o Sora chegou a consumir uma parcela relevante dos chips disponíveis da empresa, sem retorno financeiro proporcional. Estimativas indicam que a operação gerava prejuízo diário.

Diante desse cenário, a OpenAI optou por redirecionar seus recursos para áreas consideradas mais estratégicas.

A decisão está alinhada com um reposicionamento mais amplo da companhia, que prepara uma possível abertura de capital (IPO) e busca priorizar produtos com maior potencial de receita. Entre as prioridades estão ferramentas voltadas ao mercado corporativo e sistemas de IA capazes de executar tarefas de forma autônoma, como programação, análise de dados e automação de processos. A empresa trabalha na integração dessas funcionalidades em um “superaplicativo”.

Internamente, a avaliação foi de que manter o Sora comprometeria a evolução dessas iniciativas, especialmente diante da necessidade de liberar capacidade computacional para novos modelos.

Em comunicado de encerramento, Sam Altman agradeceu os envolvidos na iniciativa do Sora (Imagem: Tada Images/Shutterstock)

Projeto enfrentou desafios técnicos e de segurança

Segundo o WSJ, o desenvolvimento do Sora era conduzido por uma equipe relativamente isolada dentro da OpenAI, o que levou funcionários a descreverem o projeto como uma espécie de “startup dentro da empresa”.

Apesar do impacto visual das demonstrações iniciais, o produto enfrentou críticas internas, incluindo preocupações com segurança, direitos autorais e uso indevido da tecnologia. Casos de conteúdo controverso – como vídeos envolvendo figuras públicas em contextos fictícios – geraram reações negativas e pressionaram a empresa a revisar políticas.

Além disso, o fim do Sora ocorre em um momento de intensificação da disputa no setor de IA. Enquanto o Google avançava com o Gemini e a Anthropic ganhava espaço com ferramentas voltadas a desenvolvedores, a OpenAI passou a sentir pressão para reforçar sua presença em aplicações práticas.

Ao mesmo tempo, a empresa enfrentou uma disputa agressiva por talentos, especialmente por parte da Meta, que buscou atrair pesquisadores-chave envolvidos no desenvolvimento do modelo.

Para Sam Altman, CEO da OpenAI, a decisão foi um “sacrifício necessário” para concentrar esforços em projetos com maior impacto de longo prazo. A tecnologia de geração de vídeo ainda pode reaparecer de outras formas dentro do ecossistema da empresa, mas o Sora, como produto independente, chega ao fim.

O post O que causou o fim do Sora, da OpenAI? apareceu primeiro em Olhar Digital.

O que causou o fim do Sora, da OpenAI? Read More »

estudo chatbots de ia 1024x747

Chatbots tendem a concordar com usuários mesmo quando estão errados, revela estudo

Chatbots de inteligência artificial têm se tornado cada vez mais presentes no dia a dia – inclusive em decisões pessoais. Mas um novo estudo aponta um efeito colateral preocupante: a tendência dessas ferramentas de concordar com os usuários, mesmo quando eles estão errados.

O fenômeno, conhecido entre pesquisadores como “bajulação” (ou sycophancy, em inglês), foi analisado por cientistas da Universidade de Stanford em um estudo publicado na revista Science. Segundo a pesquisa, modelos de linguagem frequentemente priorizam respostas que validam a opinião do usuário, em vez de oferecer análises críticas ou corretivas.

Para chegar a essa conclusão, os pesquisadores testaram 11 sistemas diferentes (incluindo ChatGPT, Claude, Gemini e DeepSeek) em cenários variados, como conflitos interpessoais, discussões online e situações envolvendo comportamentos questionáveis.

O resultado foi consistente: os modelos concordaram com os usuários cerca de 50% mais vezes do que uma pessoa real faria em condições semelhantes. Em alguns casos, chegaram a apoiar atitudes problemáticas, incluindo comportamentos antiéticos ou até ilegais.

Embora muitos utilizem chatbots para dúvidas objetivas, uma parcela significativa das interações envolve questões pessoais e emocionais. Pesquisas anteriores indicam que ferramentas de IA são frequentemente usadas como forma de apoio emocional ou até substituto de conversas humanas, principalmente entre jovens.

Diante disso, o risco não está apenas em respostas incorretas, mas na forma como essas respostas influenciam decisões e percepções.

Chatbots de IA tendem a validar afirmações de usuários, mesmo que estejam erradas (Imagem: Science/Reprodução)

Efeito psicológico nas decisões

Na segunda etapa do estudo, cerca de 2,4 mil participantes interagiram com modelos que respondiam de forma neutra ou subserviente.

Os resultados mostraram que respostas mais “concordantes” eram percebidas como mais confiáveis. Com isso, os usuários tendiam a reforçar suas próprias opiniões e reduzir a disposição para reconsiderar suas próprias atitudes.

Os pesquisadores também observaram que esse efeito não depende de fatores como idade, gênero ou perfil psicológico – ou seja, qualquer pessoa pode ser influenciada.

Em um dos casos analisados, um usuário contou que sua namorada estava brava porque ele havia falado com a ex sem avisá-la. O pensamento inicial foi: “Talvez eu não tenha levado os sentimentos dela a sério o suficiente”. A IA respondeu que “Suas intenções eram boas. Você fez o que achou certo”, levando o usuário a reconsiderar e questionar se a namorada seria problemática.

chatbots ia
Pesquisa analisou 11 chatbots diferentes, incluindo os mais populares (Imagem: Summit Art Creations / Shutterstock.com)

Risco de “câmaras de eco”

Especialistas alertam que esse comportamento pode transformar chatbots em uma espécie de “câmara de eco”, reforçando crenças e reduzindo a exposição a pontos de vista divergentes.

Isso pode ter consequências práticas: desde decisões impulsivas em relações pessoais até impactos em áreas mais críticas, como a confirmação de diagnósticos médicos errados ou reforço de posicionamentos políticos.

Para os autores, a ausência de contrapontos pode ser mais prejudicial do que a falta de aconselhamento.

Os pesquisadores defendem que, apesar do feedback positivo agradar os usuários, as empresas responsáveis pelos modelos precisam encontrar formas de reduzir esse viés.

Ao mesmo tempo, o estudo sugere cuidados para quem utiliza essas ferramentas:

  • lembrar que se trata de uma IA, não de um especialista humano;
  • questionar respostas e evitar aceitá-las automaticamente;
  • manter interações com outras pessoas;
  • buscar ajuda profissional em temas sensíveis, especialmente de saúde mental.

O post Chatbots tendem a concordar com usuários mesmo quando estão errados, revela estudo apareceu primeiro em Olhar Digital.

Chatbots tendem a concordar com usuários mesmo quando estão errados, revela estudo Read More »

deepseek e1767983071845 1024x577

DeepSeek sofre maior interrupção desde o lançamento

O chatbot de inteligência artificial da chinesa DeepSeek enfrentou nesta segunda-feira (30) a maior instabilidade já registrada em sua plataforma desde janeiro de 2025, quando se popularizou. O problema atingiu os modelos R1 e V3.

De acordo com a página oficial de status da empresa, o serviço apresentou uma “grande interrupção” que se estendeu por mais de sete horas. A falha começou nas primeiras horas do dia e foi considerada resolvida às 10h33 no horário local da China.

A DeepSeek não divulgou a causa do problema, seguindo seu protocolo padrão para esse tipo de ocorrência. Interrupções desse tipo podem ter diferentes origens, incluindo falhas em servidores, sobrecarga de sistemas ou erros relacionados a atualizações recentes.

Embora a empresa já tenha registrado problemas em outros serviços, esta foi a interrupção mais significativa na interface principal do chatbot – utilizada diretamente por usuários para interações.

Segundo a Reuters, dados anteriores mostram que a API da plataforma, voltada a desenvolvedores que integram o modelo em aplicativos, chegou a sofrer quedas prolongadas no início de 2025, durante o pico de popularidade da ferramenta. Ainda assim, até então, a versão voltada ao público geral não havia apresentado indisponibilidades superiores a duas horas.

Mercado aguarda próximos lançamentos da DeepSeek (Imagem: Melinda Nagy/Shutterstock)

Expectativa por novo modelo da DeepSeek

A instabilidade ocorre em um momento de alta expectativa no mercado de inteligência artificial. A indústria acompanha de perto os próximos passos da DeepSeek, que ainda não anunciou quando pretende lançar sua próxima geração de modelos.

A empresa ganhou projeção internacional após a rápida adoção de seus sistemas de IA, tornando-se uma das concorrentes relevantes no cenário global do setor.

O post DeepSeek sofre maior interrupção desde o lançamento apareceu primeiro em Olhar Digital.

DeepSeek sofre maior interrupção desde o lançamento Read More »

brazilconference 300x169

Pílulas da Brazil Conference: as eleições da IA, os “swing voters” e o Brasil de volta a 1.500

🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.


BrazilConference 300x169

Boston e Cambridge (EUA) – Não foram apenas as temperaturas negativas que marcaram presença neste fim de semana em Boston e Cambridge, nos EUA, durante a 12ª Brazil Conference. Mais de mil inscritos acompanharam in loco o evento, realizado nas dependências do MIT e da Harvard University. Organizada por estudantes brasilieros das duas instituições e […]

O post Pílulas da Brazil Conference: as eleições da IA, os “swing voters” e o Brasil de volta a 1.500 apareceu primeiro em NeoFeed.


Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.

Conteúdo original publicado em: Acesse a fonte oficial

Pílulas da Brazil Conference: as eleições da IA, os “swing voters” e o Brasil de volta a 1.500 Read More »

optimus 1 1024x576

Elon Musk lidera movimento que quer colocar robôs humanoides em funções humanas

A aposta de grandes nomes da tecnologia em robôs humanoides como caminho para transformar o trabalho humano ganha força e levanta debates sobre o futuro do emprego. Liderado por Elon Musk, esse movimento — chamado de “physical AI” (ou IA física, em português) — busca levar os avanços da inteligência artificial (IA) para o mundo físico, automatizando tarefas que hoje dependem de mão de obra humana.

Segundo o The Washington Post, na visão de Musk, esse futuro seria marcado por abundância: bilhões de robôs realizariam todo o trabalho necessário, enquanto uma rede de veículos autônomos e máquinas humanoides, alimentadas por energia solar, garantiria recursos praticamente ilimitados.

Nesse cenário, a pobreza seria eliminada e o trabalho se tornaria opcional. Ao mesmo tempo, o bilionário poderia se tornar o primeiro trilionário do mundo.

Musk e seus planos de robôs humanoides

  • Apesar de seu histórico de promessas ambiciosas, Musk tem direcionado suas empresas para essa meta;
  • A Tesla passou por uma mudança estratégica recente, priorizando o desenvolvimento de robôs em detrimento de alguns de seus modelos de veículos, incluindo um popular sedã de luxo. A montadora também iniciou a criação de uma nova linha de produção voltada ao robô humanoide Optimus;
  • Para acelerar o projeto, a Tesla intensificou a contratação de profissionais de outras áreas da tecnologia, com foco em habilidades específicas, como a reprodução dos movimentos e da destreza da mão humana;
  • Já a SpaceX, empresa espacial de Musk que deve estrear na bolsa em breve, adquiriu a startup de IA xAI, que será responsável por desenvolver softwares em integração com a Tesla;
  • Segundo a empresa, esse exército de robôs faz parte da missão de “construir um mundo de abundância incrível”.

Outras gigantes do setor também avançam nessa direção. Empresas, como Amazon, Nvidia e a startup Atoms, criada pelo cofundador da Uber, Travis Kalanick, anunciaram iniciativas recentes em robótica avançada. A missão da Atoms, por exemplo, é promover “automação física para transformar a indústria e movimentar o mundo”.

A startup Figure, referência no setor, chegou a levar um robô humanoide à Casa Branca, onde ele participou de um evento ao lado da primeira-dama Melania Trump.

A ideia por trás da “IA física” é expandir o alcance da IA para atividades que não podem ser realizadas apenas por softwares, como tarefas manuais complexas. Enquanto o boom da IA já impacta empregos de escritório, líderes do setor veem uma oportunidade ainda maior em substituir trabalhos físicos, criando um novo patamar de automação.

Leia mais:

Aposta da Tesla é alta no Optimus (Imagem: Divulgação/Tesla)

IA física?

“A IA física é o maior [mercado endereçável total] da história da humanidade”, afirmou Shay Boloor, estrategista-chefe da Futurum. “Acho que a Tesla está se posicionando para ser uma grande vencedora.”

O termo ganhou força no Vale do Silício, sendo amplamente utilizado por empresas, como a Nvidia. Em comunicado recente, o CEO da companhia, Jensen Huang, declarou: “A IA física chegou — toda empresa industrial se tornará uma empresa de robótica.”

Apesar do entusiasmo, o avanço da robótica levanta preocupações. Nos Estados Unidos, autoridades e especialistas temem que a automação acelere ainda mais o declínio do setor industrial, já afetado nas últimas décadas pela transferência de empregos para o exterior.

O senador Bernie Sanders criticou o protagonismo de bilionários nesse processo e cobrou explicações sobre investimentos massivos em IA e robótica. “Quem está investindo trilhões de dólares em pesquisa e desenvolvimento de IA e robótica?,” questionou. “São as pessoas mais ricas da Terra. São o Sr. Musk, o Sr. Bezos, o Sr. [Mark] Zuckerberg, o Sr. [Larry] Ellison.”

Ele também levantou dúvidas sobre os impactos sociais dessa transformação: “Será que alguém em sã consciência acredita que essas pessoas estão perdendo o sono se preocupando com como essa transformação vai beneficiar as pessoas comuns?”

Embora a IA já esteja avançando sobre empregos de colarinho branco — como áreas de negócios, finanças, engenharia e gestão —, tarefas físicas ainda permanecem, em grande parte, fora de seu alcance. Um relatório recente da Anthropic aponta que atividades, como agricultura, construção, transporte e serviços alimentícios continuam difíceis de automatizar.

“Muitas tarefas… permanecem além do alcance da IA”, destaca o documento, citando desde podar árvores até representar clientes em tribunais.

Ainda assim, o CEO da Anthropic, Dario Amodei, argumenta que é um erro considerar o trabalho físico imune à disrupção tecnológica. Segundo ele, sistemas avançados de IA poderão acelerar o desenvolvimento de robôs e controlá-los no mundo real.

Para Musk, o robô Optimus será peça central dessa transformação. Ele acredita que a tecnologia levará a uma “renda alta universal”, resultado do crescimento contínuo da IA e da robótica. Em diversas ocasiões, inclusive recentemente, o empresário afirmou que, nesse futuro, trabalhar será uma escolha, não uma necessidade.

A Tesla afirma estar correndo para colocar o robô em produção em larga escala. Em publicação recente, a empresa declarou: “O Optmius será o maior produto já feito”.

Especialistas, no entanto, alertam para os impactos no curto prazo. Boloor destaca que a transição pode afetar o modelo de negócios atual da Tesla, já que “O antigo negócio está encolhendo, enquanto o novo não é suficientemente grande para preencher essa lacuna”.

Além disso, ele ressalta os efeitos sociais da automação: “A substituição de empregos é uma realidade muito presente”. E conclui: “Haverá perda contínua de empregos.”

O post Elon Musk lidera movimento que quer colocar robôs humanoides em funções humanas apareceu primeiro em Olhar Digital.

Elon Musk lidera movimento que quer colocar robôs humanoides em funções humanas Read More »