🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
Há cinco anos, o Magazine Luiza embarcou em uma jornada de transformação, deixando de ser apenas um nome voltado para a linha branca, se transformando num ecossistema, agregando novas marcas e serviços, de olho na diversificação da receita. Ao final desse período, marcado pela chegada de nomes como Netshoes e KaBuM! e também para a […]
O post No Magalu, o ecossistema está pronto. Agora é hora de extrair valor apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
A disputa entre a Anthropic e o Departamento de Defesa dos Estados Unidos reacendeu um debate antigo no setor de tecnologia: até que ponto empresas do Vale do Silício devem permitir que suas ferramentas sejam utilizadas em aplicações militares?
Nos últimos dias, o conflito entre a desenvolvedora e o governo americano se intensificou após a Anthropic processar o Pentágono, alegando que sua inclusão em uma lista de “risco à segurança nacional” viola direitos garantidos pela Primeira Emenda da Constituição dos EUA. A ação judicial ocorre depois de meses de impasse entre as duas partes sobre as condições de uso do Claude.
No centro da disputa está a recusa da Anthropic em autorizar determinados usos de seus modelos de IA, especialmente em sistemas de vigilância em massa e em armamentos totalmente autônomos capazes de tomar decisões letais.
Segundo a empresa, aceitar a exigência do governo de permitir “qualquer uso legal” de sua tecnologia comprometeria princípios de segurança adotados desde sua fundação e poderia abrir espaço para abusos.
A posição da Anthropic colocou em evidência um tema que acompanha o avanço da inteligência artificial: quais limites éticos devem existir quando tecnologias comerciais passam a integrar operações militares?
Para Margaret Mitchell, pesquisadora de IA e cientista-chefe de ética da Hugging Face, a disputa atual não é entre empresas que apoiam ou rejeitam o uso militar da tecnologia. Na avaliação dela, quem busca encontrar “mocinhos e vilões” nesse debate dificilmente encontrará uma separação tão evidente.
Da esquerda para a direita: CEO da OpenAI, Sam Altman; Secretário de Defesa dos EUA, Pete Hegseth; e CEO da Anthropic, Dario Amodei (Imagem: FotoField e Joshua Sukoff – Shutterstock / Reprodução – TechCrunch)
Mudança de postura no Vale do Silício sobre IA militar
A tensão ocorre em um momento em que as grandes empresas de tecnologia têm se aproximado cada vez mais do setor de defesa. Esse movimento ganhou força durante o governo de Donald Trump, que tem incentivado o uso de inteligência artificial em órgãos federais e ampliado investimentos em capacidades militares.
A possibilidade de contratos lucrativos e de longo prazo com o governo também contribuiu para esse alinhamento. Além disso, o avanço tecnológico da China e o aumento global dos gastos militares passaram a influenciar decisões estratégicas de empresas do setor.
Essa realidade contrasta com a postura adotada há menos de uma década por parte da indústria. Um exemplo é o do Projeto Maven, do Google:
Em 2018, milhares de funcionários do Google protestaram contra a participação da empresa no Projeto Maven, um programa do Departamento de Defesa voltado à análise de imagens captadas por drones militares;
Na época, mais de 3 mil trabalhadores da companhia assinaram uma carta aberta afirmando que o Google não deveria se envolver em projetos ligados à guerra;
Após a mobilização interna, a empresa decidiu não renovar o contrato e publicou diretrizes que proibiam o desenvolvimento de tecnologias capazes de causar danos diretos a pessoas.
Com o passar dos anos, porém, essa postura foi sendo flexibilizada. O Google posteriormente removeu de suas políticas parte da linguagem que restringia o desenvolvimento de tecnologias militares e passou a firmar novos acordos que permitem o uso de suas ferramentas pelas forças armadas.
Recentemente, a empresa anunciou que disponibilizará o Gemini para apoiar o desenvolvimento de agentes de IA em projetos militares.
Outras empresas seguiram um caminho semelhante. A OpenAI, que anteriormente proibia o acesso de forças armadas aos seus modelos, flexibilizou sua política a partir de 2024. A empresa, juntamente com Google, Anthropic e xAI, assinou um contrato de até US$ 200 milhões com o Departamento de Defesa para integrar tecnologias de IA a sistemas militares.
No mesmo dia em que o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um risco para a cadeia de suprimentos do governo, a OpenAI firmou um novo acordo permitindo que sua tecnologia seja usada em projetos militares confidenciais.
Enquanto isso, companhias focadas diretamente em tecnologia de defesa, como Palantir e Anduril, transformaram a colaboração com o Pentágono em parte central de seus negócios.
Maioria das grandes empresas de tecnologia na corrida de IA já tem contratos com o Pentágono (Imagem: Keith J Finks/Shutterstock)
A posição da Anthropic
Mesmo com o confronto jurídico com o governo, a Anthropic não se posiciona como uma empresa contrária à colaboração com o setor militar.
O cofundador e CEO da companhia, Dario Amodei, afirmou recentemente que a empresa compartilha muitos objetivos com o Departamento de Defesa. Segundo ele, a Anthropic apoia o uso da inteligência artificial para defesa nacional, desde que certas linhas não sejam ultrapassadas.
Apesar das restrições defendidas pela empresa, documentos judiciais indicam que o governo dos Estados Unidos já utiliza o modelo Claude em diversas atividades militares. Entre elas estariam análise de ameaças, processamento de documentos confidenciais e operações relacionadas ao campo de batalha.
O Olhar Digital fez uma linha do tempo do conflito entre a Anthropic e o Pentágono. Você pode acessá-la neste link.
(O texto usou informações do jornal The Guardian.)
A Meta decidiu adiar o lançamento de seu próximo modelo de inteligência artificial. A IA, conhecida internamente como “Avocado”, teve desempenho abaixo do esperado em testes internos quando comparada a sistemas rivais, como os do Google, OpenAI e Anthropic.
Segundo pessoas familiarizadas com o assunto que falaram ao The New York Times, o modelo foi avaliado em tarefas como raciocínio, programação e produção de texto, mas não alcançou os resultados dos sistemas mais avançados do mercado atualmente. O Avocado foi avaliado acima dos modelos anteriores da Meta e do Gemini 2.5, do Google, mas ficou atrás do Gemini 3.0.
Diante das limitações, a Meta decidiu adiar o lançamento do modelo, que inicialmente estava previsto para este mês. Agora, a expectativa interna é que ele seja apresentado apenas a partir de maio.
Executivos da divisão de inteligência artificial da big tech chegaram a discutir a possibilidade de licenciar temporariamente o modelo Gemini para alimentar alguns produtos da empresa, mas ainda não chegaram a uma decisão.
Meta aposta em divisão de IA e já investiu bilhões de dólares em infraestrutura (Imagem: PJ McDonnell/Shutterstock)
A aposta da Meta em IA
Os chamados modelos fundamentais de IA se tornaram o núcleo da disputa tecnológica entre grandes empresas. Esses sistemas servem como base para chatbots, ferramentas de programação, geradores de vídeo e assistentes virtuais.
Estar na liderança desse segmento também ajuda empresas a atrair pesquisadores, engenheiros e investimentos, além de acelerar a criação de novos produtos baseados em IA.
O CEO da Meta, Mark Zuckerberg, tem colocado grande parte da estratégia futura da empresa nessa área. A companhia já investiu bilhões de dólares para expandir suas capacidades em IA, incluindo a construção de data centers, a compra da startup Scale AI e a contratação do fundador Alexandr Wang, além de vários outros profissionais do setor.
Wang, inclusive, ajudou a montar um laboratório interno chamado TBD Lab, com cerca de 100 pesquisadores dedicados ao desenvolvimento de novos sistemas de inteligência artificial. A equipe já concluiu a primeira etapa do treinamento do Avocado, conhecida como pré-treinamento, e iniciou a fase seguinte, chamada de pós-treinamento, responsável por ajustes e melhorias de desempenho.
Além do Avocado, o laboratório trabalha em outro projeto com nome inspirado em frutas: o “Mango”, voltado à geração de imagens e vídeos por inteligência artificial.
Até agora, a divisão lançou apenas um produto, o Vibes, um aplicativo de criação de vídeos com IA semelhante ao Sora, da OpenAI.
Mesmo com o adiamento, a Meta segue apostando no TDB Lab. Isso porque, em uma teleconferência com investidores realizada em janeiro, Zuckerberg já havia sinalizado que os primeiros modelos dessa nova fase poderiam não ser revolucionários de imediato. O objetivo da empresa é demonstrar uma trajetória de evolução rápida na tecnologia.
Foco de Zuckerberg é no desenvolvimento acelerado da tecnologia (Imagem: Reprodução/YouTube/Meta)
Debate sobre código aberto
Outro ponto em discussão dentro da Meta é o modelo de distribuição das novas tecnologias.
Historicamente, a empresa defendeu a estratégia de IA de código aberto, permitindo que desenvolvedores utilizem partes do sistema para criar novos projetos. Empresas como OpenAI e Anthropic adotam uma abordagem fechada, mantendo o funcionamento interno dos modelos restrito.
Nos últimos meses, porém, executivos da Meta passaram a considerar a possibilidade de manter os novos sistemas fechados, ao menos nesta fase inicial.
O desenvolvimento do Avocado também foi acompanhado por ajustes internos na estrutura da empresa. Segundo o WSJ, Wang entrou em divergência com outros executivos sobre a forma como os novos modelos deveriam contribuir para o negócio principal da companhia, especialmente na área de publicidade digital.
Rumores sobre um possível desentendimento entre Zuckerberg e Wang chegaram a circular internamente, mas foram negados pela empresa.
O general Brad Cooper, chefe do Comando Central das Forças Armadas dos Estados Unidos, afirmou que sistemas baseados em IA estão sendo usados principalmente para processar e analisar grandes volumes de dados militares em tempo reduzido em meio à guerra no Oriente Médio. Segundo o comandante, isso permite interpretar rapidamente informações estratégicas e apoiar a tomada de decisões.
Apesar disso, o general garantiu que as decisões finais seguem nas mãos dos humanos, inclusive no que diz respeito à escolha de alvos. A confirmação do uso de ferramentas de IA pelo exército norte-americano ocorre em um momento de pressão internacional sobre o impacto das operações militares na população civil.
De acordo com dados das autoridades iranianas, a ofensiva já deixou pelo menos 1.300 mortos em pouco mais de uma semana. Esses números não puderam ser verificados de forma independente. Já a Sociedade do Crescente Vermelho Iraniano afirmou que os ataques atingiram infraestrutura civil significativa, incluindo quase 20 mil edifícios e 77 unidades de saúde. Entre os locais afetados estariam mercados, instalações esportivas, escolas e uma usina de dessalinização de água.
O uso de IA em operações militares ocorre paralelamente a uma disputa entre o governo dos Estados Unidos e a Anthropic. A desenvolvedora responsável pelo Claude se recusou a flexibilizar suas regras de segurança para permitir que o exército usasse a tecnologia em atividades de vigilância em massa de cidadãos americanos e armas autônomas. O acordo entre as partes foi desfeito, com a empresa sendo rotulada como “risco à cadeia de suprimentos”, o que impede novos contratos federais.
De outro lado, a China também fez um alerta sobre a situação: o Ministério da Defesa do país afirmou que o uso militar irrestrito da IA pode empurrar a civilização para um cenário de perda de controle tecnológico. O coronel sênio Jiang Bin, porta-voz do órgão, chegou a comparar a situação com o filme “O Exterminador do Futuro”.
O temor chinês, e de outros países do mundo, é que a tecnologia passe a decidir sobre a vida e a morte de seres humanos.
Para evitar esse cenário, a China propõe que a ONU centralize uma governança multilateral sobre a IA. A intenção é criar regras globais para impedir que a automação transforme o campo de batalha num território onde a humanidade perdeu o direito de intervir.
Para falar sobre tudo isso, o Olhar Digital News recebeu ontem Sandro Teixeira Moita, professor de Ciências Militares da Escola de Comando e Estado-Maior do Exército. Confira um resumo da fala do professor:
A atual guerra no Oriente Médio não é a primeira a usar IA. Considera-se que a utilização da tecnologia começou em 2021, no conflito entre Israel em Hamas.
De lá para cá, tivemos o desenvolvimento em diversos países: EUA, Rússia, China, Ucrânia e Israel.
No caso americano, existe um grande projeto do Pentágono, o JADC2, que cria uma IA capaz de trazer dados de todas as Forças Armadas para planejar e observar a execução de operações militares.
Então, a adoção da IA vai em diversos níveis: do planejamento logístico até o controle em tempo real.
O desenvolvimento dos sistemas de IA dos EUA, Israel e Irã também indica que a gente tem o uso dessa tecnologia para coordenação de ataques. A IA é capaz de processar dados muito mais rapidamente e entrega, em minutos, algo que levaria horas ou dias para ser feito por um analista humano.
“O que a IA traz, efetivamente, talvez seja a aceleração do processo de decisão para atacar e, também, do controle das operações militares – impondo uma pressão muito grande sobre líderes políticos” – diz o professor.
“A tendência de uma IA acelerar uma decisão é muito grande. E decisões numa guerra são fatais. São decisões de segundos que podem criar impactos que se arrastarão por anos ou décadas. Então, o debate ético é muito importante. (…) A posição que a Anthropic tomou é uma posição de acordo com muitos especialistas sobre como você vai usar uma IA e como você vai usar armas autônomas. Elas não devem se misturar. Armas autônomas devem ter uma capacidade limitada de operação. E não devem ser supridas por sistemas de IA, porque você estaria criando uma figura capaz de combater sem a intervenção humana – o que pode ter consequências desastrosas no campo de batalha”.
“Aqui vai caber a pressão dos cidadãos e da comunidade internacional para que a gente chegue a um momento em que haja um tratado que controle a proliferação de sistemas de IA, assim como a gente teve o arcabouço para armas nucleares”. Sandro Teixeira Moita, professor de Ciências Militares da Escola de Comando e Estado-Maior do Exército, em entrevista ao Olhar Digital News
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
Em um futuro bem próximo, não serão apenas CEOs que terão secretárias para resolver burocracias do dia a dia, como comprar passagens aéreas, flores para a esposa ou encomendar um terno para um evento especial. Até o próximo ano, é possível que qualquer consumidor tenha a sua própria assistente pessoal de compras, graças à inteligência […]
O post Visa e Banco do Brasil testam compras feitas por agentes de IA (e sem a ajuda de humanos) apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
O empresário José Renato Hopf colocou a cidade de Porto Alegre no mapa do venture capital global com o South Summit Brazil. Agora, em sua quinta edição, o evento terá como destaque um dos temas que tem mobilizado empreendedores, investidores e executivos do alto escalão das grandes empresas: a inteligência artificial. Mas, ao abordar o […]
O post O toque humano da inteligência artificial movimenta o South Summit Brazil apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
O Google anunciou nesta quinta-feira (12) o lançamento do Groundsource, uma metodologia baseada em inteligência artificial que promete fechar um “buraco” histórico na previsão de desastres naturais: as enchentes repentinas. Diferente das cheias de rios, que são mais graduais, essas enchentes urbanas são notoriamente difíceis de prever por falta de dados históricos de alta qualidade.
Para resolver isso, a gigante das buscas recrutou o Gemini. A IA analisou milhões de relatórios públicos e artigos de notícias dos últimos 20 anos, identificando mais de 2,6 milhões de eventos de inundação em 150 países para treinar um novo modelo de previsão.
Inteligência artificial onde o radar não alcança
O grande trunfo do Groundsource é transformar linguagem em dados geoespaciais. Segundo o Google, o Gemini “leu” cerca de 5 milhões de notícias para isolar relatos de enchentes, que foram cruzados com dados do Google Maps para determinar limites geográficos precisos.
Essa base de dados permitiu treinar um modelo capaz de prever riscos em áreas urbanas com 24 horas de antecedência. A novidade já está integrada ao Flood Hub, plataforma da empresa que já monitora cheias ribeirinhas para mais de 2 bilhões de pessoas.
A iniciativa é especialmente valiosa para regiões que não possuem infraestrutura cara de sensores meteorológicos ou radares de alta precisão. “Estamos agregando milhões de relatórios para extrapolar para áreas onde não há tanta informação disponível”, afirmou Juliet Rothenberg, gerente de programa da equipe de Resiliência do Google, ao site Engadget.
Limitações e o futuro da resiliência global
Apesar do avanço, a tecnologia ainda enfrenta desafios técnicos. Conforme reportado pelo Engadget, o modelo atual identifica riscos em áreas de 20 quilômetros quadrados, o que é menos preciso do que sistemas que utilizam radares locais em tempo real (como o serviço meteorológico dos EUA). Por não integrar dados de precipitação instantânea de radar, ele funciona mais como um indicador de probabilidade do que um rastreador de chuva em tempo real.
Ainda assim, o impacto prático já começou. Parceiros humanitários relataram que a ferramenta ajudou na resposta rápida a eventos localizados.
O que vem por aí:
Código aberto: o Google está disponibilizando o conjunto de dados como um benchmark aberto para que cientistas e agências de emergência possam escalar o impacto.
Novas fronteiras: a mesma lógica de usar o Gemini para “minerar” relatórios públicos pode ser aplicada no futuro para prever ondas de calor e deslizamentos de terra.
A Ucrâniaanunciou que começará a compartilhar dados coletados no campo de batalha com países aliados para ajudar no treinamento de sistemas de inteligência artificial (IA) voltados para drones militares. A iniciativa foi confirmada pelo ministro da Defesa, Mykhailo Fedorov, e faz parte da estratégia de Kiev para ampliar o uso de tecnologias autônomas no conflito contra a Rússia.
Segundo Fedorov, a Ucrânia acumulou um volume significativo de informações ao longo dos quatro anos da guerra contra os russos, incluindo registros visuais captados durante operações com drones. Esses dados agora serão utilizados para treinar modelos de IA capazes de reconhecer padrões, identificar alvos e analisar o comportamento de equipamentos e pessoas em cenários de combate.
De acordo com o ministro, o país criou uma plataforma específica para compartilhar essas informações de forma segura, permitindo que os parceiros desenvolvam algoritmos sem acesso direto a conteúdos considerados sensíveis.
Em mensagem publicada no Telegram, Fedorov afirmou que a Ucrânia reúne um banco de dados único, com milhões de imagens obtidas durante dezenas de milhares de missões de drones. O sistema vai disponibilizar aos aliados conjuntos de dados atualizados continuamente.
A expectativa do governo é que a colaboração acelere o desenvolvimento de tecnologias baseadas em IA que possam ser usadas diretamente no campo de batalha contra a Rússia. Para Kiev, a cooperação também pode resultar em novas soluções tecnológicas que reforcem a capacidade militar do país.
“Na guerra moderna, precisamos superar a Rússia em todos os ciclos tecnológicos”, escreveu o ministro, destacando que a IA se tornou uma das áreas centrais dessa disputa.
Presidente ucraniano Volodymyr Zelensky já havia alertado sobre os perigos da IA na guerra (Imagem: miss.cabul/Shutterstock)
Guerra na Ucrânia acelerou avanço tecnológico
Desde o início da guerra na Ucrânia, o país investe em tecnologia de drones e sistemas automatizados – e, hoje, é um dos principais laboratórios de inovação nesse setor.
O volume de dados gerado durante o conflito acabou se tornando um recurso valioso para o desenvolvimento de novas aplicações de IA. Para empresas e governos estrangeiros, esses dados oferecerem exemplos reais de situações de combate.
Segundo a Reuters, a decisão do ministro da Defesa também busca reforçar o apoio político e militar internacional à Ucrânia, que tenta manter o fluxo de financiamento e assistência no quinto ano da guerra.
Ao mesmo tempo, o uso crescente de tecnologias autônomas tem alimentado debates sobre o papel da inteligência artificial em conflitos armados. Em setembro do ano passado, o presidente Volodymyr Zelensky alertou líderes mundiais durante a Assembleia Geral da ONU sobre o risco de uma escalada tecnológica envolvendo drones e IA.
Além da Ucrânia, a tecnologia também tem sido aplicada na guerra do Irã. Nesta semana, os Estados Unidos confirmaram que usam IAs avançadas em atividades militares. Saiba mais aqui.
Na última terça-feira (10), a Microsoft divulgou um comunicado para informar que seu software de IA, o Copilot, será reformulado para melhor atender demandas sobre a saúda humana, trazidas pelos usuários. A decisão decorre após a companhia analisar vários históricos de conversas com o chatbot e perceber que o tópico “saúde” é o mais recorrente.
Segundo a publicação, a empresa informa que os usuários utilizam o Copilot para buscar informações sobre doenças, condições de saúde, e para tomar decisões difíceis na família. Para chegar a este parecer, foram analisadas mais de meio milhão de conversas dos usuários.
Sobre uma possível violação da privacidade dos internautas — ao analisar os históricos de interação com o chatbot — a Microsoft diz que “adotamos uma abordagem rigorosa de preservação da privacidade. Todas as conversas são desidentificadas na fonte […]. Nenhum humano lê as conversas dos usuários como parte desse processo.”
Para quem tem pressa:
A Microsoft lançou, em fase beta, o Copilot Health;
Os usuários que tem acesso adiantado à funcionalidade poderão utilizá-la para obter uma leitura contextual sobre relatórios médicos enviados ao chatbot;
Contudo, o compartilhamento de informações pessoais gera dúvidas quanto à privacidade dos usuários;
Respostas incorretas sobre condições de saúde, provenientes de interações anteriores com outros chatbos alimentados por IA, também deixam os internautas desconfiados quanto a esta nova função do Copilot.
É seguro compartilhar dados de saúde com o Copilot da Microsoft?
Copilot em um tablet (Imagem: Azulblue / Shutterstock.com)
Se qualquer usuário pesquisar rapidamente na internet, encontrará matérias (em vários idiomas) em jornais de peso que explicam porque o compartilhamento de dados pessoais com chatbos é uma má ideia.
Os motivos para especialistas em segurança digital desaprovarem esse comportamento é pautado por diferentes motivos, como:
Não há garantia de que os dados compartilhados não serão vazados em ataques cibernéticos: reportagem do The Guardian e Malwarebytes;
Chatbots e as empresas por trás deles não exatamente colaboram para o bem-estar do usuário ou das pessoas em volta deles: reportagem do The Verge;
Riscos em se expor a informações incorretas e perigosas: matéria do The Guardian;
Os dados enviados podem ser utilizados para treinar softwares de inteligência artificial: análise da Universidade de Stanford.
Apesar do consenso da comunidade de Tecnologia da Informação, a Microsoft deseja reformular o Copilot para fazer diferente: com a nova atualização, os usuários poderão compartilhar dados pessoais sobre sua saúde e obter leituras específicas da IA baseada nas informações cedidas.
A nova funcionalidade se chamará Copilot Health e pode ser acessada dentro da própria plataforma do chatbot. Contudo, será disponibilizada aos poucos para diferentes usuários que se inscreveram numa lista de espera; desta forma, o lançamento público mundial ocorrerá em algum momento no futuro.
O intuito do novo sistema é que o usuário forneça detalhes sobre a sua saúde dentro da plataforma, mas, também, que envie outras informações disponíveis em servidores paralelos. Por exemplo, será possível coletar dados por um smartwatch e enviá-los para o Copilot Health a fim de obter uma leitura específica sobre a condição de saúde do usuário, mesclando o relatório com dados outrotra compartilhados no chatbot.
Contudo, essa ultra-exposição de dados de saúde já causou problemas no passado. Uma reportagem da Fortune, publicada em 07 de março deste ano, detalha como o uso da IA pode contribuir para o aumento de sintomas delirantes e de mania em alguns usuários com saúde mental já comprometida.
Vale destacar que a Microsoft não é a única empresa detentora de uma IA que estuda como implementar essa tecnologia de “aliada à saúde humana”. A OpenAI e Anthropic já iniciaram testes para avaliar como seus respectivos chatbos podem ser aprimorados para oferecer melhores feedbacks sobre a saúde dos usuários.
Reportagens anteriores, como esta da NBC News, mostra que os chatbots alimentados por IA podem ser úteis para responder perguntas generalistas sobre saúde, mas que em contextos mais complexos, dão análises preocupantes.
Interações longas com chatbots podem aumentar os riscos de delírios (Imagem: Summit Art Creations/Shutterstock)
Quando oficialmente lançado, os usuários verão algo como uma aba chamada Health (“saúde” em inglês), na qual poderão criar um perfil após responder perguntas-base sobre idade, sexo, dentre outras. Então, será possível compartilhar relatórios médicos e dados obtidos por dispositivos como Apple Watch, Fitbit e monitores de sono como o Oura.
Após o envio das informações, os internautas devem mandar prompts de comando (por texto) para o chatbot avaliar a situação baseada nos dados de saúde recebidos. Ademais, os usuários ainda podem fazer afirmações, como “não tenho dormido bem”, para obter uma leitura baseada nos registros médicos compartilhados com a inteligência artificial.
Segundo o jornal The New York Times, o chatbot também pode gerar um resumo final com os principais problemas de saúde aos quais o usuário deve prestar atenção, como privação de sono, diabetes e pouca atividade física.
Eventualmente, a Microsoft deve cobrar uma assinatura para a utilização da ferramenta, mas os possíveis valores ainda não foram divulgados.
A Perplexity anunciou, nesta semana, o Personal Computer. É um sistema agêntico de inteligência artificial (IA) que funciona dentro do Mac Mini, “CPU” da Apple. No estilo OpenClaw mesmo.
O anúncio da empresa reforça uma transição tecnológica: a IA deixa de ser uma interface de conversa para se tornar um sistema capaz de gerenciar e controlar arquivos e aplicativos pessoais de forma constante num computador.
Apresentada na conferência Ask na quarta-feira (11), em São Francisco (EUA), o Personal Computer expande a plataforma de nuvem da empresa para criar um “trabalhador digital”.
A tecnologia une o raciocínio de múltiplos modelos de IA de ponta ao acesso a dados locais. Assim, permite que o sistema automatize tarefas complexas que, até então, exigiam intervenção humana constante.
Perplexity Personal Computer: o agente autônomo e o controle de arquivos locais
O diferencial do Personal Computer da Perplexity é seu caráter agêntico aplicado ao contexto local do usuário. Enquanto IAs tradicionais apenas respondem a perguntas, um software agêntico compreende objetivos gerais e toma decisões para concluir tarefas de forma autônoma.
Na prática, o novo sistema da empresa funciona como um procurador digital (proxy) que orquestra ferramentas e documentos em nome do usuário a partir de qualquer aparelho.
Para funcionar, a ferramenta exige um Mac mini que deve permanecer ligado 24 horas por dia e conectado aos servidores da empresa.
Essa configuração permite que a IA manipule documentos físicos, como organizar pastas de fotos ou redigir e-mails para investidores, enquanto o processamento pesado ocorre na nuvem. Assim, os arquivos permanecem no dispositivo do usuário. E a execução da tarefa é contínua.
A segurança é tratada por meio de camadas de proteção técnica. O sistema opera cada consulta num “sandbox”, ambiente isolado que protege a integridade dos dados privados contra falhas.
Além disso, o usuário conta com um “kill switch” (mecanismo de desligamento imediato) e a exigência de aprovação manual para ações sensíveis. Isso garante que o controle final nunca saia das mãos do proprietário.
O uso de Mac minis para hospedar agentes de IA ganhou força com o projeto de código aberto OpenClaw. Mas a Perplexity busca se diferenciar pela estabilidade. A empresa posiciona sua solução como uma alternativa mais segura em comparação a ferramentas experimentais.
Atualmente, o Personal Computer está disponível apenas via lista de espera. A empresa informou que usuários do plano Perplexity Max, o mais caro, terão prioridade no acesso antecipado ao novo sistema.