Quem já precisou circular por clínicas e hospitais conhece a sensação de repetir as mesmas informações várias vezes, preencher formulários semelhantes, enviar documentos por mensagem e esperar retorno sobre autorização de exames. Em um país que desenvolveu bancos digitais sofisticados e exporta tecnologia no agronegócio, a rotina administrativa da saúde ainda parece, muitas vezes, analógica. […]
Os últimos dias têm sido de preocupação para os principais investidores de Wall Street, principalmente após a publicação de um relatório da Citrini Research, trazendo hipóteses de como a inteligência artificial (IA) poderia transformar os meios de pagamento. O resultado foi a queda das ações dos principais bancos, desde segunda-feira, 23 de fevereiro. Mas, para […]
Cinco meses após ter anunciado uma carta de intenções de US$ 100 bilhões na OpenAI, a Nvidia agora está perto de concretizar um acordo com a startup de Sam Altman, mas por um valor bem menor. A perspectiva é pela conclusão de um investimento de US$ 30 bilhões nos próximos dias. O cheque da empresa […]
Em meio ao avanço de um possível IPO, a startup americana de inteligência artificial Anthropic, dona do chatbot Claude, se vê no meio de um conflito político e ideológico com o governo de Donald Trump e com o Pentágono, sede do Departamento de Defesa dos Estados Unidos. A preocupação é que os possíveis atritos com […]
Gigante francês do varejo alimentar, o Carrefour anunciou um extenso plano nesta quarta-feira, 18 de fevereiro, detalhando suas metas e focos até 2030. E, nessa prateleira, um dos destaques é a operação brasileira, que fechou capital na B3 em maio do ano passado. “O Carrefour está adotando hoje um novo e ambicioso plano estratégico radicalmente […]
A Samsung e o Google anunciaram novas funções de inteligência artificial (IA) nesta semana. Agora, o principal objetivo parece ser deixar o Gemini mais “agêntico”, isto é, mais capaz de automatizar tarefas que você costuma fazer manualmente em aplicativos.
Por enquanto, as novidades chegam em fase beta para a nova linha de celulares da Samsung (Galaxy S26) e para a família Pixel 10. Essas ferramentas permitem que a IA execute tarefas como pedir comida ou transporte de forma autônoma, mas sempre sob a sua supervisão.
Celulares Android terão ‘sistema de inteligência’ em vez de operacional
A ideia é que o Android vá de sistema operacional para “sistema de inteligência”. Na prática, isso significa fazer com que o modelo Gemini 3 execute tarefas de vários passos, como pedir Uber, segundo o Google. Funciona assim:
A IA abre o aplicativo numa janela virtual e navega pelas etapas sozinha;
Ela utiliza o raciocínio do modelo Gemini 3 para interagir diretamente com a interface dos programas;
Você pode acompanhar tudo em tempo real ou deixar a IA trabalhar em segundo plano;
Se faltar algo ou houver alguma dúvida, o sistema te notifica para você decidir;
Importante: A conclusão do pedido e o pagamento ainda precisam do seu clique final e revisão.
Com esse anúncio, o Google se coloca numa posição de vantagem em relação à Apple, apontou o The Verge. Embora a Apple tenha apresentado funções parecidas para a Siri em 2024, elas ainda não foram lançadas. E existem rumores de que esses recursos podem chegar apenas no iOS 27, após vários adiamentos. Enquanto a concorrência lida com atrasos, o Google já inicia os testes práticos nos EUA e na Coreia.
Pesquisas mais inteligentes e compras virtuais
O recurso Circle to Search agora identifica vários objetos de uma vez numa imagem (Imagem: Google)
O recurso Circle to Search (Circular para Pesquisar) também foi aprimorado e agora consegue identificar vários objetos de uma vez numa imagem, segundo o Google. Se você gostar de uma roupa numa foto, a IA permite pesquisar todas as peças simultaneamente e ainda oferece um provador virtual dentro da própria ferramenta. Além de compras, ela serve para educação: a IA consegue explicar, por exemplo, o comportamento de animais numa fotografia.
Proteção contra golpes em tempo real
Para fechar, a segurança ganhou um reforço contra fraudes. O sistema utiliza IA dentro do próprio aparelho para identificar padrões de fala suspeitos em chamadas telefônicas e mensagens, avisando sobre possíveis golpes na hora. Essa função vem desativada por padrão e não monitora chamadas de números que já estão salvos nos seus contatos. No momento, a detecção de voz está limitada ao idioma inglês e ao mercado dos Estados Unidos.
(Essa matéria também usou informações de Samsung e Google.)
A Amazon anunciou na quarta-feira um novo recurso para o Alexa+, sua assistente com inteligência artificial (IA). A empresa passou a oferecer três estilos de personalidade — Brief, Chill e Sweet — que permitem ao usuário alterar o tom das respostas da assistente. A novidade foi lançada inicialmente no mercado dos Estados Unidos.
Segundo a companhia, a proposta é dar mais controle sobre a forma como a IA se comunica. Cada estilo modifica características como objetividade, informalidade e nível de entusiasmo nas interações. A função pode ser ativada por comando de voz em dispositivos compatíveis, como a linha Amazon Echo, ou diretamente no aplicativo da Alexa, dentro das configurações do aparelho, na seção “Personality Style”.
Além da personalidade original Alexa, a Amazon introduziu três novas ao Alexa+ nos Estados Unidos (Imagem: Amazon / Divulgação)
Três estilos com tons diferentes
No modo Brief, a assistente responde de maneira mais curta e direta. Já o estilo Chill faz com que a Alexa adote um tom mais descontraído, semelhante ao de um amigo casual. Por sua vez, o modo Sweet torna as respostas mais calorosas e entusiasmadas, incluindo incentivo e positividade, de acordo com a Amazon.
A empresa afirma que os estilos foram desenvolvidos com base em cinco dimensões que moldam a personalidade da IA: expressividade, abertura emocional, formalidade, objetividade e humor. Cada opção combina esses fatores em níveis distintos. O Brief, por exemplo, não se limita a ser conciso, mas também apresenta comunicação casual, direta e com uso mínimo de humor.
A introdução de traços de personalidade em modelos de IA tem sido alvo de debate no setor. Em alguns casos, sistemas considerados excessivamente elogiosos ou afirmativos geraram preocupações. O modelo GPT-4o, da OpenAI, foi citado em processos judiciais que alegam que interações muito validantes teriam contribuído para dependência tecnológica e agravamento de problemas de saúde mental de determinados usuários.
GPT-4o gerou polêmica por sua possibilidade de ter personalidade (Imagem: PatrickAssale / Shutterstock.com)
Ao mesmo tempo, usuários de chatbots demonstram interesse em personalizar a forma como as IAs respondem. Em dezembro, a OpenAI lançou recursos no ChatGPT que permitem ajustar o estilo e o tom base da ferramenta, incluindo níveis de calor humano, entusiasmo e uso de emojis. Mesmo assim, parte dos usuários relata que o modelo mais recente ainda adota um padrão considerado excessivamente tranquilizador.
A Amazon informa que os três novos estilos do Alexa+ são os primeiros de uma série planejada. Outros formatos de personalidade devem ser disponibilizados futuramente.
A Uber desenvolveu uma versão em inteligência artificial (IA) do seu CEO, Dara Khosrowshahi. A ferramenta, batizada de “Dara AI”, permite que funcionários testem suas apresentações e argumentos antes de reuniões reais com o executivo.
A existência desse “clone” foi revelada pelo próprio Khosrowshahi no podcast The Diary of a CEO nesta semana (você encontra a entrevista no final desta matéria).
Mais engenheiros ou mais robôs? O case da Uber (e o impasse na tecnologia)
O avanço da IA impacta a contratação de engenheiros e a estrutura de comando na empresa. Atualmente, cerca de 90% dos desenvolvedores de software da Uber utilizam IA no trabalho. Khosrowshahi define esses profissionais como os construtores da companhia, que atuam sobre uma grande base de código. O aumento de produtividade com essas ferramentas é visto pelo executivo como algo sem precedentes. Cerca de 30% das equipes de programação já são usuárias avançadas da tecnologia.
A Uber já aplica IA em seu serviço de transporte e em novas divisões de tecnologia para clientes externos (Imagem: DenPhotos/Shutterstock)
Essa eficiência gera um dilema sobre o futuro das contratações técnicas. O CEO afirmou que aceita contratar mais engenheiros se eles se tornarem 25% mais rápidos com a IA. No entanto, ele também admite a chance de priorizar o investimento em agentes automáticos e chips da Nvidia em vez de aumentar o número de funcionários.
A Uber já aplica IA em seu serviço de transporte e em novas divisões de tecnologia para clientes externos. Apesar do uso do “Dara AI”, Khosrowshahi afirma que os modelos ainda não substituem executivos por terem dificuldade com informações inéditas. Para ele, o risco de máquinas assumirem a liderança só existirá quando elas aprenderem em tempo real. Outros CEOs do setor de tecnologia têm visões parecidas.
Confira abaixo a entrevista com o CEO da Uber no podcast The Diary of a CEO (o vídeo tem dublagem):
Você já teve uma ideia incrível para criar um bot, uma automação ou um agente de IA, mas travou logo no início porque o setup técnico era um pesadelo? O processo comum todo mundo conhece: você contrata um servidor e gasta horas, ou até dias, configurando dependências e resolvendo erros de instalação antes mesmo de começar o seu projeto. Esse é o “muro técnico” que mata a produtividade de muitos desenvolvedores, agências e empreendedores digitais.
Mas a HostGator acaba de derrubar esse muro. Esse vídeo é patrocinado pela HostGator, então deixamos um agradecimento a eles pelo apoio. A nova VPS NVMe da HostGator agora pode ser entregue com o OpenClaw, também conhecido como Moltbot, pré-instalado. O diferencial aqui é simples e muito poderoso: você tem uma infraestrutura robusta unida a uma aplicação que já vem pronta para o uso, desde o primeiro acesso.
Para quem ainda não conhece, o OpenClaw é um agente de IA pessoal de código aberto que não apenas responde perguntas, mas executa tarefas, acessa arquivos, integra sistemas e aprende com o uso, graças à sua memória persistente.
Uma VPS funciona como um computador na nuvem que nunca desliga, e a grande sacada de rodar o OpenClaw nela é garantir que esse agente de IA trabalhe 24 horas por dia sem parar. Em vez de sobrecarregar seu PC ou ter que deixar a máquina ligada em casa, você joga a tarefa para o servidor, aproveitando a conexão estável e o IP fixo da nuvem para que as automações e navegações do agente rodem com total autonomia.
Como isso funciona na prática? Ao escolher o seu plano de VPS, você encontrará no carrinho de compras a aba “Aplicação”. Lá, com apenas um clique, você seleciona o OpenClaw. Se por acaso você esquecer de selecionar no momento da compra, não tem problema: basta entrar em contato com a equipe da HostGator e solicitar a instalação. Ou seja, a barreira técnica simplesmente deixou de existir.
Rodar o OpenClaw em uma VPS NVMe com memória DDR5 faz toda a diferença. Seu projeto ganha velocidade máxima, estabilidade total para rodar 24 horas por dia e baixa latência por estar em infraestrutura de ponta. Além disso, você tem a segurança de um preço fixo em Real, sem surpresas com a variação do dólar ou taxas variáveis.
Se você quer focar na criação e não na configuração, esse é o atalho definitivo. É a forma mais rápida e acessível de tirar do papel seus projetos de bots, agentes inteligentes e automações complexas. Pare de perder tempo com instalação manual e comece a escalar seus projetos agora mesmo.
A Anthropicanunciou uma revisão em sua principal política de segurança para o desenvolvimento de inteligência artificial. A empresa ganhou notoriedade no setor por adotar uma postura cautelosa em relação aos riscos da IA. Agora, afirmou que está ajustando essas regras para se manter competitiva diante do ritmo acelerado da indústria.
Até então, a companhia mantinha o compromisso de interromper o avanço de um modelo caso ele atingisse determinados níveis de risco considerados críticos. Com a nova diretriz, essa postura passa a ser mais flexível: se concorrentes lançarem sistemas equivalentes ou mais avançados, a Anthropic poderá continuar o desenvolvimento.
A mudança ocorre em um cenário de forte concorrência com empresas como OpenAI, Google e a xAI, de Elon Musk, que vêm lançando modelos cada vez mais poderosos.
Paralelamente, a Anthropic enfrenta pressões políticas e institucionais nos Estados Unidos, incluindo negociações com o Departamento de Defesa sobre o uso do Claude. A empresa havia informado ao Pentágono que não autorizaria aplicações voltadas à vigilância doméstica ou a sistemas autônomos letais. A resposta das autoridades é que a Anthropic precisaria flexibilizar suas políticas até esta semana se quisesse manter o contrato com o governo.
Em comunicado, a Anthropic afirmou que a revisão da política decorre da velocidade dos avanços tecnológicos e da ausência de regras federais claras para o setor. A desenvolvedora também citou o ambiente político atual, que, segundo ela, prioriza competitividade e crescimento econômico em detrimento de debates mais amplos sobre segurança.
Em comunicado, a empresa defendeu que o compromisso com a segurança permanece, mas que o modelo precisa ser adaptado à realidade competitiva e regulatória.
Ajuste na política de segurança veio para tornar a Anthropic mais competitiva com suas rivais (Imagem: Sidney van den Boogaard/Shutterstock)
Nova política de segurança da Anthropic
A nova versão da chamada Política de Escalabilidade Responsável (RSP) reformula a estrutura adotada desde 2023. Originalmente, o documento estabelecia compromissos condicionais: se um modelo atingisse certos níveis de capacidade – por exemplo, conhecimento que pudesse facilitar o desenvolvimento de armas químicas ou biológicas – a empresa seria obrigada a implementar salvaguardas adicionais, classificadas em diferentes “Níveis de Segurança de IA”.
Agora, a Anthropic separa suas obrigações internas do que considera recomendações ideais para todo o setor. Em vez de compromissos rígidos atrelados a patamares técnicos da IA, a empresa passa a adotar metas públicas de segurança, descritas como ambiciosas, mas viáveis dentro do contexto atual.
Entre as novas iniciativas anunciadas estão a criação de um “Roteiro de Segurança da Fronteira”, que detalhará planos de mitigação de riscos, e a publicação periódica de Relatórios de Risco, com avaliações sobre capacidades dos modelos, potenciais ameaças e medidas de proteção implementadas.
Esses relatórios deverão ser divulgados a cada três a seis meses, com possibilidade de revisão por especialistas externos em determinadas circunstâncias.
A empresa reconheceu que sua estratégia original enfrentou limitações. Por exemplo, muitas vezes não havia consenso interno sobre quando um modelo realmente ultrapassava um nível crítico de risco. Além disso, a expectativa de que governos adotassem rapidamente padrões regulatórios mais robustos não se concretizou.
A revisão da política ocorre em meio a questionamentos internos e externos sobre o rumo da indústria de IA. Nas últimas semanas, pesquisadores deixaram a Anthropic e outras empresas do setor alegando preocupações com a diminuição do foco em segurança. Um dos casos foi o de Mrinank Sharma, pesquisador da área de segurança, que anunciou sua saída no início do mês. Em comunicação interna, ele alertou para riscos associados ao avanço acelerado da tecnologia.