inteligência artificial

Auto Added by WPeMatico

Amazon lança novos estilos de personalidade para Alexa+

A Amazon anunciou na quarta-feira um novo recurso para o Alexa+, sua assistente com inteligência artificial (IA). A empresa passou a oferecer três estilos de personalidade — Brief, Chill e Sweet — que permitem ao usuário alterar o tom das respostas da assistente. A novidade foi lançada inicialmente no mercado dos Estados Unidos.

Segundo a companhia, a proposta é dar mais controle sobre a forma como a IA se comunica. Cada estilo modifica características como objetividade, informalidade e nível de entusiasmo nas interações. A função pode ser ativada por comando de voz em dispositivos compatíveis, como a linha Amazon Echo, ou diretamente no aplicativo da Alexa, dentro das configurações do aparelho, na seção “Personality Style”.

Além da personalidade original Alexa, a Amazon introduziu três novas ao Alexa+ nos Estados Unidos (Imagem: Amazon / Divulgação)

Três estilos com tons diferentes

No modo Brief, a assistente responde de maneira mais curta e direta. Já o estilo Chill faz com que a Alexa adote um tom mais descontraído, semelhante ao de um amigo casual. Por sua vez, o modo Sweet torna as respostas mais calorosas e entusiasmadas, incluindo incentivo e positividade, de acordo com a Amazon.

A empresa afirma que os estilos foram desenvolvidos com base em cinco dimensões que moldam a personalidade da IA: expressividade, abertura emocional, formalidade, objetividade e humor. Cada opção combina esses fatores em níveis distintos. O Brief, por exemplo, não se limita a ser conciso, mas também apresenta comunicação casual, direta e com uso mínimo de humor.

Leia mais:

Personalidade em IAs é tema sensível

A introdução de traços de personalidade em modelos de IA tem sido alvo de debate no setor. Em alguns casos, sistemas considerados excessivamente elogiosos ou afirmativos geraram preocupações. O modelo GPT-4o, da OpenAI, foi citado em processos judiciais que alegam que interações muito validantes teriam contribuído para dependência tecnológica e agravamento de problemas de saúde mental de determinados usuários.

openai gpt-4o
GPT-4o gerou polêmica por sua possibilidade de ter personalidade (Imagem: PatrickAssale / Shutterstock.com)

Ao mesmo tempo, usuários de chatbots demonstram interesse em personalizar a forma como as IAs respondem. Em dezembro, a OpenAI lançou recursos no ChatGPT que permitem ajustar o estilo e o tom base da ferramenta, incluindo níveis de calor humano, entusiasmo e uso de emojis. Mesmo assim, parte dos usuários relata que o modelo mais recente ainda adota um padrão considerado excessivamente tranquilizador.

A Amazon informa que os três novos estilos do Alexa+ são os primeiros de uma série planejada. Outros formatos de personalidade devem ser disponibilizados futuramente.

O post Amazon lança novos estilos de personalidade para Alexa+ apareceu primeiro em Olhar Digital.

Amazon lança novos estilos de personalidade para Alexa+ Read More »

Dara AI: Uber cria clone de CEO com IA para treinar funcionários

A Uber desenvolveu uma versão em inteligência artificial (IA) do seu CEO, Dara Khosrowshahi. A ferramenta, batizada de “Dara AI”, permite que funcionários testem suas apresentações e argumentos antes de reuniões reais com o executivo. 

A existência desse “clone” foi revelada pelo próprio Khosrowshahi no podcast The Diary of a CEO nesta semana (você encontra a entrevista no final desta matéria).

Mais engenheiros ou mais robôs? O case da Uber (e o impasse na tecnologia)

O avanço da IA impacta a contratação de engenheiros e a estrutura de comando na empresa. Atualmente, cerca de 90% dos desenvolvedores de software da Uber utilizam IA no trabalho. Khosrowshahi define esses profissionais como os construtores da companhia, que atuam sobre uma grande base de código. O aumento de produtividade com essas ferramentas é visto pelo executivo como algo sem precedentes. Cerca de 30% das equipes de programação já são usuárias avançadas da tecnologia.

A Uber já aplica IA em seu serviço de transporte e em novas divisões de tecnologia para clientes externos (Imagem: DenPhotos/Shutterstock)

Essa eficiência gera um dilema sobre o futuro das contratações técnicas. O CEO afirmou que aceita contratar mais engenheiros se eles se tornarem 25% mais rápidos com a IA. No entanto, ele também admite a chance de priorizar o investimento em agentes automáticos e chips da Nvidia em vez de aumentar o número de funcionários.

A Uber já aplica IA em seu serviço de transporte e em novas divisões de tecnologia para clientes externos. Apesar do uso do “Dara AI”, Khosrowshahi afirma que os modelos ainda não substituem executivos por terem dificuldade com informações inéditas. Para ele, o risco de máquinas assumirem a liderança só existirá quando elas aprenderem em tempo real. Outros CEOs do setor de tecnologia têm visões parecidas.

Confira abaixo a entrevista com o CEO da Uber no podcast The Diary of a CEO (o vídeo tem dublagem):

O post Dara AI: Uber cria clone de CEO com IA para treinar funcionários apareceu primeiro em Olhar Digital.

Dara AI: Uber cria clone de CEO com IA para treinar funcionários Read More »

IA 24h online: como instalar o OpenClaw de forma simples e barata

Você já teve uma ideia incrível para criar um bot, uma automação ou um agente de IA, mas travou logo no início porque o setup técnico era um pesadelo? O processo comum todo mundo conhece: você contrata um servidor e gasta horas, ou até dias, configurando dependências e resolvendo erros de instalação antes mesmo de começar o seu projeto. Esse é o “muro técnico” que mata a produtividade de muitos desenvolvedores, agências e empreendedores digitais.

Mas a HostGator acaba de derrubar esse muro. Esse vídeo é patrocinado pela HostGator, então deixamos um agradecimento a eles pelo apoio. A nova VPS NVMe da HostGator agora pode ser entregue com o OpenClaw, também conhecido como Moltbot, pré-instalado. O diferencial aqui é simples e muito poderoso: você tem uma infraestrutura robusta unida a uma aplicação que já vem pronta para o uso, desde o primeiro acesso.

Para quem ainda não conhece, o OpenClaw é um agente de IA pessoal de código aberto que não apenas responde perguntas, mas executa tarefas, acessa arquivos, integra sistemas e aprende com o uso, graças à sua memória persistente.

Uma VPS funciona como um computador na nuvem que nunca desliga, e a grande sacada de rodar o OpenClaw nela é garantir que esse agente de IA trabalhe 24 horas por dia sem parar. Em vez de sobrecarregar seu PC ou ter que deixar a máquina ligada em casa, você joga a tarefa para o servidor, aproveitando a conexão estável e o IP fixo da nuvem para que as automações e navegações do agente rodem com total autonomia.

Como isso funciona na prática? Ao escolher o seu plano de VPS, você encontrará no carrinho de compras a aba “Aplicação”. Lá, com apenas um clique, você seleciona o OpenClaw. Se por acaso você esquecer de selecionar no momento da compra, não tem problema: basta entrar em contato com a equipe da HostGator e solicitar a instalação. Ou seja, a barreira técnica simplesmente deixou de existir.

Rodar o OpenClaw em uma VPS NVMe com memória DDR5 faz toda a diferença. Seu projeto ganha velocidade máxima, estabilidade total para rodar 24 horas por dia e baixa latência por estar em infraestrutura de ponta. Além disso, você tem a segurança de um preço fixo em Real, sem surpresas com a variação do dólar ou taxas variáveis.

Se você quer focar na criação e não na configuração, esse é o atalho definitivo. É a forma mais rápida e acessível de tirar do papel seus projetos de bots, agentes inteligentes e automações complexas. Pare de perder tempo com instalação manual e comece a escalar seus projetos agora mesmo.

Ficou interessado? Então clique aqui para aproveitar um desconto especial e começar agora mesmo! E o melhor: ao adquirir o plano anual, você economiza ainda mais.

Este link faz parte de um programa de afiliados. O preço não muda para você, e o Olhar Digital ganha uma comissão a cada venda.

O post IA 24h online: como instalar o OpenClaw de forma simples e barata apareceu primeiro em Olhar Digital.

IA 24h online: como instalar o OpenClaw de forma simples e barata Read More »

Anthropic flexibiliza segurança para se manter competitiva na corrida de IA

A Anthropic anunciou uma revisão em sua principal política de segurança para o desenvolvimento de inteligência artificial. A empresa ganhou notoriedade no setor por adotar uma postura cautelosa em relação aos riscos da IA. Agora, afirmou que está ajustando essas regras para se manter competitiva diante do ritmo acelerado da indústria.

Até então, a companhia mantinha o compromisso de interromper o avanço de um modelo caso ele atingisse determinados níveis de risco considerados críticos. Com a nova diretriz, essa postura passa a ser mais flexível: se concorrentes lançarem sistemas equivalentes ou mais avançados, a Anthropic poderá continuar o desenvolvimento.

A mudança ocorre em um cenário de forte concorrência com empresas como OpenAI, Google e a xAI, de Elon Musk, que vêm lançando modelos cada vez mais poderosos.

Paralelamente, a Anthropic enfrenta pressões políticas e institucionais nos Estados Unidos, incluindo negociações com o Departamento de Defesa sobre o uso do Claude. A empresa havia informado ao Pentágono que não autorizaria aplicações voltadas à vigilância doméstica ou a sistemas autônomos letais. A resposta das autoridades é que a Anthropic precisaria flexibilizar suas políticas até esta semana se quisesse manter o contrato com o governo.

Em comunicado, a Anthropic afirmou que a revisão da política decorre da velocidade dos avanços tecnológicos e da ausência de regras federais claras para o setor. A desenvolvedora também citou o ambiente político atual, que, segundo ela, prioriza competitividade e crescimento econômico em detrimento de debates mais amplos sobre segurança.

Em comunicado, a empresa defendeu que o compromisso com a segurança permanece, mas que o modelo precisa ser adaptado à realidade competitiva e regulatória.

Ajuste na política de segurança veio para tornar a Anthropic mais competitiva com suas rivais (Imagem: Sidney van den Boogaard/Shutterstock)

Nova política de segurança da Anthropic

A nova versão da chamada Política de Escalabilidade Responsável (RSP) reformula a estrutura adotada desde 2023. Originalmente, o documento estabelecia compromissos condicionais: se um modelo atingisse certos níveis de capacidade – por exemplo, conhecimento que pudesse facilitar o desenvolvimento de armas químicas ou biológicas – a empresa seria obrigada a implementar salvaguardas adicionais, classificadas em diferentes “Níveis de Segurança de IA”.

Agora, a Anthropic separa suas obrigações internas do que considera recomendações ideais para todo o setor. Em vez de compromissos rígidos atrelados a patamares técnicos da IA, a empresa passa a adotar metas públicas de segurança, descritas como ambiciosas, mas viáveis dentro do contexto atual.

Entre as novas iniciativas anunciadas estão a criação de um “Roteiro de Segurança da Fronteira”, que detalhará planos de mitigação de riscos, e a publicação periódica de Relatórios de Risco, com avaliações sobre capacidades dos modelos, potenciais ameaças e medidas de proteção implementadas.

Esses relatórios deverão ser divulgados a cada três a seis meses, com possibilidade de revisão por especialistas externos em determinadas circunstâncias.

A empresa reconheceu que sua estratégia original enfrentou limitações. Por exemplo, muitas vezes não havia consenso interno sobre quando um modelo realmente ultrapassava um nível crítico de risco. Além disso, a expectativa de que governos adotassem rapidamente padrões regulatórios mais robustos não se concretizou.

A revisão da política ocorre em meio a questionamentos internos e externos sobre o rumo da indústria de IA. Nas últimas semanas, pesquisadores deixaram a Anthropic e outras empresas do setor alegando preocupações com a diminuição do foco em segurança. Um dos casos foi o de Mrinank Sharma, pesquisador da área de segurança, que anunciou sua saída no início do mês. Em comunicação interna, ele alertou para riscos associados ao avanço acelerado da tecnologia.

O post Anthropic flexibiliza segurança para se manter competitiva na corrida de IA apareceu primeiro em Olhar Digital.

Anthropic flexibiliza segurança para se manter competitiva na corrida de IA Read More »

Mais do que um copiloto: a orquestração agêntica como novo paradigma da engenharia de software

Mais do que um copiloto: a orquestração agêntica como novo paradigma da engenharia de software

Durante anos, a promessa da engenharia de software foi simples: abstrair complexidade para libertar tempo criativo. Na prática, aconteceu o inverso. A maior parte das equipas vive hoje afogada em manutenção, pipelines frágeis e ciclos de correção intermináveis. O código continua a ser escrito por humanos altamente qualificados, mas grande parte desse esforço é consumido por trabalho repetitivo, reativo e pouco estratégico.

É neste ponto de saturação que começa a ganhar forma um novo paradigma: a orquestração agêntica. Não como conceito teórico, mas como resposta pragmática a um problema real. O OpenAI Codex surge aqui não como mais um assistente de escrita, mas como um agente de programação autónomo, capaz de assumir execução técnica contínua.

TL;DR

A engenharia de software está a deixar de ser um exercício de escrita manual para se tornar um problema de orquestração. O OpenAI Codex não atua como simples copiloto, mas como agente autónomo capaz de executar trabalho técnico em paralelo, manter sistemas estáveis e aplicar padrões de equipa. À medida que a execução passa a ser delegada à IA, o valor do engenheiro desloca-se para a arquitetura, a decisão e a liderança de ecossistemas de agentes.

O esgotamento do modelo manual

O modelo tradicional de desenvolvimento parte de um pressuposto implícito: o engenheiro deve controlar diretamente cada passo da execução. Mesmo quando existem ferramentas de apoio, estas funcionam de forma reativa — sugerem, completam, corrigem, mas exigem atenção constante.

Este modelo não escala bem num contexto de sistemas distribuídos, múltiplos repositórios e equipas pressionadas por ciclos de entrega cada vez mais curtos. O problema já não é escrever código difícil, mas gerir complexidade operacional permanente.

Quando a maior parte do tempo é gasta a manter o sistema vivo, a arquitetura deixa de evoluir.

De assistente a agente autónomo

O OpenAI Codex marca uma mudança qualitativa clara. Não se limita a sugerir código ou responder a prompts. Funciona como agente autónomo, com capacidade para compreender contexto, planear abordagens técnicas e executar tarefas completas.

A relação entre humano e ferramenta altera-se profundamente. O engenheiro deixa de microgerir execução e passa a definir objetivos, restrições e critérios de qualidade. A IA executa.

Este deslocamento de responsabilidade é o ponto central da orquestração agêntica.

Autonomia real em ambiente cloud

Um dos pilares do Codex é o seu funcionamento em ambiente cloud dedicado. O agente pode ler, editar e executar código sem depender de um ambiente local ou de interação constante com o utilizador.

Isto permite algo que raramente é discutido de forma explícita: trabalho técnico em segundo plano, contínuo e paralelo. Refactorizações profundas, resolução de bugs persistentes ou análise de regressões deixam de competir pela atenção da equipa.

A inteligência deixa de ser episódica. Passa a ser persistente.

Orquestração multiagente e paralelização efetiva

A arquitetura do Codex permite distribuir trabalho por múltiplos agentes, cada um focado numa tarefa específica. Em vez de um fluxo linear — analisar, implementar, testar, rever — surgem fluxos paralelos, coordenados a partir de um centro de comando.

Este modelo aproxima-se mais de uma equipa técnica bem organizada do que de uma ferramenta isolada. Tarefas que antes exigiam sincronização constante podem avançar de forma independente, reduzindo bloqueios e tempos mortos.

O ganho não é apenas de velocidade. É de capacidade cognitiva coletiva.

Fiabilidade operacional como responsabilidade da IA

Outro aspeto decisivo é a automatização de tarefas operacionais críticas. Em modo não interativo, o Codex pode assumir triagem de issues, monitorização de alertas, gestão de pipelines de CI/CD e verificação contínua da saúde do sistema.

Este tipo de trabalho é essencial, mas raramente valorizado. Ao delegá-lo a um agente autónomo, a equipa recupera espaço mental para decisões arquiteturais e evolução do produto.

A fiabilidade deixa de depender da vigilância humana constante.

Integração direta no ecossistema de desenvolvimento

O Codex não vive isolado. Está integrado nos principais pontos de contacto do desenvolvimento moderno: IDEs, terminal, aplicações nativas e GitHub. Ao interagir diretamente com issues e pull requests, o agente participa no fluxo real de trabalho, não numa camada paralela.

Em ambientes cloud, dispõe ainda de acesso controlado à internet para consultar documentação e dependências externas, reduzindo fricção em problemas complexos ou pouco documentados.

A ferramenta adapta-se a diferentes contextos, desde utilização individual até ambientes empresariais com requisitos de governação mais rígidos.

Consistência técnica e aprendizagem de equipa

Um receio legítimo associado à IA generativa é a produção de código desalinhado com padrões internos. O Codex responde a este risco através do sistema de Skills, que permite ensinar ao agente as convenções, práticas e expectativas específicas de cada equipa.

O resultado não é apenas código funcional, mas coerente. O agente contribui para documentação, testes e compreensão da base de código, atuando como extensão técnica da equipa e não como elemento estranho.

A consistência passa a ser uma propriedade do sistema, não uma luta permanente.

O que muda no papel do engenheiro

A consequência mais profunda desta transição não é técnica, mas profissional. Quando a execução passa a ser delegável, o valor do engenheiro desloca-se.

Escrever código continua a ser importante, mas deixa de ser o centro. Ganham peso competências como desenho de sistemas, definição de limites, avaliação de riscos, alinhamento entre produto e arquitetura.

A pergunta deixa de ser como implementar mais rápido e passa a ser:

que sistemas vale a pena construir e como devem evoluir?

Uma mudança que já começou

A orquestração agêntica não é uma visão distante. Está a acontecer agora, de forma gradual, em equipas que começam a delegar execução técnica a agentes autónomos.

O OpenAI Codex é um dos primeiros sinais claros dessa mudança. Não porque substitua engenheiros, mas porque redefine onde o seu tempo e atenção fazem realmente diferença.

Num mundo onde a execução se torna invisível, a arquitetura volta a ser o centro. E isso, paradoxalmente, pode ser a melhor notícia para a engenharia de software em muito tempo.

Versão vídeo do artigo

https://youtu.be/WO4Bp5VYvAE

Acesso ao Codex

https://openai.com/pt-PT/codex/

Leitura recomendada

Como Criar um Assistente de IA Verdadeiramente Especialista: Guia Completo para Profissionais

Mais do que um copiloto: a orquestração agêntica como novo paradigma da engenharia de software Read More »

OpenAI Prism investigação científica: a revolução da escrita académica com IA

OpenAI Prism investigação científica: a revolução da escrita académica com IA

 

OpenAI Prism investigação científica

O OpenAI Prism na investigação científica marca uma nova era na forma como os investigadores escrevem, colaboram e produzem conhecimento científico. Ao integrar inteligência artificial avançada, LaTeX, bibliografia dinâmica e colaboração em tempo real num único ambiente, esta plataforma elimina a fragmentação tecnológica que há décadas trava a produtividade académica.


Meta descrição (SEO): Descubra como o OpenAI Prism unifica escrita científica, LaTeX, bibliografia e IA avançada num único ambiente colaborativo, acelerando a investigação e reduzindo a fragmentação tecnológica.

Palavras-chave: OpenAI Prism, investigação científica, IA na ciência, escrita académica, LaTeX, bibliografia dinâmica, GPT-5.2 Thinking, colaboração científica


Uma estação de trabalho científica “tudo-em-um”

Image

Image

O Prism integra redação, revisão, formatação e preparação para publicação num único ambiente. A sua base tecnológica resulta da evolução de uma plataforma LaTeX adquirida pela OpenAI, agora transformada num sistema unificado de escrita científica.

Esta abordagem elimina a alternância constante entre aplicações distintas, fenómeno conhecido como context switching, que fragmenta a atenção e reduz a qualidade do raciocínio científico.
Ao centralizar o processo, o Prism permite que o investigador se concentre na análise crítica, enquanto a plataforma gere a infraestrutura técnica do projeto.

O OpenAI Prism investigação científica posiciona-se como um verdadeiro sistema operativo da descoberta científica, reduzindo a fricção técnica e aumentando a eficiência intelectual dos investigadores.


O cérebro por trás do texto: GPT-5.2 Thinking

No centro do Prism está o GPT-5.2 Thinking, o modelo mais avançado da OpenAI para raciocínio matemático e científico. Ao contrário de assistentes externos, esta IA tem acesso total e permanente ao documento em edição.

A inovação reside nas alterações diretas no manuscrito:

  • A IA modifica equações, secções e referências no próprio texto.
  • Elimina o ciclo ineficiente de copiar e colar sugestões.
  • Compreende a relação entre figuras, fórmulas e bibliografia.

Este comportamento aproxima-se do papel de um coautor especializado, capaz de apoiar a escrita científica com consistência contextual e rigor técnico.


Do quadro para o código: automação inteligente

Image

 

Image

O Prism converte diagramas ou equações desenhadas num quadro branco diretamente para código LaTeX (TikZ). Esta funcionalidade reduz horas de trabalho manual e minimiza erros de transcrição.

Inclui ainda:

  • Edição por voz, para pequenas correções sem interromper o fluxo de pensamento.
  • Automatização da estrutura do artigo, mantendo coerência entre texto, gráficos e equações.

Bibliografia dinâmica e ligação ao estado da arte

A integração direta com o arXiv redefine o papel das referências científicas.
Em vez de uma lista estática, a bibliografia torna-se dinâmica:

  • A IA identifica novos artigos relevantes.
  • Reavalia o texto à luz das publicações mais recentes.
  • Garante alinhamento contínuo com o estado da arte.

Este mecanismo transforma a revisão bibliográfica num processo vivo e permanentemente atualizado.


Colaboração radical e equidade global

O Prism permite colaboradores ilimitados sem custos adicionais, removendo barreiras geográficas e institucionais.
Embora venha a ser disponibilizado para empresas através dos planos Business, Team, Enterprise e Education, o acesso inicial gratuito para utilizadores com conta ChatGPT representa um passo decisivo para a democratização da ciência.

Investigadores de instituições com menos recursos passam a ter acesso:

  • A um ambiente de escrita profissional.
  • Ao modelo de raciocínio mais avançado da OpenAI.
  • A ferramentas de colaboração em tempo real.

Menos tempo gasto em tarefas mecânicas significa mais tempo dedicado à descoberta científica.

Com o OpenAI Prism investigação científica, a escrita académica deixa de ser um processo fragmentado para se tornar um fluxo contínuo assistido por IA.


Conclusão: 2026 e o futuro da investigação científica

A OpenAI antecipa que 2026 será para a ciência o que 2025 foi para o desenvolvimento de software: um ponto de viragem impulsionado pela Inteligência Artificial.
Ao remover a fricção técnica e burocrática do trabalho académico, o Prism posiciona-se não apenas como um editor, mas como o sistema operativo da descoberta científica.

A questão final é inevitável:
Se a IA eliminar os entraves administrativos da investigação, quão mais depressa poderemos resolver os grandes desafios da humanidade?

Acesso ao Prism

https://openai.com/pt-PT/index/introducing-prism/

Material complementar recomendado

Artigo “Não é sobre prompts mágicos: é sobre colaborar com a IA: Não é sobre prompts mágicos: é sobre colaborar com a IA – Vitor Martins

Versão Vídeo

https://youtu.be/BnK8X1P8EsU

OpenAI Prism investigação científica: a revolução da escrita académica com IA Read More »

MAGMA: Repensar a Memória em Agentes de IA com Arquiteturas Multi-Grafo

TL;DR

Os LLMs falham em tarefas de longo prazo porque não têm memória estruturada.
O MAGMA propõe uma arquitetura de memória baseada em múltiplos grafos (semântico, temporal, causal e de entidades), onde a recuperação deixa de ser apenas por similaridade e passa a ser uma travessia guiada pela intenção da pergunta.
O resultado são agentes mais coerentes, interpretáveis e capazes de aprender com a experiência ao longo do tempo.

Termos e conceitos

RAG – RAG é uma técnica que permite a um modelo de linguagem consultar informação externa relevante antes de responder.

Agente de IA – Um agente é um sistema de IA que observa o ambiente, toma decisões e executa ações de forma autónoma para atingir um objetivo.

LLM – Um LLM (Large Language Model) é um modelo de inteligência artificial treinado com grandes volumes de texto para compreender e gerar linguagem natural.

Tokens – Tokens são os pequenos blocos de texto em que uma frase é dividida para que a IA a consiga compreender.

Porque é que a memória continua a ser o “calcanhar de Aquiles” da IA

O Problema da Memória dos LLMs

Os modelos de linguagem atuais são impressionantes. Conseguem escrever código, explicar conceitos complexos e manter diálogos convincentes. Mas basta prolongar a conversa, mudar ligeiramente o contexto ou regressar a um tema passado para que surja um problema recorrente: a memória falha.

Apesar de toda a sofisticação, os LLMs continuam presos a uma janela de contexto finita. Tudo o que fica fora desse espaço é, na prática, esquecido. Isto limita drasticamente a sua capacidade de:

  • Raciocinar sobre sequências longas de eventos

  • Manter coerência ao longo do tempo

  • Desenvolver uma identidade estável

  • Aprender com experiências passadas

A resposta habitual tem sido “mais contexto” ou “mais tokens”. Mas isso é apenas um paliativo. O problema não é só quanto o modelo consegue ver — é como a memória é representada, organizada e recuperada.

É neste ponto que entra o MAGMA, uma proposta que não tenta esticar o contexto, mas sim repensar a memória desde a raiz.


O estado da arte: como funcionam hoje os sistemas de memória para agentes

Memory-Augmented Generation (MAG)

Memória de IA Abordagem Estruturada

Memória de IA Abordagem Estruturada

Para ultrapassar os limites do contexto, surgiram sistemas de Memory-Augmented Generation. A ideia é simples: em vez de depender apenas da memória implícita do modelo, usa-se uma memória externa onde se guardam interações passadas, documentos ou observações.

Quando surge uma nova pergunta, o sistema:

  1. Procura na memória conteúdos “relevantes”

  2. Injeta essa informação no contexto do modelo

  3. Gera a resposta

Este paradigma abriu a porta a agentes mais persistentes, mas rapidamente revelou fragilidades.


Abordagens dominantes e os seus limites

A maioria das soluções atuais partilha características comuns:

  • Memória monolítica: tudo vai para o mesmo repositório

  • Recuperação por similaridade semântica: embeddings + top-k

  • Heurísticas simples: recência, pontuação, filtros

O problema é que nem todas as perguntas são semânticas.

Perguntas como:

  • “O que levou a esta decisão?”

  • “O que aconteceu antes disto?”

  • “Quem esteve envolvido?”

  • “Porque é que isto correu mal da última vez?”

exigem estrutura temporal, causal e relacional, algo que embeddings densos não capturam bem.

O resultado é familiar: recuperações vagas, contexto irrelevante e raciocínio frágil especialmente em tarefas longas.


A ideia central do MAGMA

MAGMA Arquitetura de Memória e Grafos

MAGMA Arquitetura de Memória e Grafos

O MAGMA parte de uma premissa simples, mas poderosa:

A memória não deve ser representada num único espaço.

Em vez de tratar todas as memórias como vetores num mesmo embedding, o MAGMA propõe que cada memória seja vista através de múltiplas lentes, cada uma capturando um tipo diferente de relação.

Essas lentes são materializadas como grafos distintos, mas interligados.


Arquitetura do MAGMA: memória como múltiplos grafos

Uma Memória Múltiplas Vistas

Uma Memória Múltiplas Vistas

O que é um item de memória?

No MAGMA, um item de memória pode ser:

  • Uma interação

  • Uma observação

  • Um evento

  • Uma decisão tomada pelo agente

Esse item existe simultaneamente em vários grafos, cada um com ligações diferentes.


Os quatro grafos fundamentais

Grafo Semântico

Captura o significado do conteúdo.
É o mais próximo das abordagens tradicionais de embeddings, ligando memórias por similaridade conceptual.

Serve bem para:

  • Perguntas factuais

  • Recuperação de conhecimento


Grafo Temporal

Modela quando algo aconteceu.

As ligações representam:

  • Ordem dos eventos

  • Distância temporal

  • Continuidade histórica

Essencial para perguntas do tipo:

  • “O que aconteceu antes?”

  • “O que mudou desde então?”


Grafo Causal

Representa relações de causa-efeito.

Aqui, os nós ligam-se porque:

  • Um evento levou a outro

  • Uma decisão teve consequências

Este grafo é crítico para:

  • Raciocínio explicativo

  • Análise de erros

  • Planeamento futuro baseado no passado


Grafo de Entidades

Organiza memórias em torno de:

  • Pessoas

  • Objetos

  • Conceitos

  • Tópicos

Permite responder a:

  • “Quem esteve envolvido?”

  • “O que já sabemos sobre X?”


Recuperação de memória como travessia guiada por política

Recuperação Clássica Versus Processo MAGMA

Recuperação Clássica Versus Processo MAGMA

Porque a similaridade não chega

Num sistema clássico, a pergunta é convertida num embedding e comparada com a memória. Isto assume que:

  • A relevância é sempre semântica

  • O melhor contexto está nos itens mais “parecidos”

Mas a intenção real da pergunta pode ser temporal, causal ou relacional.


O novo paradigma do MAGMA

O MAGMA reformula a recuperação como um problema de decisão sequencial:

  • Uma política decide:

    • Qual o grafo a explorar

    • Que nós visitar

    • Quando parar

Em vez de “os 5 mais parecidos”, temos uma travessia adaptativa, guiada pela intenção da query.

O sistema pode, por exemplo:

  • Começar no grafo semântico

  • Saltar para o grafo causal

  • Refinar no grafo temporal


Interpretabilidade como vantagem estrutural

Uma consequência importante:
o caminho percorrido é explícito.

Isto permite:

  • Entender porque certa memória foi usada

  • Depurar erros

  • Ajustar o comportamento do agente

Algo praticamente impossível em pipelines puramente baseados em embeddings.


Separar memória de raciocínio: uma escolha crítica

MAGMA Raciocínio Explícito e Interpretável

MAGMA Raciocínio Explícito e Interpretável

Uma das decisões arquiteturais mais relevantes do MAGMA é o desacoplamento entre:

  • Representação da memória

  • Lógica de recuperação

A memória é estrutural e persistente.
A política de recuperação é flexível e adaptável.

Este design traz benefícios claros:

  • Maior controlo

  • Melhor extensibilidade

  • Menos interferência entre tipos de informação


Resultados experimentais

O MAGMA foi avaliado em benchmarks focados em raciocínio de longo prazo, como LoCoMo e LongMemEval.

Os resultados mostram:

  • Melhor desempenho global

  • Menor degradação ao longo do tempo

  • Maior coerência entre sessões

Mais importante do que a métrica bruta é o comportamento emergente: o agente mantém contexto, aprende com o passado e evita repetir erros.


Porque o MAGMA é diferente (e importante)

MAGMA Memória e Lógica Separadas

MAGMA Memória e Lógica Separada

O MAGMA não é apenas “mais um RAG”.

É uma mudança de mentalidade:

  • De memória implícita para memória explícita

  • De similaridade para estrutura

  • De contexto temporário para experiência acumulada

Isto aproxima os agentes de conceitos como:

  • Identidade

  • Continuidade

  • Aprendizagem experiencial


Limitações e desafios abertos

Claro que há desafios:

  • Custos computacionais dos grafos

  • Escalabilidade a milhões de memórias

  • Aprendizagem eficiente da política

  • Integração com agentes existentes

Mas estes são problemas de engenharia, não limitações conceptuais.


O futuro da memória em agentes de IA

Memória Estruturada Potencia a Inteligência

 

Memória Estruturada Potencia a Inteligência

Se queremos agentes que:

  • Trabalhem durante meses

  • Evoluam com o utilizador

  • Tomem decisões informadas pelo passado

então a memória tem de ser uma infraestrutura central, não um acessório.

O MAGMA não é o ponto final, mas é um passo sólido na direção certa.


Conclusão

Sem memória estruturada, não há agentes inteligentes de longo prazo.

O MAGMA mostra que o caminho não passa por janelas de contexto maiores, mas por memórias melhor organizadas, relacionais e interpretáveis.

É uma proposta ambiciosa e precisamente por isso, relevante.

FAQs — Memória em Agentes de IA e MAGMA

O que é memória em agentes de IA?

A memória em agentes de IA refere-se à capacidade de armazenar, organizar e reutilizar informação ao longo do tempo, para além da janela de contexto imediata de um modelo de linguagem. É essencial para agentes que operam em múltiplas sessões, tomam decisões sequenciais ou precisam de manter coerência a longo prazo.


Porque é que os LLMs têm problemas de memória?

Os LLMs funcionam com uma janela de contexto finita. Tudo o que fica fora desse contexto deixa de influenciar a resposta. Sem memória externa estruturada, o modelo não consegue recordar decisões passadas, eventos antigos ou relações causais complexas.


O que é o RAG clássico e porque não é suficiente?

O RAG (Retrieval-Augmented Generation) clássico recupera informação com base em similaridade semântica usando embeddings.
Funciona bem para perguntas factuais, mas falha quando a pergunta é:

  • temporal (“o que aconteceu antes?”)

  • causal (“porque é que isto falhou?”)

  • relacional (“quem esteve envolvido?”)

Nestes casos, a estrutura da memória é mais importante do que a semântica.


O que é o MAGMA?

O MAGMA é uma arquitetura de memória para agentes de IA baseada em múltiplos grafos. Cada item de memória é representado simultaneamente em diferentes grafos, permitindo raciocínio semântico, temporal, causal e baseado em entidades.


Que tipos de grafos o MAGMA utiliza?

O MAGMA organiza a memória em quatro grafos principais:

  • Semântico — significado e conteúdo

  • Temporal — ordem e recência dos eventos

  • Causal — relações de causa-efeito

  • Entidades — pessoas, objetos e conceitos envolvidos

Cada grafo oferece uma “vista” diferente sobre a mesma memória.


Como funciona a recuperação de memória no MAGMA?

Em vez de recuperar os itens mais semelhantes semanticamente, o MAGMA usa uma política de decisão que guia uma travessia pelos grafos. O sistema decide:

  • que grafo explorar

  • que nós visitar

  • quando parar

A recuperação adapta-se à intenção da pergunta.


O que significa dizer que o MAGMA é interpretável?

Significa que é possível ver o caminho de raciocínio usado para recuperar memórias:
quais os nós visitados, que relações foram seguidas e porque certas memórias foram escolhidas. Isto facilita debugging, controlo e confiança no sistema.


O MAGMA substitui o RAG?

Não necessariamente. O MAGMA pode complementar ou evoluir sistemas RAG existentes. Enquanto o RAG clássico é eficaz para recuperação documental, o MAGMA é mais adequado para memória experiencial e raciocínio de longo prazo em agentes.


Para que tipos de aplicações o MAGMA é mais útil?

O MAGMA é especialmente relevante para:

  • agentes autónomos

  • assistentes pessoais de longo prazo

  • sistemas multi-sessão

  • agentes que aprendem com a experiência

  • aplicações onde coerência e continuidade são críticas


Quais são os principais desafios desta abordagem?

Alguns desafios ainda em aberto incluem:

  • escalabilidade dos grafos

  • custos computacionais

  • aprendizagem eficiente da política de travessia

  • integração com arquiteturas existentes

Apesar disso, são sobretudo desafios de engenharia, não limitações conceptuais.


A memória baseada em grafos é o futuro dos agentes de IA?

Tudo indica que sim, ou pelo menos uma parte central desse futuro.
À medida que os agentes passam de respostas pontuais para comportamentos persistentes, a memória estruturada deixa de ser opcional e passa a ser infraestrutura cognitiva.

MAGMA: Repensar a Memória em Agentes de IA com Arquiteturas Multi-Grafo Read More »

O que é Data Lake e Data Warehouse? Saiba a diferença entre os repositórios de dados

Data Lake e Data Warehouse são pilares essenciais no gerenciamento de Big Data, servindo como repositórios para análises de dados. Enquanto o primeiro foca em dados brutos, o segundo prioriza informações estruturadas e prontas para o consumo imediato por ferramentas de Business Intelligence (BI).

A grande inovação surge com o Data Lakehouse, uma arquitetura híbrida que combina a escalabilidade de baixo custo do Lake com a governança do Warehouse. Essa evolução permite unificar cargas de trabalho de Inteligência Artificial e análise de dados em um único ambiente integrado e eficiente.

A diferença reside no tratamento dos dados: o Lake aceita qualquer formato original, enquanto o Warehouse exige uma limpeza e estruturação prévia. O Lakehouse elimina esse gargalo técnico, oferecendo o melhor dos dois mundos para maior agilidade e precisão nas análises.

A seguir, conheça o conceito de cada um dos repositórios de Big Data, como eles funcionam, seus pontos fortes e fracos. Também entenda detalhadamente a diferença entre eles.

O que é Data Lake e para que serve?

Um Data Lake é um repositório centralizado que armazena grandes volumes de dados brutos em formatos nativos, sejam estruturados, semiestruturados ou não estruturados. Essa arquitetura permite a consolidação de fontes heterogêneas sem a necessidade de tratamento prévio, mantendo a fidelidade original da informação para consultas.

Sua função é servir como uma base escalável e de baixo custo para análises avançadas, como Machine Learning e ciência de dados. Ao eliminar silos organizacionais, ele possibilita que especialistas processem e transformem petabytes de dados sob demanda para gerar insights preditivos e estratégicos.

Como funciona um Data Lake?

Um Data Lake centraliza um grande volume de dados em estado bruto, preservando formatos originais sem a necessidade de estruturação prévia no armazenamento. Ele usa o modelo schema-on-read, definindo a estrutura e as regras apenas no momento da consulta para garantir máxima agilidade.

A organização ocorre em camadas lógicas, como bronze, prata e ouro, que refinam a qualidade da informação de forma escalável e econômica. Metadados e catálogos são aplicados para rastrear a linhagem dos ativos, evitando a desorganização de dados no repositório.

Ao desacoplar o armazenamento do processamento, a arquitetura permite que diversas ferramentas de Analytics e Machine Learning acessem os arquivos simultaneamente. Essa flexibilidade centraliza fontes heterogêneas, otimizando a descoberta de insights e a governança de dados em todo o ecossistema corporativo.

Quais são as vantagens e desvantagens de um Data Lake?

Estes são os pontos fortes de um Data Lake:

  • Escalabilidade com custo-benefício: usa armazenamento em nuvem para gerenciar volumes massivos de dados com baixo custo operacional, permitindo o crescimento da infraestrutura sem a necessidade de hardware caro;
  • Flexibilidade via Schema-on-Read: suporta dados estruturados, não estruturados e semiestruturados em seus formatos nativos, adiando a definição da estrutura para o momento de análise, evitando perdas de informação;
  • Repositório central para IA e ML: elimina silos de dados ao unificar diversas fontes em um único local, oferecendo o combustível necessário para treinar modelos de Machine Learning e Inteligência Artificial avançada;
  • Agilidade na exploração de dados: facilita a descoberta rápida de insights e a experimentação por parte de cientistas de dados, reduzindo a dependência de processos rígidos de limpeza e transformação;
  • Processamento em tempo real: permite a ingestão e análise de fluxos de dados contínuos (streaming), possibilitando tomadas de decisão imediatas baseadas em eventos que acabaram de ocorrer.

Estes são os pontos fracos de um Data Lake:

  • Risco de “Pântano de dados” (Data Swamp): a ausência de governança e curadoria pode transformar o repositório em um amontoado de arquivos desconexos, dificultando a extração de valores reais;
  • Complexidade na descoberta e linhagem: sem catálogos de metadados eficientes, rastrear a origem e o histórico dos dados torna-se um desafio, comprometendo a confiabilidade das análises;
  • Exigência de alta especialização técnica: diferente de repositórios estruturados, o Data Lake requer profissionais avançados para tratar dados brutos e aplicar esquemas de leitura (Schema-on-read);
  • Desafios de segurança e conformidade: o armazenamento de dados em diversos formatos dificulta a aplicação de políticas de privacidade e controle de acesso granular ao nível de linha ou coluna;
  • Custos de armazenamento e processamento ocultos: embora o armazenamento inicial seja barato, o custo computacional para processar grandes volumes de dados não estruturados pode escalar rapidamente sem otimização.

O que é Data Warehouse e para que serve?

Um Data Warehouse é um repositório centralizado que integra dados estruturados de múltiplas fontes para facilitar consultas e análises complexas, como as de Business Intelligence (BI). Ele serve para consolidar informações limpas, permitindo que empresas tenham suporte para identificar tendências sem impactar os sistemas operacionais.

Por meio do processo de Extração, Transformação e Carga (ETL), a ferramenta padroniza informações dispersas em esquemas otimizados para consultas rápidas e relatórios precisos. Essa arquitetura elimina silos de dados e fundamenta a tomada de decisão estratégica em evidências concretas, garantindo alto desempenho em análises.

Como funciona um Data Warehouse?

Um Data Warehouse integra dados de múltiplas fontes por meio do modelo schema-on-write, garantindo que as informações sejam avaliadas e estruturadas antes de serem armazenadas. Essa centralização em um repositório otimizado permite uma visão histórica única, eliminando silos informacionais e facilitando a gestão de dados.

No setor de tecnologia da informação, processos de ETL refinam os dados brutos em modelos dimensionais compostos por fatos e dimensões. Essa arquitetura acelera o desempenho de consultas complexas que seriam inviáveis em bancos de dados operacionais tradicionais.

O sistema gerencia metadados para assegurar a rastreabilidade, enquanto as camadas de acesso disponibilizam os ativos para ferramentas de BI e visualização. Dessa forma, usuários finais realizam descobertas estratégicas com alta integridade, sem impactar o desempenho dos sistemas transacionais de origem.

Quais são as vantagens e desvantagens de um Data Warehouse?

Estes são os pontos fortes de um Data Warehouse:

  • Desempenho otimizado para BI: estruturas como o Star Schema aceleram consultas complexas em grandes volumes de dados, evitando gargalos nos sistemas operacionais e agilizando a geração de painéis;
  • Padronização e qualidade: processos de ETL eliminam duplicadas e corrigem inconsistências entre fontes distintas, garantindo que toda a empresa use uma única base de informações confiável;
  • Inteligência histórica e temporal: o armazenamento de séries históricas permite analisar a evolução de métricas ao longo de anos, facilitando a identificação de padrões sazonais e projeções de cenários futuros;
  • Segurança e governança centralizadas: facilita o controle de acesso granular e a auditoria de dados sensíveis em um único ambiente, simplificando a conformidade com regulamentações como a LGPD;
  • Suporte à decisão estratégica: consolida dados brutos em informações prontas para o consumo de executivos, transformando registros isolados em ativos valiosos para o planejamento de longo prazo.

Estes são os pontos fracos de um Data Warehouse:

  • Custo elevado e complexidade de implementação: exige alto investimento inicial em infraestrutura e especialistas para desenhar esquemas e fluxos de ETL, o que pode atrasar o retorno sobre o investimento;
  • Rigidez estrutural (Schema-on-Write): a necessidade de definir o esquema antes da carga dificulta a ingestão de dados não estruturados e exige manutenção constante frente a mudanças nas fontes de origem;
  • Escalabilidade física e financeira limitada: em ambientes on-premises, a expansão de hardware é lenta e cara, criando gargalos de processamento à medida que o volume de dados corporativos escala;
  • Latência no processamento de dados: por priorizar o processamento em lotes, o sistema apresenta dificuldades em entregar análises em tempo real ou lidar com fluxos de streaming de baixa latência;
  • Risco de silos e dados obsoletos: se não houver uma governança rigorosa, a demora na integração de novas fontes pode levar os usuários a buscarem soluções paralelas, fragmentando a verdade única dos dados.

O que é Data Lakehouse e para que serve?

Um Data Lakehouse é uma arquitetura híbrida que unifica o baixo custo e a flexibilidade de um Lake com a governança e desempenho estruturado de um Warehouse. Ele implementa transações ACID (Atomicidade, Consistência, Isolamento, Durabilidade) sobre o armazenamento de baixo custo, garantindo integridade e alta confiabilidade aos dados.

Sua finalidade é centralizar cargas de trabalho de BI, ciência de dados e Machine Learning em um único repositório, eliminando a redundância de sistemas. Essa arquitetura simplifica o fluxo de informações, reduzindo custos operacionais e acelerando a entrega de insights analíticos.

Como funciona um Data Lakehouse?

O Data Lakehouse unifica o armazenamento escalável de um Lake com a governança de um Warehouse, utilizando formatos abertos. Ele organiza informações em camadas (bronze, prata e ouro) para refinar dados brutos em ativos prontos de BI e outras análises avançadas.

Uma camada de metadados gerencia transações ACID e o versionamento, eliminando silos de dados e inconsistências. Motores de processamento desacoplados acessam esse repositório central para executar simultaneamente tarefas de streaming, buscas SQL e Machine Learning.

O modelo evita redundâncias e custos de movimentação (ETL), garantindo segurança unificada e auditoria simplificada em todo o ciclo de vida. Isso permite que cientistas e analistas operem sobre a mesma fonte de dados, unindo agilidade exploratória e performance executiva.

Quais são as vantagens e desvantagens de um Data Lakehouse?

Estes são os pontos fortes de um Data Lakehouse:

  • Arquitetura unificada e sem silos: centraliza dados brutos e estruturados em um único repositório, permitindo que BI e Machine Learning acessem a mesma fonte sem a necessidade de movimentação ou duplicação de dados;
  • Eficiência de custos e escalabilidade: usa armazenamento de objetos em nuvem de baixo custo com desacoplamento entre processamento e memória, reduzindo o custo total de propriedade ao escalar petabytes de dados;
  • Garantia de transações ACID: implementa camadas de metadados que asseguram a integridade das operações, permitindo leitura e escrita simultâneas sem corromper os dados;
  • Suporte a cargas de trabalho diversas: oferece alto desempenho tanto para consultas SQL analíticas quanto para processamento em tempo real (streaming) e ciência de dados, suportando diversos formatos de arquivos abertos;
  • Governança e qualidade de dados: facilita a gestão de segurança e a imposição de esquemas em um único ponto, garantindo que os dados sigam padrões rigorosos de qualidade antes de serem consumidos.

Estes são os pontos fracos de um Data Lakehouse:

  • Alta complexidade técnica: exige domínio de formatos de tabelas abertos e orquestração avançada para garantir a consistência dos dados. A migração de infraestruturas legados, como Lakes ou Warehouses, costuma ser um processo demorado e tecnicamente arriscado;
  • Maturidade de ecossistema: por ser uma arquitetura recente, muitas ferramentas de BI e Analytics ainda carecem de integração nativa ou suporte total a recursos avançados. Isso pode limitar a escolha de tecnologias e criar uma dependência indesejada de fornecedores específicos;
  • Overhead de metadados e latência: o controle de transações ACID e a gestão de versões podem introduzir atrasos em fluxos de streaming de altíssima velocidade. Em casos de uso em tempo real extremo, bancos de dados especializados ainda superam o desempenho do Lakehouse;
  • Rigor excessivo na governança: a flexibilidade do modelo facilita o surgimento de “pântanos de dados” caso não existam políticas rígidas de catalogação e qualidade. O custo operacional para manter a conformidade e a organização dos dados é contínuo e elevado.

Qual é a diferença entre Data Lake e Data Warehouse?

Data Lake é um repositório centralizado que armazena grandes volumes de dados brutos em seu formato nativo, definindo a estrutura apenas no momento da leitura. É ideal para Big Data e Machine Learning devido à sua alta escalabilidade e baixo custo de armazenamento.

Data Warehouse é um repositório de dados processados, organizados em esquemas relacionais rígidos para garantir consistência e desempenho em consultas complexas. Foca em BI e relatórios corporativos, priorizando a qualidade e a governança da informação.

Qual é a diferença entre Data Lake e Data Lakehouse?

Date Lake é um repositório centralizado para grandes volumes de dados brutos em formatos nativos, priorizando o baixo custo e escalabilidade horizontal. Utiliza a lógica schema-on-read, sendo ideal para exploração de Big Data e modelos de Machine Learning que não exigem organização prévia.

Data Lakehouse é uma arquitetura que integra a flexibilidade do Lake com a governança do Warehouse, permitindo transações ACID e gerenciamento de metadados sobre o armazenamento. Ele usa camadas de alto desempenho para viabilizar BI e análises em tempo real sem necessidade de mover ou duplicar os dados.

Qual é a diferença entre Data Warehouse e Data Lakehouse?

Data Warehouse é um repositório de dados estruturados e limpos, organizado em esquemas rígidos para garantir alto desempenho em relatórios de BI. É focado em consistência e suporte à decisão por meio de consultas SQL otimizadas sobre dados históricos.

Data Lakehouse é uma arquitetura híbrida que implementa a governança e transações ACID sobre o armazenamento flexível de um Data Lake, suportando dados estruturados e não estruturados. Unifica BI e Machine Learning em uma única plataforma escalável, eliminando a necessidade de mover dados entre sistemas.

O que é Data Lake e Data Warehouse? Saiba a diferença entre os repositórios de dados

O que é Data Lake e Data Warehouse? Saiba a diferença entre os repositórios de dados Read More »

Anthropic lança IA para modernizar COBOL e derruba ações da IBM

Resumo
  • A Anthropic lançou ferramentas de IA baseadas no Claude Code para modernizar sistemas COBOL, impactando o mercado financeiro e causando queda de 10% nas ações da IBM.
  • O COBOL ainda gerencia 95% das transações de caixas eletrônicos nos EUA, mas enfrenta desafios de integração com plataformas modernas e escassez de desenvolvedores especializados.
  • A IA da Anthropic automatiza a análise de código, reduzindo a necessidade de consultores humanos e acelerando a modernização de sistemas, afetando consultorias como Accenture e Cognizant.

Nesta segunda-feira (23), a Anthropic anunciou novas ferramentas de inteligência artificial baseadas no Claude Code, projetadas para acelerar a modernização de sistemas corporativos escritos em COBOL. A novidade abalou o mercado financeiro dos Estados Unidos e fez as ações da gigante da tecnologia IBM sofrerem uma queda expressiva de 10% durante o pregão.

Para compreender a reação dos investidores, é preciso olhar para o modelo de negócios da companhia. A IBM mantém divisões lucrativas dedicadas exclusivamente a ajudar outras corporações a atualizar sistemas legados. Historicamente, isso exige grandes equipes de consultores humanos e contratos milionários de longo prazo, que representam uma fonte de receita constante.

Com o anúncio da Anthropic, o mercado financeiro enxergou uma ameaça direta. A nova IA automatiza fases de análise que antes dependiam desses batalhões de especialistas. Segundo o portal Investing.com, o receio de que as consultorias percam espaço para a automação atingiu o setor em cheio: as ações da Accenture também recuaram 6,58%, enquanto os papéis da Cognizant Technology Solutions registraram baixa de 6,00% no mesmo dia.

O que é o COBOL e por que ainda é tão importante?

O Common Business Oriented Language (COBOL) é uma linguagem de programação criada no final da década de 1950, desenvolvida para o processamento de grandes volumes de dados administrativos, comerciais e financeiros. Embora a indústria global de tecnologia tenha migrado para arquiteturas mais modernas nas últimas décadas, o COBOL permanece operando na infraestrutura econômica global.

Conforme dados divulgados pelo Investing.com, sistemas fundamentados em COBOL ainda gerenciam hoje cerca de 95% das transações de caixas eletrônicos realizadas nos Estados Unidos. Diariamente, centenas de bilhões de linhas desse código rodam em ambientes de produção, garantindo o funcionamento de operações essenciais no mercado financeiro, malhas de companhias aéreas e agências governamentais ao redor do planeta.

Muitos desses sistemas foram implementados antes da era da internet, tornando a integração com plataformas atuais um desafio técnico. Outro gargalo que o setor enfrenta hoje é a escassez de mão de obra. A geração de desenvolvedores que planejou, escreveu e implementou essas arquiteturas já se aposentou. Como consequência, o contingente de profissionais com domínio da linguagem diminui a cada ano, tornando a manutenção ou a transição desses ecossistemas um processo arriscado, lento e muito caro.

O impacto da automação no setor de TI

Atualizar bases de código construídas ao longo de décadas exigia métodos manuais. A proposta da Anthropic é eliminar essa dependência inicial, já que a IA consegue analisar mapeamentos e dependências em milhares de linhas de código simultaneamente, reduzindo a necessidade de intervenção humana.

A plataforma também foi treinada para documentar fluxos de trabalho, identificar os pontos de entrada exatos dos programas, rastrear caminhos de execução e sinalizar potenciais riscos operacionais. Segundo a Anthropic, só a execução dessas etapas exigiria meses de trabalho caso fosse conduzida por métodos de consultoria atuais.

Ao agilizar o processo, a nova versão do Claude Code promete capacitar equipes menores a modernizar bases inteiras em questão de poucos trimestres, eliminando cronogramas que costumavam se arrastar por anos, colocando em xeque a necessidade de terceirização e justificando o alerta vermelho aceso em Wall Street.

Anthropic lança IA para modernizar COBOL e derruba ações da IBM

Anthropic lança IA para modernizar COBOL e derruba ações da IBM Read More »

Analistas questionam efeitos da IA na economia dos EUA: “Basicamente zero”

Resumo
  • Economistas de Wall Street afirmam que o impacto da IA no PIB dos EUA em 2025 é mínimo, apesar de investimentos bilionários.
  • Equipamentos e softwares relacionados à IA são importados, diluindo o efeito dos investimentos no PIB americano.
  • Falta de métricas confiáveis dificulta a medição do impacto da IA na produtividade e no crescimento econômico.

Avaliações recentes feitas por analistas de um grande banco americano indicam que, ao menos até agora, o impacto direto desses investimentos sobre o PIB dos Estados Unidos é mínimo — descrito internamente como “basicamente zero”.

“Na verdade, não consideramos o investimento em IA como um fator fortemente positivo para o crescimento”, disse o economista-chefe do Goldman Sachs, Jan Hatzius, em entrevista ao Atlantic Council. “Acho que há muita informação distorcida sobre o impacto que o investimento em IA teve no crescimento do PIB dos EUA em 2025, e esse impacto é muito menor do que se costuma perceber”, afirmou.

A inteligência artificial virou peça central no discurso sobre o futuro da economia dos Estados Unidos. Bancos, executivos e líderes empresariais passaram a associar o avanço da tecnologia a um ciclo de crescimento sustentado, impulsionado por investimentos bilionários em infraestrutura, chips e centros de dados. Para esse grupo, a IA já estaria ajudando a manter a economia aquecida em um cenário global instável.

No campo político, o tema também virou argumento estratégico. O presidente Donald Trump recorreu à promessa de crescimento impulsionado pela IA para defender a redução de regulações estaduais sobre o setor. Em uma publicação na Truth Social, escreveu: “O investimento em IA está ajudando a tornar a economia dos EUA a mais aquecida do mundo, mas a regulação excessiva dos estados ameaça minar esse motor de crescimento”.

O contraste expõe uma divergência crescente entre a narrativa defendida por empresas e autoridades e os números observados nos cálculos econômicos tradicionais.

O investimento virou crescimento econômico?

Durante parte de 2025, economistas reforçaram a percepção de que a IA já estaria deixando marcas visíveis no Produto Interno Bruto. Jason Furman, professor de Harvard, destacou em seu perfil no X que equipamentos e softwares ligados ao processamento de informação responderam por grande parte da expansão econômica no primeiro semestre. Na mesma linha, análises do Federal Reserve Bank of St. Louis sugeriram que investimentos relacionados à IA tiveram peso relevante no crescimento do terceiro trimestre.

Nos últimos meses, no entanto, essa leitura passou a ser questionada por analistas do mercado financeiro. Para Joseph Briggs, economista do Goldman Sachs, o entusiasmo inicial pode ter simplificado demais a discussão. “Era uma história muito intuitiva. Isso talvez tenha evitado ou limitado a necessidade de investigar mais a fundo o que estava acontecendo”, disse ao The Washington Post.

A revisão mais dura veio de Hatzius. Segundo ele, o efeito da IA no PIB americano em 2025 foi “basicamente nulo”.

Onde o dinheiro realmente aparece?

Um dos pontos centrais é a origem dos equipamentos que sustentam a infraestrutura de IA. Chips avançados e outros componentes são, em grande parte, importados. Na prática, isso dilui o efeito dos investimentos domésticos nas contas nacionais. “Grande parte do investimento em IA que vemos nos EUA contribui para o PIB de Taiwan e para o PIB da Coreia, mas não muito para o PIB dos EUA”, explicou o economista.

Outro problema é a falta de instrumentos confiáveis para medir como o uso da IA por empresas e consumidores se converte em produtividade e crescimento real. Sem métricas claras, o impacto econômico permanece difuso e difícil de quantificar.

O contraste entre os volumes investidos e os resultados observados sugere que a IA ainda está em uma fase de transição. A tecnologia pode transformar a economia no longo prazo, mas, até agora, seus efeitos macroeconômicos seguem discretos — bem longe da narrativa de crescimento imediato que dominou o mercado.

Com informações do Gizmodo

Analistas questionam efeitos da IA na economia dos EUA: “Basicamente zero”

Analistas questionam efeitos da IA na economia dos EUA: “Basicamente zero” Read More »