Em meio ao avanço de um possível IPO, a startup americana de inteligência artificial Anthropic, dona do chatbot Claude, se vê no meio de um conflito político e ideológico com o governo de Donald Trump e com o Pentágono, sede do Departamento de Defesa dos Estados Unidos. A preocupação é que os possíveis atritos com […]
A Anthropicanunciou uma revisão em sua principal política de segurança para o desenvolvimento de inteligência artificial. A empresa ganhou notoriedade no setor por adotar uma postura cautelosa em relação aos riscos da IA. Agora, afirmou que está ajustando essas regras para se manter competitiva diante do ritmo acelerado da indústria.
Até então, a companhia mantinha o compromisso de interromper o avanço de um modelo caso ele atingisse determinados níveis de risco considerados críticos. Com a nova diretriz, essa postura passa a ser mais flexível: se concorrentes lançarem sistemas equivalentes ou mais avançados, a Anthropic poderá continuar o desenvolvimento.
A mudança ocorre em um cenário de forte concorrência com empresas como OpenAI, Google e a xAI, de Elon Musk, que vêm lançando modelos cada vez mais poderosos.
Paralelamente, a Anthropic enfrenta pressões políticas e institucionais nos Estados Unidos, incluindo negociações com o Departamento de Defesa sobre o uso do Claude. A empresa havia informado ao Pentágono que não autorizaria aplicações voltadas à vigilância doméstica ou a sistemas autônomos letais. A resposta das autoridades é que a Anthropic precisaria flexibilizar suas políticas até esta semana se quisesse manter o contrato com o governo.
Em comunicado, a Anthropic afirmou que a revisão da política decorre da velocidade dos avanços tecnológicos e da ausência de regras federais claras para o setor. A desenvolvedora também citou o ambiente político atual, que, segundo ela, prioriza competitividade e crescimento econômico em detrimento de debates mais amplos sobre segurança.
Em comunicado, a empresa defendeu que o compromisso com a segurança permanece, mas que o modelo precisa ser adaptado à realidade competitiva e regulatória.
Ajuste na política de segurança veio para tornar a Anthropic mais competitiva com suas rivais (Imagem: Sidney van den Boogaard/Shutterstock)
Nova política de segurança da Anthropic
A nova versão da chamada Política de Escalabilidade Responsável (RSP) reformula a estrutura adotada desde 2023. Originalmente, o documento estabelecia compromissos condicionais: se um modelo atingisse certos níveis de capacidade – por exemplo, conhecimento que pudesse facilitar o desenvolvimento de armas químicas ou biológicas – a empresa seria obrigada a implementar salvaguardas adicionais, classificadas em diferentes “Níveis de Segurança de IA”.
Agora, a Anthropic separa suas obrigações internas do que considera recomendações ideais para todo o setor. Em vez de compromissos rígidos atrelados a patamares técnicos da IA, a empresa passa a adotar metas públicas de segurança, descritas como ambiciosas, mas viáveis dentro do contexto atual.
Entre as novas iniciativas anunciadas estão a criação de um “Roteiro de Segurança da Fronteira”, que detalhará planos de mitigação de riscos, e a publicação periódica de Relatórios de Risco, com avaliações sobre capacidades dos modelos, potenciais ameaças e medidas de proteção implementadas.
Esses relatórios deverão ser divulgados a cada três a seis meses, com possibilidade de revisão por especialistas externos em determinadas circunstâncias.
A empresa reconheceu que sua estratégia original enfrentou limitações. Por exemplo, muitas vezes não havia consenso interno sobre quando um modelo realmente ultrapassava um nível crítico de risco. Além disso, a expectativa de que governos adotassem rapidamente padrões regulatórios mais robustos não se concretizou.
A revisão da política ocorre em meio a questionamentos internos e externos sobre o rumo da indústria de IA. Nas últimas semanas, pesquisadores deixaram a Anthropic e outras empresas do setor alegando preocupações com a diminuição do foco em segurança. Um dos casos foi o de Mrinank Sharma, pesquisador da área de segurança, que anunciou sua saída no início do mês. Em comunicação interna, ele alertou para riscos associados ao avanço acelerado da tecnologia.
Anúncio das novas ferramentas do Claude Code acendeu sinal de alerta em Wall Street (imagem: Maxim Hopman/Unsplash)Resumo
A Anthropic lançou ferramentas de IA baseadas no Claude Code para modernizar sistemas COBOL, impactando o mercado financeiro e causando queda de 10% nas ações da IBM.
O COBOL ainda gerencia 95% das transações de caixas eletrônicos nos EUA, mas enfrenta desafios de integração com plataformas modernas e escassez de desenvolvedores especializados.
A IA da Anthropic automatiza a análise de código, reduzindo a necessidade de consultores humanos e acelerando a modernização de sistemas, afetando consultorias como Accenture e Cognizant.
Nesta segunda-feira (23), a Anthropic anunciou novas ferramentas de inteligência artificial baseadas no Claude Code, projetadas para acelerar a modernização de sistemas corporativos escritos em COBOL. A novidade abalou o mercado financeiro dos Estados Unidos e fez as ações da gigante da tecnologia IBM sofrerem uma queda expressiva de 10% durante o pregão.
Para compreender a reação dos investidores, é preciso olhar para o modelo de negócios da companhia. A IBM mantém divisões lucrativas dedicadas exclusivamente a ajudar outras corporações a atualizar sistemas legados. Historicamente, isso exige grandes equipes de consultores humanos e contratos milionários de longo prazo, que representam uma fonte de receita constante.
Com o anúncio da Anthropic, o mercado financeiro enxergou uma ameaça direta. A nova IA automatiza fases de análise que antes dependiam desses batalhões de especialistas. Segundo o portal Investing.com, o receio de que as consultorias percam espaço para a automação atingiu o setor em cheio: as ações da Accenture também recuaram 6,58%, enquanto os papéis da Cognizant Technology Solutions registraram baixa de 6,00% no mesmo dia.
O que é o COBOL e por que ainda é tão importante?
Exemplo de código em COBOL (Imagem: COBOL Brasil/Facebook)
O Common Business Oriented Language (COBOL) é uma linguagem de programação criada no final da década de 1950, desenvolvida para o processamento de grandes volumes de dados administrativos, comerciais e financeiros. Embora a indústria global de tecnologia tenha migrado para arquiteturas mais modernas nas últimas décadas, o COBOL permanece operando na infraestrutura econômica global.
Conforme dados divulgados pelo Investing.com, sistemas fundamentados em COBOL ainda gerenciam hoje cerca de 95% das transações de caixas eletrônicos realizadas nos Estados Unidos. Diariamente, centenas de bilhões de linhas desse código rodam em ambientes de produção, garantindo o funcionamento de operações essenciais no mercado financeiro, malhas de companhias aéreas e agências governamentais ao redor do planeta.
Muitos desses sistemas foram implementados antes da era da internet, tornando a integração com plataformas atuais um desafio técnico. Outro gargalo que o setor enfrenta hoje é a escassez de mão de obra. A geração de desenvolvedores que planejou, escreveu e implementou essas arquiteturas já se aposentou. Como consequência, o contingente de profissionais com domínio da linguagem diminui a cada ano, tornando a manutenção ou a transição desses ecossistemas um processo arriscado, lento e muito caro.
O impacto da automação no setor de TI
Atualizar bases de código construídas ao longo de décadas exigia métodos manuais. A proposta da Anthropic é eliminar essa dependência inicial, já que a IA consegue analisar mapeamentos e dependências em milhares de linhas de código simultaneamente, reduzindo a necessidade de intervenção humana.
A plataforma também foi treinada para documentar fluxos de trabalho, identificar os pontos de entrada exatos dos programas, rastrear caminhos de execução e sinalizar potenciais riscos operacionais. Segundo a Anthropic, só a execução dessas etapas exigiria meses de trabalho caso fosse conduzida por métodos de consultoria atuais.
Ao agilizar o processo, a nova versão do Claude Code promete capacitar equipes menores a modernizar bases inteiras em questão de poucos trimestres, eliminando cronogramas que costumavam se arrastar por anos, colocando em xeque a necessidade de terceirização e justificando o alerta vermelho aceso em Wall Street.