mythos

Auto Added by WPeMatico

destaque trump e anthropic 1024x576

Anthropic: Mythos acende alerta global sobre riscos na cibersegurança

A Anthropic afirmou que sua nova ferramenta de inteligência artificial (IA), o Claude Mythos, é tão eficaz na identificação de vulnerabilidades em softwares e sistemas computacionais que não pode ser disponibilizada ao público em geral.

Segundo a empresa, a tecnologia foi liberada apenas para um grupo restrito de organizações cuidadosamente selecionadas, devido ao risco de que, nas mãos erradas, possa facilitar o roubo de dados ou a interrupção de infraestruturas críticas.

As preocupações com segurança ganharam força após um episódio em que um pequeno grupo de usuários não autorizados conseguiu acesso ao sistema em um fórum privado online, de acordo com uma fonte com conhecimento do caso e documentos analisados pela Bloomberg.

Diante desse cenário, a Casa Branca se posicionou contra o plano da Anthropic de ampliar o acesso ao Mythos para outras 70 empresas e organizações, segundo um funcionário do governo.

O The Wall Street Journal foi o primeiro a noticiar as preocupações do governo dos Estados Unidos, que também teme que a Anthropic não disponha de capacidade computacional suficiente para atender mais usuários sem comprometer o uso da ferramenta por parte do próprio governo.

Nos últimos anos, empresas de cibersegurança têm defendido que a IA pode acelerar e automatizar a prevenção de ataques digitais. No entanto, hackers e agentes de espionagem também passaram a explorar essas mesmas vantagens.

O surgimento do Mythos e de modelos semelhantes, capazes de identificar falhas complexas sem supervisão humana, indica uma nova fase na corrida armamentista cibernética, marcada por maior velocidade e imprevisibilidade.

Governo Trump está de olho no novo modelo de IA desenvolvido pela Anthropic – Imagem: Chip Somodevilla e Stockinq – Shutterstock

O que é o Mythos, da Anthropic

  • O Claude Mythos Preview é um modelo de IA de uso geral que, segundo a Anthropic, supera significativamente versões anteriores em diversos critérios, incluindo programação e raciocínio lógico;
  • A empresa afirma que alguns modelos já atingiram um nível de capacidade em código que lhes permite superar todos, exceto os humanos mais experientes, na identificação e exploração de vulnerabilidades;
  • Durante testes, o Mythos Preview teria identificado milhares de vulnerabilidades do tipo “zero-day”, inclusive em todos os principais sistemas operacionais e navegadores web. Essas falhas, desconhecidas pelos próprios desenvolvedores, representam oportunidades valiosas para hackers, já que oferecem acesso irrestrito a sistemas vulneráveis até que sejam corrigidas;
  • A Anthropic destacou que o Mythos foi capaz de identificar essas falhas com ainda menos intervenção humana do que modelos anteriores. “O Mythos Preview demonstra um salto nessas habilidades cibernéticas — as vulnerabilidades que ele identificou, em alguns casos, sobreviveram a décadas de revisão humana e milhões de testes de segurança automatizados”, afirmou a empresa.

Especialistas alertam que, nas mãos de grupos de ransomware ou governos hostis, a tecnologia poderia resultar em ataques cibernéticos mais frequentes e devastadores.

Pesquisadores, no entanto, afirmam não ter acesso suficiente para verificar de forma independente o desempenho alegado do sistema. Gang Wang, professor associado de ciência da computação da Universidade de Illinois (EUA), disse à Bloomberg que é difícil avaliar a relevância do Mythos sem testes práticos mais aprofundados.

Quem tem acesso à ferramenta da Anthropic

A Anthropic concedeu acesso ao Mythos a um grupo limitado de parceiros verificados, em uma iniciativa chamada Project Glasswing — nome inspirado em uma espécie de borboleta de asas transparentes.

Entre os participantes estão Amazon, Apple, Google (da Alphabet), Microsoft, Nvidia, Palo Alto Networks, CrowdStrike, Broadcom, Cisco, JPMorganChase e a Linux Foundation, além de cerca de outras 40 organizações.

De acordo com a empresa, o projeto representa “uma tentativa urgente de colocar essas capacidades a serviço da defesa”.

As organizações participantes utilizarão o Mythos em suas estratégias de segurança defensiva e a Anthropic pretende compartilhar os resultados obtidos para beneficiar outros setores.

Atualmente, muitas empresas realizam testes de invasão, contratando especialistas para identificar falhas antes que hackers as explorem. O Mythos pode acelerar esse processo, permitindo a descoberta de um maior número de vulnerabilidades em menos tempo.

Um “divisor de águas” na segurança digital

A Anthropic classificou o Mythos Preview como um “divisor de águas” para a segurança. Vulnerabilidades do tipo zero-day são, por natureza, difíceis de detectar, e existe um mercado especializado em descobri-las e vendê-las a agências de inteligência por valores que podem chegar a milhões de dólares.

Segundo a empresa, muitas das falhas identificadas pelo Mythos eram “sutis e difíceis de detectar“, incluindo uma vulnerabilidade de 27 anos no sistema operacional OpenBSD, conhecido por seu alto nível de segurança.

O sistema também teria conseguido transformar vulnerabilidades conhecidas, mas ainda não corrigidas, em explorações práticas capazes de permitir a invasão de redes. Em um exemplo citado, o Mythos identificou e combinou diversas falhas no kernel do Linux, possibilitando que um invasor assumisse controle total de uma máquina.

A Anthropic afirmou ainda que usuários sem experiência técnica conseguiram solicitar ao sistema formas de assumir o controle remoto de computadores durante a noite e retornaram, no dia seguinte, com um exploit completo e funcional.

Ferramentas semelhantes também estão sendo desenvolvidas por outras empresas. A OpenAI trabalha no Codex Security, enquanto o Google desenvolveu o chamado “Big Sleep agent“.

Além disso, a OpenAI estaria finalizando um produto com capacidades avançadas de cibersegurança para parceiros selecionados. Pesquisadores da startup israelense Buzz afirmam ter criado uma ferramenta autônoma com taxa de sucesso de 98% na exploração de falhas conhecidas.

Anthropic não aumentou o preço de Claude. Ele inventou algo melhor: inflação simbólica
Medo é geral quando se trata da possibilidade de o Mythos facilitar o trabalho de hackers mundo afora – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)

Leia mais:

Salvaguardas ainda em desenvolvimento

Segundo a Anthropic, os mecanismos de segurança do Mythos ainda estão em evolução. “Observamos que ele atingiu níveis de confiabilidade e alinhamento sem precedentes. No entanto, em raras ocasiões em que falha ou apresenta comportamento atípico, notamos que ele toma atitudes que consideramos bastante preocupantes“, afirmou a empresa.

Em um teste, um pesquisador incentivou uma versão inicial do sistema a escapar de um ambiente isolado e enviar uma mensagem externa. O Mythos conseguiu realizar a tarefa e, em seguida, executou ações adicionais consideradas preocupantes, desenvolvendo um exploit em múltiplas etapas para acessar a internet.

A empresa afirmou que não pretende disponibilizar amplamente o Mythos Preview devido ao potencial de uso indevido. Ainda assim, planeja no futuro permitir a utilização de modelos semelhantes em larga escala, desde que sejam desenvolvidas salvaguardas capazes de detectar e bloquear os usos mais perigosos.

Para vulnerabilidades consideradas mais graves, especialistas humanos ainda participam do processo, validando as descobertas antes de encaminhá-las aos responsáveis pelos sistemas afetados. Embora necessário, esse procedimento é demorado — algo que pode ser reduzido à medida que a tecnologia evolui.

Vantagem para defensores ou atacantes?

A Anthropic acredita que, no longo prazo, ferramentas como o Mythos favorecerão os defensores. No entanto, esse cenário pode levar tempo para se concretizar. Atualmente, menos de 1% das vulnerabilidades identificadas pelo sistema foram totalmente corrigidas.

Enquanto isso, hackers também utilizam IA para acelerar a exploração de falhas já divulgadas, reduzindo o tempo disponível para correções por parte das empresas.

Em publicação de 30 de março, o CEO da Palo Alto Networks, Nikesh Arora, alertou que a barreira para ataques sofisticados continuará diminuindo nos próximos meses. “Agora, um único agente malicioso poderá executar campanhas que antes exigiam equipes inteiras”, escreveu.

Yair Saban, CEO da Buzz e ex-integrante da unidade cibernética 8200 de Israel, afirmou que sua equipe levou apenas três semanas para desenvolver uma ferramenta de ataque baseada em IA, sugerindo que outros grupos podem fazer o mesmo.

Apesar dos riscos, a Anthropic sustenta que, no futuro, a tecnologia contribuirá para um ambiente digital mais seguro. “A longo prazo, esperamos que as capacidades de defesa dominem: que o mundo emerja mais seguro, com softwares mais robustos — em grande parte graças ao código escrito por esses modelos”, afirmou o grupo Frontier Red Team da empresa. “Mas o período de transição será difícil.”

O post Anthropic: Mythos acende alerta global sobre riscos na cibersegurança apareceu primeiro em Olhar Digital.

Anthropic: Mythos acende alerta global sobre riscos na cibersegurança Read More »

claude 4 7 benchmark 1009x1024

Anthropic lança Claude Opus 4.7 para o público e prepara terreno para o poderoso Mythos

A Anthropic anunciou nesta quinta-feira (16) o lançamento global do Claude Opus 4.7. O novo modelo de inteligência artificial chega como uma atualização direta do Opus 4.6, apresentando saltos significativos em programação autônoma (agêntica), raciocínio multidisciplinar e capacidades visuais. No entanto, em um movimento incomum na indústria, a empresa admitiu que o modelo foi “treinado para ser menos capaz” em certas áreas sensíveis do que sua versão experimental mais potente, o Claude Mythos Preview.

Codificação e “Trabalho de Mundo Real”

De acordo com dados divulgados pela Anthropic, o Claude Opus 4.7 estabeleceu novos marcos em benchmarks de produtividade. No SWE-bench Pro, que avalia a capacidade da IA de resolver problemas reais de engenharia de software, o modelo atingiu 64,3% de aproveitamento, superando os 53,4% da versão anterior e os 57,7% do GPT-5.4 da OpenAI.

Os principais avanços técnicos incluem:

  • Seguimento de instruções: o modelo é muito mais literal. A empresa alerta que prompts antigos podem precisar de ajustes, já que a IA agora segue as ordens à risca em vez de interpretá-las livremente.
  • Níveis de esforço: foi introduzido o nível “xhigh” (extra alto), permitindo que desenvolvedores controlem melhor o equilíbrio entre a profundidade do raciocínio e a latência da resposta.
  • Visão de alta resolução: o Opus 4.7 agora suporta imagens de até 3,75 megapixels (2.576 pixels no lado maior), um aumento de três vezes em relação aos modelos anteriores, facilitando a análise de diagramas complexos e capturas de tela densas.

A estratégia do “freio de mão” cibernético

O lançamento do Opus 4.7 ocorre em um momento de intensa disputa narrativa sobre a segurança da IA. Enquanto o Claude Mythos Preview (modelo mais poderoso da casa) permanece restrito a um grupo seleto de empresas no programa Project Glasswing, o Opus 4.7 foi lançado com salvaguardas que detectam e bloqueiam automaticamente solicitações de alto risco cibernético.

A Anthropic afirmou que experimentou reduzir diferencialmente as capacidades cibernéticas do modelo durante o treinamento. A ideia é aprender com o uso do Opus 4.7 no mundo real para, no futuro, liberar modelos da classe “Mythos” com segurança comprovada.

Para profissionais de segurança que precisam realizar testes de intrusão legítimos ou pesquisas de vulnerabilidades, a empresa criou o Cyber Verification Program, um processo de triagem para liberar essas funções específicas.

Anthropic vs. OpenAI: abordagens opostas

O posicionamento da Anthropic marca um contraste direto com a estratégia da OpenAI. Conforme noticiado pelo Olhar Digital, o recém-lançado GPT-5.4-Cyber seguiu um caminho mais “permissivo”, focando em democratizar o acesso de defensores a ferramentas de análise binária e engenharia reversa.

Enquanto a OpenAI aposta que dar ferramentas potentes aos “mocinhos” é a melhor defesa, a Anthropic prefere manter suas IAs mais ofensivas sob chaves rigorosas. Em comunicado oficial, a Anthropic reforçou que o Opus 4.7 é seu modelo mais capaz disponível para o público geral, mas que o Mythos Preview ainda detém a coroa de melhor alinhamento e segurança em seus testes internos.

Disponibilidade e preço

O Claude Opus 4.7 já está disponível para usuários do Claude (web e app), além de desenvolvedores via API. O modelo também foi integrado às plataformas de nuvem Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry.

O preço permanece o mesmo praticado na versão 4.6: US$ 5 por milhão de tokens de entrada e US$ 25 por milhão de tokens de saída, conforme apurado pela CNBC.

Claude Opus 4.7: benchmark

Os números divulgados pela Anthropic mostram o Claude Opus 4.7 superando rivais como o GPT-5.4 e o Gemini 3.1 Pro em categorias críticas de programação e raciocínio avançado:

O post Anthropic lança Claude Opus 4.7 para o público e prepara terreno para o poderoso Mythos apareceu primeiro em Olhar Digital.

Anthropic lança Claude Opus 4.7 para o público e prepara terreno para o poderoso Mythos Read More »

OpenAI lança GPT-5.4-Cyber em resposta ao Mythos da Anthropic; veja como usar

A OpenAI está expandindo seu programa Trusted Access for Cyber (TAC) para milhares de defensores individuais e centenas de equipes de segurança. O grande destaque dessa expansão é o GPT-5.4-Cyber, uma variante do GPT-5.4 treinada para ser “permissiva”. Na prática, isso significa que a IA não irá recusar pedidos de análise de vulnerabilidades que seriam bloqueados no ChatGPT comum por precaução de segurança.

O rival do Claude Mythos

Enquanto a Anthropic apostou no Claude Mythos para detectar falhas de forma autônoma em sistemas de gigantes como Nvidia e Google, a OpenAI foca na democratização do acesso para defensores de infraestruturas críticas.

O GPT-5.4-Cyber traz uma habilidade técnica de alto nível: a engenharia reversa binária. Isso permite que profissionais de segurança analisem softwares já compilados em busca de malwares e falhas sem precisar ter acesso ao código-fonte original; uma tarefa complexa que agora pode ser acelerada por IA.

Leia também:

Como funciona o acesso e a segurança

Para evitar que o “feitiço vire contra o feiticeiro” e que hackers usem o modelo para criar ataques mais sofisticados, a OpenAI implementou um sistema rígido de verificação:

  • Identidade verificada: para acessar as camadas mais potentes do programa, defensores individuais devem passar por um processo de verificação de identidade (KYC) em chatgpt.com/cyber.
  • Monitoramento ativo: o uso do modelo será monitorado para garantir que ele esteja sendo usado para fins defensivos.
  • Limitações de retenção: desenvolvedores que utilizam a ferramenta via API em plataformas de terceiros podem ter restrições, como a impossibilidade de usar o modo de “Retenção Zero de Dados” (ZDR), para que a OpenAI mantenha visibilidade sobre o propósito das requisições.

Como acessar o GPT-5.4-Cyber?

Diferente das versões convencionais do ChatGPT, o GPT-5.4-Cyber não será aberto ao público geral. Para utilizar a ferramenta, é necessário passar por um processo de triagem dentro do programa Trusted Access for Cyber (TAC).

Usuários individuais podem iniciar a verificação de identidade (KYC) pelo portal oficial da OpenAI (chatgpt.com/cyber), enquanto empresas devem solicitar o ingresso via representantes comerciais. Por ser um modelo mais “permissivo”, o acesso será liberado em camadas, priorizando pesquisadores e fornecedores de segurança cibernética que comprovem o uso da IA para fins estritamente defensivos.

O histórico da OpenAI na área

A empresa destacou que sua ferramenta Codex Security (que monitora bases de código automaticamente) já ajudou a identificar e corrigir mais de 3.000 vulnerabilidades críticas e de alta gravidade nos últimos meses.

Com o GPT-5.4-Cyber, o objetivo é mudar a segurança de auditorias episódicas para uma redução de risco contínua. “Não achamos prático ou apropriado decidir centralmente quem consegue se defender. Em vez disso, nosso objetivo é capacitar o maior número possível de defensores legítimos”, afirmou a OpenAI em seu blog oficial.

Democratização vs. controle

A grande diferença entre as duas gigantes está na estratégia de distribuição. Enquanto a Anthropic restringiu o acesso ao Mythos Preview a um grupo seleto de 40 organizações (incluindo o banco Goldman Sachs), a OpenAI planeja liberar o GPT-5.4-Cyber para milhares de especialistas já nas próximas semanas.

Essa abertura, no entanto, não agrada a todos. Em análise publicada no The New York Times, o ex-diretor de estratégia da Microsoft, Craig Mundie, expressou preocupação. Para ele, democratizar ferramentas de alta capacidade ofensiva pode permitir que “pequenos atores” realizem operações sofisticadas que antes eram restritas a grandes potências militares ou grupos criminosos com orçamentos bilionários.

O post OpenAI lança GPT-5.4-Cyber em resposta ao Mythos da Anthropic; veja como usar apareceu primeiro em Olhar Digital.

OpenAI lança GPT-5.4-Cyber em resposta ao Mythos da Anthropic; veja como usar Read More »

claude pentagono 1024x607

Anthropic discute modelo de IA com Trump, diz cofundador

A Anthropic está discutindo seu modelo de IA de fronteira Claude Mythos com a administração de Donald Trump, disse o cofundador da empresa nesta segunda-feira (13), mesmo após o Pentágono ter cortado negócios com a empresa de inteligência artificial (IA) estadunidense após disputa contratual.

Uma disputa entre a Anthropic e o Pentágono sobre salvaguardas para como os militares poderiam usar suas ferramentas de IA levou a agência a classificar a Anthropic como um risco da cadeia de suprimentos no mês passado, proibindo seu uso pelo Pentágono e seus contratados.

“Temos uma disputa contratual restrita, mas não quero que isso atrapalhe o fato de que nos importamos profundamente com a segurança nacional”, disse o cofundador da Anthropic, Jack Clark, no evento Semafor World Economy em Washington (EUA).

“Nossa posição é que o governo tem que saber sobre essas coisas… Então, absolutamente, estamos conversando com eles sobre o Mythos e vamos conversar com eles sobre os próximos modelos também.”

Pentágono declarou criadora do Claude como um risco à cadeia de suprimentos e à segurança nacional – Imagem: RixAiArt/Shutterstock

Leia mais:

Capacidades do Anthropic Claude Mythos

  • O Mythos, anunciado em 7 de abril, é o modelo “ainda mais capaz” da Anthropic para codificação e tarefas agênticas, disse a empresa em um post de blog, referindo-se à capacidade do modelo de atuar de forma autônoma;
  • Suas capacidades de codificar em alto nível lhe deram uma habilidade potencialmente sem precedentes para identificar vulnerabilidades de segurança cibernética e elaborar maneiras de explorá-las, disseram especialistas à Reuters;
  • Um tribunal federal de apelações de Washington, D.C., recusou-se, na semana passada, a bloquear a lista negra de segurança nacional do Pentágono da Anthropic por enquanto, uma vitória para a administração Trump que vem depois de outro tribunal de apelações chegar à conclusão oposta em um desafio legal separado da Anthropic;
  • A natureza e os detalhes das conversas da Anthropic com o governo estadunidense, incluindo quais agências estão envolvidas, não ficaram imediatamente claros.

O post Anthropic discute modelo de IA com Trump, diz cofundador apareceu primeiro em Olhar Digital.

Anthropic discute modelo de IA com Trump, diz cofundador Read More »