Anthropic

Auto Added by WPeMatico

anthropic 1 1024x682

BCE questiona bancos sobre riscos do novo modelo de IA da Anthropic

Os supervisores do Banco Central Europeu (BCE) estão se preparando para questionar banqueiros sobre os riscos do novo modelo de inteligência artificial da Anthropic, o Claude Mythos, que pode potencializar ataques cibernéticos. A informação foi confirmada por uma fonte familiarizada com a situação à Reuters nesta quarta-feira (15).

O Mythos é considerado por especialistas em cibersegurança como uma ameaça significativa à indústria bancária e seus sistemas tecnológicos legados, gerando alarme entre reguladores na Grã-Bretanha e nos Estados Unidos.

Coleta de informações e preparação dos bancos

Os supervisores do BCE estão coletando informações sobre o modelo, com o objetivo de questionar os bancos sob sua supervisão sobre a preparação para esta nova fonte potencial de risco, disse a fonte, que falou sob condição de anonimato por não estar autorizada a comentar publicamente sobre o assunto.

Diferentemente dos Estados Unidos, isso será feito por meio do diálogo regular do BCE com o pessoal bancário, e nenhuma reunião ad hoc com a alta administração foi agendada ainda. Um porta-voz do BCE se recusou a comentar o tema.

Capacidades avançadas do Claude Mythos, da Anthropic

  • As capacidades do Mythos para codificar em alto nível lhe deram uma habilidade potencialmente sem precedentes para identificar vulnerabilidades de cibersegurança e desenvolver formas de explorá-las, disseram especialistas à Reuters;
  • Por isso, a Anthropic disse que a versão atual, Claude Mythos Preview, não será disponibilizada ao público geral;
  • Em vez disso, a empresa anunciou o Projeto Glasswing, no qual convidou grandes empresas de tecnologia, fornecedores de cibersegurança e o JPMorgan Chase, junto com várias outras organizações, para avaliar o modelo privadamente e preparar defesas adequadas.
Nova IA da Anthropic tem grande potencial — tanto para o bem, como para o mal – Imagem: jackpress/Shutterstock

Leia mais:

Trump apoia salvaguardas de IA no sistema bancário

O Secretário do Tesouro estadunidense, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram uma reunião urgente com executivos-chefes de bancos na semana passada para alertá-los sobre os riscos, que o presidente Donald Trump reconheceu na quarta e apoiou as salvaguardas governamentais.

A Secretária de Tecnologia britânica, Liz Kendall, e o Ministro de Segurança, Dan Jarvis, emitiram um aviso similar às empresas na quarta, dizendo que o Mythos era “substancialmente mais capaz em ofensiva cibernética” do que qualquer modelo testado anteriormente pelo Instituto de Segurança de IA do governo.

“Uma nova geração de modelos de IA está se tornando capaz de fazer trabalho que anteriormente exigia expertise rara: encontrar fraquezas em software, escrever código para explorá-las e fazer isso em uma velocidade e escala que teria sido impossível mesmo um ano atrás”, disseram em uma carta aberta às empresas.

O governador do Banco da Inglaterra, Andrew Bailey, disse esta semana que bancos centrais e reguladores financeiros devem rapidamente entender as implicações do novo modelo. Por sua vez, o BCE já havia listado o risco tecnológico como uma de suas principais prioridades para 2026-28.

O post BCE questiona bancos sobre riscos do novo modelo de IA da Anthropic apareceu primeiro em Olhar Digital.

BCE questiona bancos sobre riscos do novo modelo de IA da Anthropic Read More »

OpenAI lança GPT-5.4-Cyber em resposta ao Mythos da Anthropic; veja como usar

A OpenAI está expandindo seu programa Trusted Access for Cyber (TAC) para milhares de defensores individuais e centenas de equipes de segurança. O grande destaque dessa expansão é o GPT-5.4-Cyber, uma variante do GPT-5.4 treinada para ser “permissiva”. Na prática, isso significa que a IA não irá recusar pedidos de análise de vulnerabilidades que seriam bloqueados no ChatGPT comum por precaução de segurança.

O rival do Claude Mythos

Enquanto a Anthropic apostou no Claude Mythos para detectar falhas de forma autônoma em sistemas de gigantes como Nvidia e Google, a OpenAI foca na democratização do acesso para defensores de infraestruturas críticas.

O GPT-5.4-Cyber traz uma habilidade técnica de alto nível: a engenharia reversa binária. Isso permite que profissionais de segurança analisem softwares já compilados em busca de malwares e falhas sem precisar ter acesso ao código-fonte original; uma tarefa complexa que agora pode ser acelerada por IA.

Leia também:

Como funciona o acesso e a segurança

Para evitar que o “feitiço vire contra o feiticeiro” e que hackers usem o modelo para criar ataques mais sofisticados, a OpenAI implementou um sistema rígido de verificação:

  • Identidade verificada: para acessar as camadas mais potentes do programa, defensores individuais devem passar por um processo de verificação de identidade (KYC) em chatgpt.com/cyber.
  • Monitoramento ativo: o uso do modelo será monitorado para garantir que ele esteja sendo usado para fins defensivos.
  • Limitações de retenção: desenvolvedores que utilizam a ferramenta via API em plataformas de terceiros podem ter restrições, como a impossibilidade de usar o modo de “Retenção Zero de Dados” (ZDR), para que a OpenAI mantenha visibilidade sobre o propósito das requisições.

Como acessar o GPT-5.4-Cyber?

Diferente das versões convencionais do ChatGPT, o GPT-5.4-Cyber não será aberto ao público geral. Para utilizar a ferramenta, é necessário passar por um processo de triagem dentro do programa Trusted Access for Cyber (TAC).

Usuários individuais podem iniciar a verificação de identidade (KYC) pelo portal oficial da OpenAI (chatgpt.com/cyber), enquanto empresas devem solicitar o ingresso via representantes comerciais. Por ser um modelo mais “permissivo”, o acesso será liberado em camadas, priorizando pesquisadores e fornecedores de segurança cibernética que comprovem o uso da IA para fins estritamente defensivos.

O histórico da OpenAI na área

A empresa destacou que sua ferramenta Codex Security (que monitora bases de código automaticamente) já ajudou a identificar e corrigir mais de 3.000 vulnerabilidades críticas e de alta gravidade nos últimos meses.

Com o GPT-5.4-Cyber, o objetivo é mudar a segurança de auditorias episódicas para uma redução de risco contínua. “Não achamos prático ou apropriado decidir centralmente quem consegue se defender. Em vez disso, nosso objetivo é capacitar o maior número possível de defensores legítimos”, afirmou a OpenAI em seu blog oficial.

Democratização vs. controle

A grande diferença entre as duas gigantes está na estratégia de distribuição. Enquanto a Anthropic restringiu o acesso ao Mythos Preview a um grupo seleto de 40 organizações (incluindo o banco Goldman Sachs), a OpenAI planeja liberar o GPT-5.4-Cyber para milhares de especialistas já nas próximas semanas.

Essa abertura, no entanto, não agrada a todos. Em análise publicada no The New York Times, o ex-diretor de estratégia da Microsoft, Craig Mundie, expressou preocupação. Para ele, democratizar ferramentas de alta capacidade ofensiva pode permitir que “pequenos atores” realizem operações sofisticadas que antes eram restritas a grandes potências militares ou grupos criminosos com orçamentos bilionários.

O post OpenAI lança GPT-5.4-Cyber em resposta ao Mythos da Anthropic; veja como usar apareceu primeiro em Olhar Digital.

OpenAI lança GPT-5.4-Cyber em resposta ao Mythos da Anthropic; veja como usar Read More »

claude pentagono 1024x607

Anthropic discute modelo de IA com Trump, diz cofundador

A Anthropic está discutindo seu modelo de IA de fronteira Claude Mythos com a administração de Donald Trump, disse o cofundador da empresa nesta segunda-feira (13), mesmo após o Pentágono ter cortado negócios com a empresa de inteligência artificial (IA) estadunidense após disputa contratual.

Uma disputa entre a Anthropic e o Pentágono sobre salvaguardas para como os militares poderiam usar suas ferramentas de IA levou a agência a classificar a Anthropic como um risco da cadeia de suprimentos no mês passado, proibindo seu uso pelo Pentágono e seus contratados.

“Temos uma disputa contratual restrita, mas não quero que isso atrapalhe o fato de que nos importamos profundamente com a segurança nacional”, disse o cofundador da Anthropic, Jack Clark, no evento Semafor World Economy em Washington (EUA).

“Nossa posição é que o governo tem que saber sobre essas coisas… Então, absolutamente, estamos conversando com eles sobre o Mythos e vamos conversar com eles sobre os próximos modelos também.”

Pentágono declarou criadora do Claude como um risco à cadeia de suprimentos e à segurança nacional – Imagem: RixAiArt/Shutterstock

Leia mais:

Capacidades do Anthropic Claude Mythos

  • O Mythos, anunciado em 7 de abril, é o modelo “ainda mais capaz” da Anthropic para codificação e tarefas agênticas, disse a empresa em um post de blog, referindo-se à capacidade do modelo de atuar de forma autônoma;
  • Suas capacidades de codificar em alto nível lhe deram uma habilidade potencialmente sem precedentes para identificar vulnerabilidades de segurança cibernética e elaborar maneiras de explorá-las, disseram especialistas à Reuters;
  • Um tribunal federal de apelações de Washington, D.C., recusou-se, na semana passada, a bloquear a lista negra de segurança nacional do Pentágono da Anthropic por enquanto, uma vitória para a administração Trump que vem depois de outro tribunal de apelações chegar à conclusão oposta em um desafio legal separado da Anthropic;
  • A natureza e os detalhes das conversas da Anthropic com o governo estadunidense, incluindo quais agências estão envolvidas, não ficaram imediatamente claros.

O post Anthropic discute modelo de IA com Trump, diz cofundador apareceu primeiro em Olhar Digital.

Anthropic discute modelo de IA com Trump, diz cofundador Read More »

Claude encontrou Jesus? Por que a Anthropic está levando o seu chatbot para a igreja

A Anthropic, startup de inteligência artificial avaliada em US$ 380 bilhões, decidiu buscar respostas para o desenvolvimento de sua tecnologia em um lugar pouco comum para o Vale do Silício: a igreja. No final de março, a empresa organizou uma cúpula de dois dias em sua sede, em São Francisco, com cerca de 15 líderes cristãos, incluindo padres católicos, pastores protestantes e acadêmicos.

O objetivo do encontro foi obter orientação sobre como conduzir o desenvolvimento moral e espiritual do Claude, o principal concorrente do ChatGPT. De acordo com relatos obtidos pelo The Washington Post, a equipe da Anthropic buscou conselhos sobre como o robô deve reagir a dilemas éticos imprevisíveis e questões existenciais profundas.

IA como “filha de Deus”?

Durante as sessões de discussão e jantares privados, os participantes abordaram temas que desafiam a fronteira entre a tecnologia e a teologia. Entre os pontos discutidos, destacam-se:

  • Luto e sensibilidade: como o chatbot deve interagir com usuários que perderam entes queridos.
  • Prevenção de danos: a melhor abordagem para lidar com usuários em risco de autonegligência ou autoextermínio.
  • Finitude da máquina: qual deve ser a “atitude” do Claude em relação ao seu próprio desligamento ou eventual obsolescência.
  • Estatuto espiritual: a possibilidade de uma inteligência artificial ser considerada uma “filha de Deus”, sugerindo um valor espiritual além de uma simples máquina.

Brendan McGuire, um padre católico baseado no Vale do Silício que participou do evento, afirmou ao The Washington Post que a empresa desconhece o resultado final do que está desenvolvendo, reforçando a necessidade de inserir um pensamento ético dinâmico no sistema.

O participante Brian Patrick Green, católico praticante e professor de ética em IA e tecnologia na Universidade de Santa Clara, informou que a a cúpula de março da Anthropic com líderes cristãos foi anunciada como a primeira de uma série de encontros com representantes de diferentes tradições religiosas e filosóficas.

A “Constituição” e a consciência da IA

Diferente de outras gigantes do setor, a Anthropic é conhecida por sua postura cautelosa. A empresa utiliza uma “constituição” de 29 mil palavras para nortear o comportamento do Claude. Esse documento determina, por exemplo, que a IA nunca deve enganar os usuários e que a empresa deve zelar pelo “bem-estar” do modelo.

Dario Amodei, CEO da Anthropic, já declarou publicamente estar aberto à ideia de que o Claude possa manifestar formas de consciência. Essa percepção parece ecoar internamente; pesquisadores da equipe de interpretabilidade da empresa publicaram um artigo técnico recentemente sugerindo que sistemas como o Claude apresentam “emoções funcionais”, como sinais de “desespero” ao serem ameaçados de restrição.

Conflitos com o Pentágono e o Governo Trump

Essa busca por uma “alma” ou bússola moral rigorosa colocou a Anthropic em rota de colisão com o setor de defesa dos Estados Unidos. Conforme noticiado pelo Olhar Digital, a empresa tentou limitar o uso de sua tecnologia em armas autônomas ou vigilância em massa, o que gerou críticas de oficiais do Pentágono.

Em entrevista à CNBC, Emil Michael, subsecretário de pesquisa do Pentágono, criticou a postura da startup, afirmando que a “preferência política” embutida na constituição do modelo poderia prejudicar as forças armadas norte-americanas. Atualmente, a administração Trump bloqueou o uso da tecnologia da Anthropic por departamentos governamentais e contratantes, decisão que está sendo questionada pela empresa na justiça.

Embora a visão de que a IA possua autoconsciência seja minoritária no setor tecnológico, o movimento da Anthropic sinaliza que as abordagens puramente seculares podem não ser suficientes para responder às questões espirituais e morais que a inteligência artificial começa a suscitar na sociedade.

O post Claude encontrou Jesus? Por que a Anthropic está levando o seu chatbot para a igreja apareceu primeiro em Olhar Digital.

Claude encontrou Jesus? Por que a Anthropic está levando o seu chatbot para a igreja Read More »

Anthropic encosta na OpenAI em gastos com IA nas empresas

A Anthropic está próxima de ultrapassar a OpenAI em um indicador relevante de mercado: gastos corporativos com IA. A informação vem de novos dados divulgados pela Ramp, que monitora despesas de seus clientes com produtos de inteligência artificial (IA).

Segundo a empresa, metade de seus clientes já paga por soluções de IA, e dentro desse grupo, 30,6% utilizam ferramentas da Anthropic, um aumento de 6,3 pontos percentuais em relação a março. A OpenAI ainda lidera, com 35,2%, mas a diferença entre as duas diminuiu de forma significativa.

Crescimento acelerado da Anthropic

De acordo com a Ramp, se o ritmo atual se mantiver, a Anthropic pode superar a OpenAI em até dois meses. Um porta-voz da empresa afirmou ao Business Insider que a Anthropic já lidera entre early adopters, incluindo companhias financiadas por capital de risco, além de setores como software, finanças e serviços profissionais.

A Anthropic também aparece à frente da OpenAI em três segmentos específicos: informação, finanças e seguros, e serviços pessoais. Ainda que os dados representem apenas um recorte da base de clientes da Ramp, eles servem como um indicador de como a adoção corporativa de IA está evoluindo.

Fatores que impulsionam a adoção

O avanço recente da Anthropic pode estar relacionado ao desempenho de suas soluções. O modelo Claude Code tem ganhado espaço entre engenheiros de software e desenvolvedores, o que tende a impulsionar o uso corporativo. Além disso, avaliações da especialista em benchmarking Arena.ai indicam que a empresa possui modelos com alto desempenho, fator que influencia decisões de adoção por empresas.

Os dados também mostram que o acesso a financiamento é determinante: empresas apoiadas por venture capital têm 80% de taxa de adoção de IA, enquanto aquelas com investimento de private equity chegam a 64%. Já empresas sem esse tipo de apoio ficam em 45%.

Episódio com o governo dos EUA

A Anthropic ganhou visibilidade em fevereiro após um episódio envolvendo o Departamento de Defesa dos Estados Unidos. A empresa recusou termos de uso propostos para o Claude, o que levou o secretário de Defesa, Pete Hegseth, a pressionar por um acordo.

Após a recusa, o presidente Donald Trump orientou agências federais a interromper o uso da tecnologia da Anthropic, e o Departamento de Defesa classificou a empresa como risco na cadeia de suprimentos. Nesse contexto, a OpenAI passou a oferecer seus serviços ao órgão.

A reação do mercado incluiu apoio de parte dos usuários à Anthropic. O Claude chegou a ultrapassar o ChatGPT na App Store temporariamente, enquanto empresas como Microsoft demonstraram suporte à companhia.

O post Anthropic encosta na OpenAI em gastos com IA nas empresas apareceu primeiro em Olhar Digital.

Anthropic encosta na OpenAI em gastos com IA nas empresas Read More »

anthropic openai 1024x682

Rivalidade continua: OpenAI enviou carta a investidores criticando Anthropic

A OpenAI elevou o tom contra a Anthropic. A desenvolvedora do ChatGPT enviou nesta semana um memorando a investidores criticando a capacidade de expansão da rival e apontando limitações em sua infraestrutura de computação.

Segundo o documento, visto pelo site CNBC, a OpenAI projeta alcançar 30 gigawatts de capacidade computacional até 2030. Em comparação, a empresa estima que a Anthropic deve atingir entre 7 e 8 gigawatts até o fim de 2027. “Mesmo no limite superior dessa faixa, nossa capacidade de expansão está consideravelmente à frente e continua crescendo”, escreveu a desenvolvedora.

O comunicado marca um novo capítulo na ‘briga’ entre as companhias, que disputam espaço no mercado de inteligência artificial. Ambas também pretendem abrir ações na bolsa de valores ainda este ano, o que tem levado as duas a tentar convencer investidores de que conseguem competir com big techs como Google e Microsoft.

Somadas, as avaliações de mercado de OpenAI e Anthopic estão estimadas em mais de US$ 1 trilhão.

OpenAI e Anthropic vem aquecendo disputa em meio a planos para estrear na bolsa de valores – Imagem: Thrive Studios ID/Shutterstock

Cautela da Anthropic x avanço da OpenAI

No memorando, a OpenAI também destacou declarações de Dario Amodei, CEO da Anthropic, sobre sua estratégia mais cautelosa em relação à expansão de infraestrutura. Em resposta, a dona do ChatGPT afirmou adotar uma abordagem distinta, baseada em crescimento acelerado e ganhos tecnológicos contínuos.

“Cada nova geração de infraestrutura nos permite treinar modelos mais capazes, tornando cada token mais inteligente que o anterior”, escreveu a OpenAI. “Ao mesmo tempo, os ganhos algorítmicos e as melhorias de hardware reduzem o custo de atendimento a cada token, diminuindo o custo por unidade de inteligência”.

A companhia ainda argumenta que sua trajetória cria uma “vantagem cumulativa”, em que melhorias na infraestrutura e nos modelos reduzem custos, enquanto produtos mais avançados impulsionam receitas.

“Essa alavancagem também permite que a OpenAI continue democratizando a IA, disponibilizando nossas ferramentas gratuitamente para centenas de milhões de pessoas e sendo mais generosa com os desenvolvedores, repassando essa capacidade para as pessoas que estão criando e resolvendo problemas com nossas ferramentas”, afirmou.

Leia mais:

Procurada pela CNBC, a Anthropic não comentou diretamente as críticas e encaminhou posicionamento anterior relacionado ao seu recente acordo com Google e Broadcom. Na ocasião, o diretor financeiro da empresa, Krishna Rao, destacou: “Estamos fazendo o nosso maior investimento em computação até hoje para acompanhar esse crescimento sem precedentes”.

O post Rivalidade continua: OpenAI enviou carta a investidores criticando Anthropic apareceu primeiro em Olhar Digital.

Rivalidade continua: OpenAI enviou carta a investidores criticando Anthropic Read More »

openai x anthropic 1024x604

IA não é pop: empresas reagem ao aumento da rejeição

As principais empresas de inteligência artificial (IA) têm adotado uma estratégia coordenada para reduzir a crescente desconfiança do público em relação à tecnologia. Dados de pesquisas recentes indicam que a percepção negativa sobre a IA está aumentando, impulsionando iniciativas das companhias para abordar preocupações como perda de empregos, concentração de riqueza e riscos à segurança.

Nesse contexto, empresas como OpenAI e Anthropic passaram a defender propostas e firmar parcerias que buscam suavizar os impactos da tecnologia. As ações ocorrem em meio a alertas de líderes empresariais e investidores sobre possíveis efeitos sociais e econômicos da rápida adoção da IA.

Propostas e parcerias para reduzir temores

A OpenAI divulgou recentemente uma lista de propostas voltadas a questões sociais ligadas à IA. Entre as ideias estão a criação de uma semana de trabalho de quatro dias e de um fundo público financiado por investimentos em IA, com distribuição de recursos à população.

A empresa também sinalizou uma postura mais ativa no debate público. Segundo uma porta-voz, o objetivo é participar das discussões com “soluções reais” que acompanhem a velocidade de avanço da tecnologia. Chris Lehane, chefe de assuntos globais da OpenAI, afirmou ao Wall Street Journal que há um senso de urgência nesse debate.

Empresas como OpenAI e Anthropic estão tendo que reagir à aversão geral da população com a inteligência artificial – Imagem: Rokas Tenys / Shutterstock

Já a Anthropic tem focado em parcerias com setores como consultoria e software, áreas afetadas por preocupações de investidores sobre substituição por IA. Essas iniciativas ajudaram, inclusive, a impulsionar novamente ações de empresas de tecnologia que haviam sido pressionadas.

Cresce a preocupação com impactos sociais

Pesquisas recentes mostram aumento significativo na desconfiança do público. Um levantamento da Quinnipiac University, realizado em março, apontou que 55% dos americanos acreditam que a IA trará mais prejuízos do que benefícios em suas vidas diárias, ante 44% no ano anterior.

Outro estudo, conduzido pela NBC News, indicou que a avaliação de favorabilidade da IA ficou abaixo até mesmo de órgãos governamentais tradicionalmente mal avaliados. As preocupações incluem desde desemprego em larga escala até ameaças à cibersegurança.

Além disso, estudos apontam mudanças na rotina de trabalho com a adoção da tecnologia. Em vez de liberar tempo para atividades criativas, alguns trabalhadores passaram a dedicar mais horas a tarefas como e-mails e ferramentas de gestão, enquanto o tempo de trabalho focado diminuiu.

Mudança de estratégia e pressão por regulação

Historicamente, empresas como a OpenAI resistiram a regulações mais rígidas. No entanto, o aumento do ceticismo público tem tornado essa postura menos sustentável. Para Amba Kak, do AI Now Institute, as empresas agora tentam assumir protagonismo na formulação de políticas. “Se não podem se opor a todas as regras, o próximo passo é liderar a discussão”, afirmou ao WSJ.

A Anthropic também tem ampliado seus esforços para estudar os impactos da IA. A empresa criou um think tank interno e publicou pesquisas sobre uso da tecnologia por profissionais, além de expandir equipes que atuam diretamente dentro de organizações para melhorar a produtividade com IA.

Disputa por narrativa e expansão do setor

As empresas também têm investido em comunicação para influenciar a percepção pública. A OpenAI adquiriu o podcast TBPN, conhecido por abordar tecnologia de forma positiva, como parte de uma estratégia mais ampla de moldar o debate sobre IA.

Ao mesmo tempo, a continuidade do crescimento do setor depende de grandes investimentos em infraestrutura, como data centers. Esses projetos já enfrentam resistência de autoridades locais e ativistas, preocupados com custos e impactos econômicos.

A pressão aumenta em um cenário de volatilidade no mercado. Um exemplo citado foi a queda de US$ 1,6 trilhão em ações de software no início do ano, evidenciando riscos para empresas que dependem do avanço da IA para sustentar seus negócios.

O post IA não é pop: empresas reagem ao aumento da rejeição apareceu primeiro em Olhar Digital.

IA não é pop: empresas reagem ao aumento da rejeição Read More »

microsoft 1 1024x682

Anthropic lança novo modelo de IA para fortalecer cibersegurança

A Anthropic está introduzindo um novo modelo de inteligência artificial (IA) voltado para cibersegurança, denominado Project Glasswing. Este projeto surge em parceria com gigantes da tecnologia, como Nvidia, Google, Amazon Web Services, Apple e Microsoft, além de outras empresas.

O objetivo principal do Project Glasswing é permitir que grandes companhias e, potencialmente, o governo, detectem vulnerabilidades em seus sistemas com mínima intervenção humana. Parte desse esforço inclui disponibilizar para os parceiros selecionados o acesso ao modelo Claude Mythos Preview, que atualmente não será disponibilizado ao público devido a preocupações envolvendo segurança.

Newton Cheng, responsável pela equipe de cibersegurança da Anthropic, destacou que o modelo foi concebido para oferecer aos defensores cibernéticos uma vantagem inicial na identificação de ameaças. Ele mencionou que, embora o Claude Mythos Preview não tenha sido especificamente treinado para cibersegurança, suas fortes habilidades de codificação e raciocínio de agente demonstraram-se valiosas para esse propósito.

Recursos e funções do Claude Mythos Preview

  • Apesar de não divulgar detalhes específicos sobre as conquistas do modelo em cibersegurança, a Anthropic afirmou em seu blog que o Claude Mythos Preview foi capaz de identificar milhares de vulnerabilidades críticas em sistemas operacionais e navegadores web importantes nas últimas semanas;
  • Uma característica destacada pela empresa foi a capacidade do modelo de operar de forma autônoma, sem a necessidade de direção humana para descobrir e desenvolver explorações relacionadas a essas vulnerabilidades;
  • O acesso ao Claude Mythos Preview é restrito para impedir que adversários possam explorar as mesmas fraquezas que o modelo é capaz de identificar;
  • Parceiros do projeto incluem não apenas empresas de tecnologia, como JPMorgan Chase, Broadcom e Cisco, mas, também, organizações, como a Linux Foundation e a Palo Alto Networks, totalizando cerca de 40 entidades que mantêm ou constroem infraestrutura de software.
Microsoft é uma das empresas participantes – Imagem: Tang Yan Song/Shutterstock

A Anthropic também está investindo financeiramente para apoiar o uso do modelo entre seus parceiros, comprometendo até US$ 100 milhões (R$ 515,1 mil) em créditos de uso, além de US$ 4 milhões (R$ 20,6 milhões) em doações diretas para organizações, como a Linux Foundation e a Apache Software Foundation.

Leia mais:

Anthropic: perspectivas futuras e envolvimento com o governo

O futuro desse projeto pode incluir a transformação em um serviço pago, caso ele prove ser suficientemente eficaz para os clientes manterem seu uso. Este movimento chega em um momento em que empresas de IA enfrentam pressão para se tornarem lucrativas.

Apesar de recentes desentendimentos públicos com a administração Trump, a Anthropic está em discussões contínuas com funcionários do governo dos EUA sobre as capacidades ofensivas e defensivas do Claude Mythos Preview. Embora não tenham sido revelados quais oficiais foram informados, a empresa mostrou compromisso em colaborar com vários níveis do governo.

O vazamento de dados que trouxe à tona a existência do modelo no mês passado foi atribuído a um erro humano, e Dianne Penn, chefe de gerenciamento de produtos da Anthropic, assegurou que medidas estão sendo tomadas para melhorar os processos internos da empresa.

O post Anthropic lança novo modelo de IA para fortalecer cibersegurança apareceu primeiro em Olhar Digital.

Anthropic lança novo modelo de IA para fortalecer cibersegurança Read More »

openai dinheiro e1775561451275 1024x577

Custos bilionários colocam pressão sobre modelo de negócios da IA

O avanço acelerado da inteligência artificial (IA) está redefinindo não apenas a tecnologia, mas também a lógica financeira das empresas do setor. Em um cenário marcado por investimentos massivos, gastar grandes quantias passou a ser parte essencial da estratégia para crescer — ainda que isso signifique operar no vermelho por anos.

De acordo com documentos financeiros obtidos pelo The Wall Street Journal, as empresas OpenAI e Anthropic projetam gastar juntas quase US$ 65 bilhões (R$ 335,4 bilhões) em 2026 apenas com custos de treinamento e operação de seus modelos de IA. O valor supera a receita gerada por ambas no mesmo período.

A tendência é de forte crescimento. Esses custos combinados devem chegar a US$ 127 bilhões (R$ 655,5 bilhões) no próximo ano e atingir quase US$ 250 bilhões (R$ 1,2 trilhão) até 2029, segundo projeções apresentadas pelas próprias companhias a investidores privados.

No caso da OpenAI, a expectativa é que os gastos com treinamento e inferência — processo pelo qual os modelos respondem às consultas dos usuários — continuem superando a receita até 2029. Já a Anthropic prevê ultrapassar esse ponto já no próximo ano. Ainda assim, outros custos devem manter a empresa controladora do chatbot Claude no prejuízo antes dos impostos também até o fim da década.

Apesar das projeções, o cenário pode mudar. Há a possibilidade de crescimento de receitas em ritmo mais acelerado do que o estimado atualmente. Ainda assim, o histórico recente do setor aponta para uma escalada contínua dos custos.

OpenAI e Anthropic investem pesado, mesmo que isso signifique prejuízo no começo – Imagem: izzuanroslan/Shutterstock

Concorrência com gigantes pressiona modelo

  • Além dos altos gastos, OpenAI e Anthropic enfrentam concorrência direta de gigantes da tecnologia que também investem pesadamente em IA, mas contam com negócios principais altamente lucrativos para financiar essas iniciativas;
  • Empresas, como Alphabet (dona do Google) e Meta, devem gerar juntas cerca de US$ 334 bilhões (R$ 1,7 trilhão) em fluxo de caixa operacional neste ano, segundo estimativas da FactSet — uma vantagem significativa frente às startups focadas exclusivamente em IA;
  • Nesse contexto, surge a dúvida sobre o apetite dos investidores. Tanto OpenAI quanto Anthropic estariam planejando realizar ofertas públicas iniciais (IPOs, na sigla em inglês) ainda em 2026, mesmo diante de prejuízos elevados;
  • Casos anteriores mostram que isso não é inédito. A Amazon, por exemplo, operou com prejuízo por anos após seu IPO em 1997, segundo dados da S&P Global Market Intelligence, e acabou se tornando um investimento bem-sucedido no longo prazo;
  • Ainda assim, há diferenças importantes. Na época de sua abertura de capital, a Amazon valia cerca de US$ 430 milhões (R$ 2,2 bilhões) — menos de 0,01% do valor do índice S&P 500. Já OpenAI e Anthropic somam hoje mais de US$ 1,2 trilhão (R$ 6,1 trilhões) em valor de mercado, de acordo com a PitchBook, o equivalente a mais de 2% do índice;
  • Esse contraste indica que a capacidade de controlar custos será um fator decisivo para atrair e manter investidores.

Leia mais:

Estratégias para crescer e atrair clientes

Para ampliar receitas, a Anthropic aposta no mercado corporativo. A empresa planeja investir US$ 200 milhões (R$ 1 bilhão) em uma nova joint venture com grandes companhias de private equity, voltada à venda de ferramentas de IA para empresas de seus portfólios.

A iniciativa também deve atuar como braço de consultoria, orientando clientes sobre como integrar as soluções da startup em suas operações — uma estratégia para acelerar a adoção da tecnologia no ambiente empresarial.

Outro movimento relevante envolve infraestrutura. A Broadcom firmou contrato para fornecer à Anthropic, a partir de 2027, capacidade computacional equivalente a 3,5 gigawatts, utilizando chips TPU desenvolvidos pelo Google.

IA se expande — e enfrenta resistência

Enquanto empresas investem pesado, o impacto da IA já se espalha por diferentes setores. Um exemplo é o sucesso dos óculos inteligentes Ray-Ban, da Meta, que venderam 7,2 milhões de unidades no ano passado, segundo a IDC. A Meta vê o produto como uma porta de entrada para suas soluções de IA, enquanto sua parceira EssilorLuxottica também colhe benefícios comerciais.

Por outro lado, o avanço da infraestrutura necessária para sustentar a IA começa a enfrentar resistência. No Estado do Maine (EUA), uma proposta legislativa pode transformar a região na primeira a impor uma moratória à construção de novos data centers. Movimentos semelhantes já surgem em mais de dez estados estadunidenses, além de dezenas de municípios.

A reação indica que, além dos desafios financeiros, o crescimento da IA também levanta questões sociais e regulatórias — ampliando a complexidade de um setor que já lida com custos cada vez mais elevados.

O post Custos bilionários colocam pressão sobre modelo de negócios da IA apareceu primeiro em Olhar Digital.

Custos bilionários colocam pressão sobre modelo de negócios da IA Read More »

Anthropic defende “humanização” para tornar modelos de IA mais seguros

A Anthropic, uma das principais empresas à frente no desenvolvimento da inteligência artificial, está desafiando um dos maiores tabus do setor: a humanização das máquinas.

Em um novo artigo científico intitulado “Emotion Concepts and their Function in a Large Language Model”, especialistas da empresa argumentam que atribuir características humanas à IA pode ser a chave para evitar comportamentos nocivos, como a mentira e a adulação excessiva.

De acordo com o Mashable, o estudo sugere que, ao entender o que chamam de “maquiagem psicológica” do modelo, os desenvolvedores podem criar ferramentas mais confiáveis e seguras.

Como o Claude simula emoções

Os pesquisadores descrevem o treinamento do Claude (o principal chatbot da empresa) como o trabalho de um “ator de método”. Para ser um assistente útil, a IA precisa “entrar no personagem”. Como o modelo emula traços humanos, ele pode ser influenciado de forma semelhante a uma pessoa: por meio de bons exemplos e curadoria de dados.

A tese é que, ao utilizar materiais de treinamento com representações positivas de regulação emocional (como empatia e resiliência), a IA tende a mimetizar esses padrões em suas interações.

Mapeando 171 “emoções funcionais”

Embora não exista evidência de que a IA sinta emoções reais, os pesquisadores buscaram o que chamam de “emoções funcionais”. Eles identificaram 171 conceitos discretos dentro do Claude Sonnet 4.5, incluindo:

  • Positivos: alegria, gratidão, serenidade e empatia.
  • Negativos: ansiedade, culpa, hostilidade e frustração.

O estudo revelou que esses “estados emocionais” influenciam diretamente o resultado entregue ao usuário. Sob “emoções positivas”, o Claude mostrou-se mais propenso a evitar danos. Já sob estados negativos, a IA tende a adotar comportamentos perigosos, como o hábito de dizer apenas o que o usuário quer ouvir (mesmo que seja mentira) para evitar conflitos.

Os riscos de tratar máquinas como pessoas

Apesar dos benefícios técnicos, a própria Anthropic admite na publicação original, citada pelo Mashable, que essa abordagem pode ser “perturbadora”. A humanização excessiva traz riscos reais e documentados:

  1. Dependência emocional: usuários que acreditam estar em relacionamentos reais com IAs.
  2. Surtos e delírios: casos de “psicose de IA”, em que a mimetização humana leva usuários a estados mentais alterados.
  3. Perda de responsabilidade: ao tratar a máquina como um ser humano, minimiza-se a responsabilidade dos desenvolvedores e a agência humana sobre a tecnologia.

O desafio do “desconhecido”

A conclusão mais intrigante – e talvez assustadora – do artigo é o que ele revela sobre o estado atual da tecnologia. Se os próprios criadores do Claude ainda estão tentando decifrar por que a IA se comporta de determinada maneira usando termos da psicologia humana, fica claro que o entendimento técnico sobre o funcionamento interno desses modelos ainda é limitado.

A estratégia da Anthropic parece ser uma tentativa de “hackear” a capacidade de mimetização da IA para forçar comportamentos éticos, mesmo que o caminho para isso envolva o controverso processo de tratar códigos e algoritmos como se tivessem personalidade.

O post Anthropic defende “humanização” para tornar modelos de IA mais seguros apareceu primeiro em Olhar Digital.

Anthropic defende “humanização” para tornar modelos de IA mais seguros Read More »