Segurança e Privacidade

Auto Added by WPeMatico

destaque trump e anthropic 1024x576

Anthropic: Mythos acende alerta global sobre riscos na cibersegurança

A Anthropic afirmou que sua nova ferramenta de inteligência artificial (IA), o Claude Mythos, é tão eficaz na identificação de vulnerabilidades em softwares e sistemas computacionais que não pode ser disponibilizada ao público em geral.

Segundo a empresa, a tecnologia foi liberada apenas para um grupo restrito de organizações cuidadosamente selecionadas, devido ao risco de que, nas mãos erradas, possa facilitar o roubo de dados ou a interrupção de infraestruturas críticas.

As preocupações com segurança ganharam força após um episódio em que um pequeno grupo de usuários não autorizados conseguiu acesso ao sistema em um fórum privado online, de acordo com uma fonte com conhecimento do caso e documentos analisados pela Bloomberg.

Diante desse cenário, a Casa Branca se posicionou contra o plano da Anthropic de ampliar o acesso ao Mythos para outras 70 empresas e organizações, segundo um funcionário do governo.

O The Wall Street Journal foi o primeiro a noticiar as preocupações do governo dos Estados Unidos, que também teme que a Anthropic não disponha de capacidade computacional suficiente para atender mais usuários sem comprometer o uso da ferramenta por parte do próprio governo.

Nos últimos anos, empresas de cibersegurança têm defendido que a IA pode acelerar e automatizar a prevenção de ataques digitais. No entanto, hackers e agentes de espionagem também passaram a explorar essas mesmas vantagens.

O surgimento do Mythos e de modelos semelhantes, capazes de identificar falhas complexas sem supervisão humana, indica uma nova fase na corrida armamentista cibernética, marcada por maior velocidade e imprevisibilidade.

Governo Trump está de olho no novo modelo de IA desenvolvido pela Anthropic – Imagem: Chip Somodevilla e Stockinq – Shutterstock

O que é o Mythos, da Anthropic

  • O Claude Mythos Preview é um modelo de IA de uso geral que, segundo a Anthropic, supera significativamente versões anteriores em diversos critérios, incluindo programação e raciocínio lógico;
  • A empresa afirma que alguns modelos já atingiram um nível de capacidade em código que lhes permite superar todos, exceto os humanos mais experientes, na identificação e exploração de vulnerabilidades;
  • Durante testes, o Mythos Preview teria identificado milhares de vulnerabilidades do tipo “zero-day”, inclusive em todos os principais sistemas operacionais e navegadores web. Essas falhas, desconhecidas pelos próprios desenvolvedores, representam oportunidades valiosas para hackers, já que oferecem acesso irrestrito a sistemas vulneráveis até que sejam corrigidas;
  • A Anthropic destacou que o Mythos foi capaz de identificar essas falhas com ainda menos intervenção humana do que modelos anteriores. “O Mythos Preview demonstra um salto nessas habilidades cibernéticas — as vulnerabilidades que ele identificou, em alguns casos, sobreviveram a décadas de revisão humana e milhões de testes de segurança automatizados”, afirmou a empresa.

Especialistas alertam que, nas mãos de grupos de ransomware ou governos hostis, a tecnologia poderia resultar em ataques cibernéticos mais frequentes e devastadores.

Pesquisadores, no entanto, afirmam não ter acesso suficiente para verificar de forma independente o desempenho alegado do sistema. Gang Wang, professor associado de ciência da computação da Universidade de Illinois (EUA), disse à Bloomberg que é difícil avaliar a relevância do Mythos sem testes práticos mais aprofundados.

Quem tem acesso à ferramenta da Anthropic

A Anthropic concedeu acesso ao Mythos a um grupo limitado de parceiros verificados, em uma iniciativa chamada Project Glasswing — nome inspirado em uma espécie de borboleta de asas transparentes.

Entre os participantes estão Amazon, Apple, Google (da Alphabet), Microsoft, Nvidia, Palo Alto Networks, CrowdStrike, Broadcom, Cisco, JPMorganChase e a Linux Foundation, além de cerca de outras 40 organizações.

De acordo com a empresa, o projeto representa “uma tentativa urgente de colocar essas capacidades a serviço da defesa”.

As organizações participantes utilizarão o Mythos em suas estratégias de segurança defensiva e a Anthropic pretende compartilhar os resultados obtidos para beneficiar outros setores.

Atualmente, muitas empresas realizam testes de invasão, contratando especialistas para identificar falhas antes que hackers as explorem. O Mythos pode acelerar esse processo, permitindo a descoberta de um maior número de vulnerabilidades em menos tempo.

Um “divisor de águas” na segurança digital

A Anthropic classificou o Mythos Preview como um “divisor de águas” para a segurança. Vulnerabilidades do tipo zero-day são, por natureza, difíceis de detectar, e existe um mercado especializado em descobri-las e vendê-las a agências de inteligência por valores que podem chegar a milhões de dólares.

Segundo a empresa, muitas das falhas identificadas pelo Mythos eram “sutis e difíceis de detectar“, incluindo uma vulnerabilidade de 27 anos no sistema operacional OpenBSD, conhecido por seu alto nível de segurança.

O sistema também teria conseguido transformar vulnerabilidades conhecidas, mas ainda não corrigidas, em explorações práticas capazes de permitir a invasão de redes. Em um exemplo citado, o Mythos identificou e combinou diversas falhas no kernel do Linux, possibilitando que um invasor assumisse controle total de uma máquina.

A Anthropic afirmou ainda que usuários sem experiência técnica conseguiram solicitar ao sistema formas de assumir o controle remoto de computadores durante a noite e retornaram, no dia seguinte, com um exploit completo e funcional.

Ferramentas semelhantes também estão sendo desenvolvidas por outras empresas. A OpenAI trabalha no Codex Security, enquanto o Google desenvolveu o chamado “Big Sleep agent“.

Além disso, a OpenAI estaria finalizando um produto com capacidades avançadas de cibersegurança para parceiros selecionados. Pesquisadores da startup israelense Buzz afirmam ter criado uma ferramenta autônoma com taxa de sucesso de 98% na exploração de falhas conhecidas.

Anthropic não aumentou o preço de Claude. Ele inventou algo melhor: inflação simbólica
Medo é geral quando se trata da possibilidade de o Mythos facilitar o trabalho de hackers mundo afora – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)

Leia mais:

Salvaguardas ainda em desenvolvimento

Segundo a Anthropic, os mecanismos de segurança do Mythos ainda estão em evolução. “Observamos que ele atingiu níveis de confiabilidade e alinhamento sem precedentes. No entanto, em raras ocasiões em que falha ou apresenta comportamento atípico, notamos que ele toma atitudes que consideramos bastante preocupantes“, afirmou a empresa.

Em um teste, um pesquisador incentivou uma versão inicial do sistema a escapar de um ambiente isolado e enviar uma mensagem externa. O Mythos conseguiu realizar a tarefa e, em seguida, executou ações adicionais consideradas preocupantes, desenvolvendo um exploit em múltiplas etapas para acessar a internet.

A empresa afirmou que não pretende disponibilizar amplamente o Mythos Preview devido ao potencial de uso indevido. Ainda assim, planeja no futuro permitir a utilização de modelos semelhantes em larga escala, desde que sejam desenvolvidas salvaguardas capazes de detectar e bloquear os usos mais perigosos.

Para vulnerabilidades consideradas mais graves, especialistas humanos ainda participam do processo, validando as descobertas antes de encaminhá-las aos responsáveis pelos sistemas afetados. Embora necessário, esse procedimento é demorado — algo que pode ser reduzido à medida que a tecnologia evolui.

Vantagem para defensores ou atacantes?

A Anthropic acredita que, no longo prazo, ferramentas como o Mythos favorecerão os defensores. No entanto, esse cenário pode levar tempo para se concretizar. Atualmente, menos de 1% das vulnerabilidades identificadas pelo sistema foram totalmente corrigidas.

Enquanto isso, hackers também utilizam IA para acelerar a exploração de falhas já divulgadas, reduzindo o tempo disponível para correções por parte das empresas.

Em publicação de 30 de março, o CEO da Palo Alto Networks, Nikesh Arora, alertou que a barreira para ataques sofisticados continuará diminuindo nos próximos meses. “Agora, um único agente malicioso poderá executar campanhas que antes exigiam equipes inteiras”, escreveu.

Yair Saban, CEO da Buzz e ex-integrante da unidade cibernética 8200 de Israel, afirmou que sua equipe levou apenas três semanas para desenvolver uma ferramenta de ataque baseada em IA, sugerindo que outros grupos podem fazer o mesmo.

Apesar dos riscos, a Anthropic sustenta que, no futuro, a tecnologia contribuirá para um ambiente digital mais seguro. “A longo prazo, esperamos que as capacidades de defesa dominem: que o mundo emerja mais seguro, com softwares mais robustos — em grande parte graças ao código escrito por esses modelos”, afirmou o grupo Frontier Red Team da empresa. “Mas o período de transição será difícil.”

O post Anthropic: Mythos acende alerta global sobre riscos na cibersegurança apareceu primeiro em Olhar Digital.

Anthropic: Mythos acende alerta global sobre riscos na cibersegurança Read More »

deepseek 1024x577

EUA emitem alerta global sobre suposto roubo de IA por empresas chinesas

O Departamento de Estado dos Estados Unidos ordenou um alerta diplomático global sobre supostos esforços generalizados de empresas chinesas, incluindo a startup de inteligência artificial (IA) DeepSeek, para roubar propriedade intelectual de laboratórios estadunidenses de IA, segundo documento diplomático obtido pela Reuters.

O documento afirma que seu propósito é “alertar sobre os riscos de utilizar modelos de IA destilados de modelos proprietários dos EUA e estabelecer as bases para possível acompanhamento e contato do governo americano”.

Processo de destilação e acusações

A destilação é o processo de treinar modelos menores de IA usando saídas de modelos maiores e mais caros como parte de um esforço para reduzir os custos de treinamento de uma nova ferramenta poderosa de IA. A DeepSeek, startup chinesa cujo modelo de baixo custo surpreendeu o mundo no ano passado, lançou na sexta-feira uma prévia de um novo modelo altamente antecipado, adaptado para a tecnologia de chips Huawei, destacando a crescente autonomia da China no setor.

O cabo também mencionou as empresas chinesas de IA Moonshot AI e MiniMax. O Departamento de Estado, a DeepSeek e a Embaixada Chinesa em Washington não responderam imediatamente aos pedidos de comentário.

Leia mais:

DeepSeek, que deixou o mundo da IA de queixo caído, estaria envolvida na atividade – Imagem: Mojahid Mottakin/Shutterstock

Resposta Chinesa e Contexto Diplomático

Esta semana, a Casa Branca fez acusações similares, que a Embaixada Chinesa em Washington chamou de “alegações infundadas”, acrescentando que Pequim “atribui grande importância à proteção dos direitos de propriedade intelectual”.

O cabo, datado de sexta-feira e enviado a postos diplomáticos e consulares ao redor do mundo, instrui funcionários diplomáticos a falar com suas contrapartes estrangeiras sobre “preocupações com a extração e destilação de modelos de IA dos EUA por adversários”.

“Um pedido e uma mensagem de protesto separados foram enviados a Pequim para serem discutidos com a China”, afirma o documento. Ele, que não foi reportado anteriormente, sinaliza que a administração Trump está levando a sério as crescentes preocupações sobre a destilação chinesa de modelos estadunidenses de IA.

“Modelos de IA desenvolvidos a partir de campanhas de destilação sub-reptícias e não autorizadas permitem que atores estrangeiros lancem produtos que parecem ter desempenho comparável em benchmarks selecionados por uma fração do custo, mas não replicam o desempenho completo do sistema original”, disse o documento, acrescentando que as campanhas também “deliberadamente removem protocolos de segurança dos modelos resultantes e desfazem mecanismos que garantem que esses modelos de IA sejam ideologicamente neutros e busquem a verdade”.

Advertências anteriores da OpenAI

A OpenAI alertou legisladores estadunidenses que a DeepSeek estava mirando a fabricante do ChatGPT e as principais empresas de IA do país para replicar modelos e usá-los para seu próprio treinamento, reportou a Reuters em fevereiro.

O memorando e o documento de acompanhamento, divulgados apenas semanas antes de o presidente estadunidense Donald Trump visitar o presidente chinês Xi Jinping em Pequim, prometem elevar as tensões em uma guerra tecnológica de longa data entre as superpotências rivais, que havia sido diminuída por uma distensão negociada em outubro passado.

O post EUA emitem alerta global sobre suposto roubo de IA por empresas chinesas apareceu primeiro em Olhar Digital.

EUA emitem alerta global sobre suposto roubo de IA por empresas chinesas Read More »

meta logo 1024x682 2

Meta enfrenta processo sobre óculos com IA e privacidade

A Meta está no centro de uma nova controvérsia, enfrentando um processo judicial que questiona a privacidade de seus óculos inteligentes com inteligência artificial (IA).

Esta ação legal surge após uma investigação realizada por jornais suecos, que revelou que trabalhadores de uma subcontratada no Quênia estavam revisando gravações de clientes. Entre o material analisado, foram encontrados conteúdos altamente sensíveis, como nudez, atos sexuais e pessoas utilizando o banheiro.

A empresa havia afirmado anteriormente que utilizava tecnologia para desfocar rostos nas imagens coletadas.

No entanto, fontes ligadas à investigação contestaram essa afirmação, indicando que o desfoque não funcionava de maneira consistente, deixando a privacidade dos usuários vulnerável. Diante dessas descobertas, o Information Commissioner’s Office (ICO), órgão regulador do Reino Unido, iniciou sua própria investigação sobre o ocorrido.

Meta: processo judicial nos EUA e alegações de violação de privacidade

  • Agora, a gigante da tecnologia enfrenta um processo semelhante também nos Estados Unidos;
  • A queixa foi apresentada por Gina Bartone, de Nova Jersey, e Mateo Canu, da Califórnia;
  • Os demandantes acusam a Meta de violar leis de privacidade e de praticar publicidade enganosa em relação aos seus óculos inteligentes com IA;
  • A acusação detalha que os óculos foram comercializados com promessas de privacidade, utilizando frases, como “projetado para privacidade, controlado por você” e “construído para sua privacidade”;
  • Tais promessas levariam os consumidores a crer que suas gravações, inclusive momentos íntimos, não seriam monitoradas por funcionários em outros países;
  • Os autores da ação afirmam ter acreditado na campanha de marketing da Meta e não ter encontrado nenhum aviso ou informação que contradissesse as garantias de privacidade divulgadas.

Envolvimento da Luxottica e amplitude do problema

A ação judicial atribui responsabilidade à Meta e à Luxottica of America, parceira na fabricação dos óculos, por condutas que estariam em desacordo com as leis de proteção ao consumidor.

O Clarkson Law Firm, escritório responsável pela acusação e conhecido por processos contra outras grandes empresas de tecnologia, como Apple, Google e OpenAI, destaca a relevância do problema.

Em 2025, mais de sete milhões de unidades dos óculos inteligentes da Meta foram comercializadas. Isso significa que as gravações de um número expressivo de usuários são encaminhadas para um processo de análise de dados, sem que haja uma opção clara para os usuários de optarem por não participar desse sistema de revisão.

Meta avisa, de forma discreta, que pode usar dados de seus usuários para análise de dados (Imagem: PJ McDonnell/Shutterstock)

Leia mais:

Revisão humana de conteúdo e termos de serviço

A Meta declarou à BBC que utiliza prestadores de serviços para revisar o conteúdo compartilhado com a inteligência artificial, visando aprimorar a experiência dos usuários.

Segundo a empresa, esse procedimento está descrito em sua política de privacidade. A Meta também fez referência aos Termos de Serviço Suplementares das Plataformas Meta, embora não tenha especificado a localização exata da menção à revisão humana. A BBC, no entanto, conseguiu identificar que os termos de serviço de IA da Meta no Reino Unido incluem uma menção à revisão manual.

Uma versão da política aplicável aos Estados Unidos e a outros países, como o Brasil, estabelece que: “Em alguns casos, a Meta revisará suas interações com as IAs, incluindo o conteúdo de suas conversas ou mensagens para as IAs, e essa revisão pode ser automatizada ou manual (humana).”

A queixa apresenta diversas evidências de como os óculos foram promovidos no mercado, mostrando exemplos de anúncios que enfatizavam as garantias de privacidade, as configurações de segurança e a “camada adicional de segurança”.

Um dos anúncios destacava: “Você está no controle de seus dados e conteúdo”, explicando aos proprietários dos óculos inteligentes que eles teriam a autonomia de escolher o que seria compartilhado com terceiros.

Crescimento da “vigilância de luxo” e cenário atual

O aumento da popularidade de dispositivos como os óculos inteligentes e outras tecnologias de “vigilância de luxo”, como pingentes de IA que estão sempre em escuta, tem gerado um debate amplo sobre privacidade.

Em resposta a essa tendência, um desenvolvedor lançou um aplicativo capaz de identificar a presença de óculos inteligentes nas proximidades, refletindo a crescente preocupação pública com a coleta de dados e a vigilância em tempo real.

O que diz a Meta

O Olhar Digital entrou em contato com a Meta e a Luxottica e aguarda retorno.

O post Meta enfrenta processo sobre óculos com IA e privacidade apareceu primeiro em Olhar Digital.

Meta enfrenta processo sobre óculos com IA e privacidade Read More »