O Departamento de Defesa dos Estados Unidos formalizou acordos com sete empresas de tecnologia para integrar ferramentas de inteligência artificial em seus sistemas. A iniciativa marca um novo passo na estratégia do Pentágono para ampliar o uso de IA em operações militares e acelerar a adoção no dia a dia das Forças Armadas.
As sete companhias são: OpenAI, Google, Microsoft, Amazon Web Services (AWS), NVIDIA, SpaceX e a startup Reflection AI. Com os contratos, o governo americano passa a utilizar modelos e plataformas dessas empresas em ambientes confidenciais, incluindo redes de alto nível de segurança conhecidas como Níveis de Impacto 6 e 7.
Segundo o Departamento de Defesa, a medida busca ampliar o acesso de militares a ferramentas de ponta. A principal plataforma interna do órgão, a GenAI.mil, já foi utilizada por mais de 1,3 milhão de funcionários em apenas cinco meses de operação.
A expansão ocorre em meio a uma corrida global por aplicações militares de IA. Empresas do Vale do Silício têm demonstrado maior disposição em colaborar com o governo americano, aceitando condições para o uso de suas tecnologias em contextos de defesa. Para autoridades, o objetivo é garantir vantagem estratégica frente às rivais.
Anthropic foi classificada como risco à cadeia de suprimentos e está impedida de fechar contratos governamentais – Imagem: Photo For Everything/Shutterstock
Anthropic ficou de fora
Apesar da ampliação da lista de parceiros, uma ausência chama atenção: a Anthropic. A empresa, que já teve seus modelos amplamente utilizados em ambientes militares, foi recentemente classificada pelo Pentágono como um risco à cadeia de suprimentos, após divergências sobre as regras de uso de suas ferramentas. O Olhar Digital explicou a briga aqui.
A disputa entre a startup e o governo se arrasta há meses. Durante esse período, o governo dos EUA passou a priorizar alternativas para reduzir a dependência de um único fornecedor.
Em declarações recentes, Emil Michael , subsecretário de defesa para pesquisa e engenharia e ex-executivo de tecnologia, afirmou que a Anthropic ainda representa um risco, mas que o modelo Mythos é um “momento de segurança nacional à parte”.
O cenário, no entanto, pode mudar. O presidente dos Estados Unidos, Donald Trump, sinalizou recentemente que a desenvolvedora está “melhorando” aos olhos da administração, o que pode abrir caminho para uma eventual reversão da restrição e um novo acordo com o Pentágono.
Pentágono não quer depender de uma única empresa – Imagem: Keith J Finks/Shutterstock
Pentágono na corrida pela IA militar
Os novos acordos também refletem diferentes abordagens tecnológicas. Enquanto empresas como OpenAI e Google operam majoritariamente com modelos fechados, a inclusão da Nvidia e da Reflection indica o interesse crescente do Pentágono em soluções de código aberto. Esses modelos permitem maior personalização e transparência, características vistas como estratégicas em aplicações militares.
“A segurança é francamente aprimorada com o código aberto”, disse Jensen Huang, CEO da NVIDIA, ao defender esse tipo de abordagem em contextos de segurança nacional.
Ao mesmo tempo, empresas envolvidas nos contratos afirmam ter estabelecido limites para o uso de suas tecnologias, incluindo restrições relacionadas a vigilância em massa e armamentos autônomos. O Departamento de Defesa, por sua vez, declarou que seguirá as leis e diretrizes aplicáveis no uso dessas ferramentas.
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
O lançamento do ChatGPT, no fim de 2022, deu a partida para o hype da inteligência artificial generativa. E para os cheques recheados de dígitos captados pela OpenAI, dona da ferramenta, e por outros Large Language Models (LLMs), os motores por trás dessa tecnologia. Até aqui, porém, a corrida bilionária dos LLMs se concentrou em […]
O post Brasil tem 50 “ChatGPTs” com sotaque brasileiro. Eles vão sobreviver à corrida da IA? apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
A Anthropic afirmou que sua nova ferramenta de inteligência artificial (IA), o Claude Mythos, é tão eficaz na identificação de vulnerabilidades em softwares e sistemas computacionais que não pode ser disponibilizada ao público em geral.
Segundo a empresa, a tecnologia foi liberada apenas para um grupo restrito de organizações cuidadosamente selecionadas, devido ao risco de que, nas mãos erradas, possa facilitar o roubo de dados ou a interrupção de infraestruturas críticas.
As preocupações com segurança ganharam força após um episódio em que um pequeno grupo de usuários não autorizados conseguiu acesso ao sistema em um fórum privado online, de acordo com uma fonte com conhecimento do caso e documentos analisados pela Bloomberg.
Diante desse cenário, a Casa Branca se posicionou contra o plano da Anthropic de ampliar o acesso ao Mythos para outras 70 empresas e organizações, segundo um funcionário do governo.
O The Wall Street Journal foi o primeiro a noticiar as preocupações do governo dos Estados Unidos, que também teme que a Anthropic não disponha de capacidade computacional suficiente para atender mais usuários sem comprometer o uso da ferramenta por parte do próprio governo.
Nos últimos anos, empresas de cibersegurança têm defendido que a IA pode acelerar e automatizar a prevenção de ataques digitais. No entanto, hackers e agentes de espionagem também passaram a explorar essas mesmas vantagens.
O surgimento do Mythos e de modelos semelhantes, capazes de identificar falhas complexas sem supervisão humana, indica uma nova fase na corrida armamentista cibernética, marcada por maior velocidade e imprevisibilidade.
Governo Trump está de olho no novo modelo de IA desenvolvido pela Anthropic – Imagem: Chip Somodevilla e Stockinq – Shutterstock
O que é o Mythos, da Anthropic
O Claude Mythos Preview é um modelo de IA de uso geral que, segundo a Anthropic, supera significativamente versões anteriores em diversos critérios, incluindo programação e raciocínio lógico;
A empresa afirma que alguns modelos já atingiram um nível de capacidade em código que lhes permite superar todos, exceto os humanos mais experientes, na identificação e exploração de vulnerabilidades;
Durante testes, o Mythos Preview teria identificado milhares de vulnerabilidades do tipo “zero-day”, inclusive em todos os principais sistemas operacionais e navegadores web. Essas falhas, desconhecidas pelos próprios desenvolvedores, representam oportunidades valiosas para hackers, já que oferecem acesso irrestrito a sistemas vulneráveis até que sejam corrigidas;
A Anthropic destacou que o Mythos foi capaz de identificar essas falhas com ainda menos intervenção humana do que modelos anteriores. “O Mythos Preview demonstra um salto nessas habilidades cibernéticas — as vulnerabilidades que ele identificou, em alguns casos, sobreviveram a décadas de revisão humana e milhões de testes de segurança automatizados”, afirmou a empresa.
Especialistas alertam que, nas mãos de grupos de ransomware ou governos hostis, a tecnologia poderia resultar em ataques cibernéticos mais frequentes e devastadores.
Pesquisadores, no entanto, afirmam não ter acesso suficiente para verificar de forma independente o desempenho alegado do sistema. Gang Wang, professor associado de ciência da computação da Universidade de Illinois (EUA), disse à Bloomberg que é difícil avaliar a relevância do Mythos sem testes práticos mais aprofundados.
Quem tem acesso à ferramenta da Anthropic
A Anthropic concedeu acesso ao Mythos a um grupo limitado de parceiros verificados, em uma iniciativa chamada Project Glasswing — nome inspirado em uma espécie de borboleta de asas transparentes.
Entre os participantes estão Amazon, Apple, Google (da Alphabet), Microsoft, Nvidia, Palo Alto Networks, CrowdStrike, Broadcom, Cisco, JPMorganChase e a Linux Foundation, além de cerca de outras 40 organizações.
De acordo com a empresa, o projeto representa “uma tentativa urgente de colocar essas capacidades a serviço da defesa”.
As organizações participantes utilizarão o Mythos em suas estratégias de segurança defensiva e a Anthropic pretende compartilhar os resultados obtidos para beneficiar outros setores.
Atualmente, muitas empresas realizam testes de invasão, contratando especialistas para identificar falhas antes que hackers as explorem. O Mythos pode acelerar esse processo, permitindo a descoberta de um maior número de vulnerabilidades em menos tempo.
Um “divisor de águas” na segurança digital
A Anthropic classificou o Mythos Preview como um “divisor de águas” para a segurança. Vulnerabilidades do tipo zero-day são, por natureza, difíceis de detectar, e existe um mercado especializado em descobri-las e vendê-las a agências de inteligência por valores que podem chegar a milhões de dólares.
Segundo a empresa, muitas das falhas identificadas pelo Mythos eram “sutis e difíceis de detectar“, incluindo uma vulnerabilidade de 27 anos no sistema operacional OpenBSD, conhecido por seu alto nível de segurança.
O sistema também teria conseguido transformar vulnerabilidades conhecidas, mas ainda não corrigidas, em explorações práticas capazes de permitir a invasão de redes. Em um exemplo citado, o Mythos identificou e combinou diversas falhas no kernel do Linux, possibilitando que um invasor assumisse controle total de uma máquina.
A Anthropic afirmou ainda que usuários sem experiência técnica conseguiram solicitar ao sistema formas de assumir o controle remoto de computadores durante a noite e retornaram, no dia seguinte, com um exploit completo e funcional.
Ferramentas semelhantes também estão sendo desenvolvidas por outras empresas. A OpenAI trabalha no Codex Security, enquanto o Google desenvolveu o chamado “Big Sleep agent“.
Além disso, a OpenAI estaria finalizando um produto com capacidades avançadas de cibersegurança para parceiros selecionados. Pesquisadores da startup israelense Buzz afirmam ter criado uma ferramenta autônoma com taxa de sucesso de 98% na exploração de falhas conhecidas.
Medo é geral quando se trata da possibilidade de o Mythos facilitar o trabalho de hackers mundo afora – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
Segundo a Anthropic, os mecanismos de segurança do Mythos ainda estão em evolução. “Observamos que ele atingiu níveis de confiabilidade e alinhamento sem precedentes. No entanto, em raras ocasiões em que falha ou apresenta comportamento atípico, notamos que ele toma atitudes que consideramos bastante preocupantes“, afirmou a empresa.
Em um teste, um pesquisador incentivou uma versão inicial do sistema a escapar de um ambiente isolado e enviar uma mensagem externa. O Mythos conseguiu realizar a tarefa e, em seguida, executou ações adicionais consideradas preocupantes, desenvolvendo um exploit em múltiplas etapas para acessar a internet.
A empresa afirmou que não pretende disponibilizar amplamente o Mythos Preview devido ao potencial de uso indevido. Ainda assim, planeja no futuro permitir a utilização de modelos semelhantes em larga escala, desde que sejam desenvolvidas salvaguardas capazes de detectar e bloquear os usos mais perigosos.
Para vulnerabilidades consideradas mais graves, especialistas humanos ainda participam do processo, validando as descobertas antes de encaminhá-las aos responsáveis pelos sistemas afetados. Embora necessário, esse procedimento é demorado — algo que pode ser reduzido à medida que a tecnologia evolui.
Vantagem para defensores ou atacantes?
A Anthropic acredita que, no longo prazo, ferramentas como o Mythos favorecerão os defensores. No entanto, esse cenário pode levar tempo para se concretizar. Atualmente, menos de 1% das vulnerabilidades identificadas pelo sistema foram totalmente corrigidas.
Enquanto isso, hackers também utilizam IA para acelerar a exploração de falhas já divulgadas, reduzindo o tempo disponível para correções por parte das empresas.
Em publicação de 30 de março, o CEO da Palo Alto Networks, Nikesh Arora, alertou que a barreira para ataques sofisticados continuará diminuindo nos próximos meses. “Agora, um único agente malicioso poderá executar campanhas que antes exigiam equipes inteiras”, escreveu.
Yair Saban, CEO da Buzz e ex-integrante da unidade cibernética 8200 de Israel, afirmou que sua equipe levou apenas três semanas para desenvolver uma ferramenta de ataque baseada em IA, sugerindo que outros grupos podem fazer o mesmo.
Apesar dos riscos, a Anthropic sustenta que, no futuro, a tecnologia contribuirá para um ambiente digital mais seguro. “A longo prazo, esperamos que as capacidades de defesa dominem: que o mundo emerja mais seguro, com softwares mais robustos — em grande parte graças ao código escrito por esses modelos”, afirmou o grupo Frontier Red Team da empresa. “Mas o período de transição será difícil.”
Nesta quinta-feira (30), o principal órgão regulador de internet da China lançou uma campanha nacional para combater o mau uso da inteligência artificial no país. A iniciativa, proveniente da Administração do Ciberespaço da China (CAC), terá uma duração entre três e quatro meses, e deve ser dividida em duas fases.
Segundo o site ChinaDaily, o foco da mobilização é o combate a conteúdos nocivos e mentirosos (fake news), além de remover mídias de circulação ilegal e punir os responsáveis por sua veiculação digital.
A primeira fase da campanha concentra-se na detecção e remoção de conteúdos ilegais gerados por IA; a segunda se foca em repreender aqueles que usam deepfakes para se passarem por terceiros.
Para quem tem pressa:
A agência reguladora de internet da China, a CAC, lançou uma campanha nacional para punir os que utilizarem a inteligência artificial de maneira criminosa;
Nova medida visa proteger o país de fake news e a imagem sensível de crianças e até figuras históricas;
A mobilização pode dificultar atos ilegais digitais referentes a IA, como a geração de imagens sexuais e não consensuais sobre terceiros.
Como a China promete combater o mau uso da IA no país
Deepfakes são ameaças tanto para pessoas quanto para empresas – Imagem: Tero Vesalainen/Shutterstock
Além das informações supracitadas, vale a pena dizer que a ação da CAC ainda mobiliza as autoridades para averiguar falhas de segurança em diferentes aplicativos, a fim de prevenir ou consertar o “envenenamento de dados”, inconsistências nos registros de modelos de IA, e até mesmo a regulação inadequada de mídias geradas por esses softwares.
Todo e qualquer conteúdo considerado “violento e vulgar” ou que promova a desinformação, falsificação da identidade de terceiros, e veiculação de materiais que agridam a imagem de menores de idade também serão analisados e removidos.
As plataformas que permitirem a veiculação destas mídias — mesmo que tenha ocorrido por falhas de segurança —, serão punidas, assim como os usuários responsáveis por qualquer ato em desacordo com as novas regras.
Na fase inicial da ação, as autoridades do ciberespaço concentram-se em diferentes frentes de irregularidades envolvendo o uso de inteligência artificial. Entre os principais alvos estão provedores de serviços baseados em IA generativa que atendem ao público, mas que não concluíram os procedimentos obrigatórios de registro ou arquivamento exigidos pela regulamentação.
Também entram na lista indivíduos e organizações que utilizam IA para clonar ou manipular dados biométricos de terceiros — como voz e características faciais — sem consentimento.
Serão fiscalizados aqueles que ensinam técnicas para criação de vídeos deepfake ou para clonagem de voz com IA, bem como os que comercializam ferramentas ilegais, como sintetizadores de voz e softwares de troca de rosto. A repressão também se estende aos casos em que conteúdos gerados por inteligência artificial são divulgados sem a devida identificação para os usuários.
Além disso, as autoridades de ciberespaço em todo o país vão reforçar as ações contra o uso de IA para enganar estudantes e pacientes, ou para desestabilizar o mercado financeiro, segundo o comunicado.
Notícias falsas pipocando na tela de um celular (Imagem: Arkadiusz Warguła/iStock)
A segunda etapa da operação tem como foco a remoção de conteúdos ilegais e prejudiciais gerados por inteligência artificial, incluindo desinformação em áreas sensíveis como educação, justiça, saúde e finanças, além de material relacionado à pornografia, violência e conteúdos de horror.
Também serão alvo de medidas mais rigorosas os casos em que a tecnologia é usada para simular a identidade de especialistas, empresários ou celebridades com o objetivo de atrair atenção online ou aplicar golpes. Da mesma forma, a publicação de conteúdos gerados por IA que prejudiquem ou violem os direitos de pessoas falecidas, figuras públicas ou personagens históricos estará sujeita à repressão.
A administração reforçou ainda o apelo aos órgãos locais de ciberespaço para que reconheçam os riscos do uso indevido da inteligência artificial e intensifiquem a fiscalização das plataformas digitais, garantindo uma aplicação mais segura e responsável da tecnologia.
David Silver, o cientista por trás do AlphaGo, deixou o laboratório DeepMind, do Google, para fundar a Ineffable Intelligence. Sediada em Londres (Inglaterra), a startup levantou US$ 1,1 bilhão (R$ 5,5 bilhões) numa rodada de investimento inicial.
O aporte, considerado um recorde para o estágio “seed” na Europa, projeta a criação de um “superlearner“: sistema de inteligência artificial (IA) capaz de evoluir continuamente por conta própria, sem depender do treinamento baseado em dados gerados por humanos.
(Para quem não sabe: AlphaGo foi um programa de IA desenvolvido pelo laboratório DeepMind sob liderança de Silver. O software marcou a história da tecnologia ao derrotar, em 2016, o campeão mundial Lee Sedol no jogo de tabuleiro Go – um dos desafios mais complexos para a computação devido ao número quase infinito de jogadas possíveis.)
A proposta de Silver foca no aprendizado por reforço, técnica que permite à máquina aprender por tentativa e erro. E isso desafia a hegemonia dos atuais Grandes Modelos de Linguagem (LLMs).
Avaliada em US$ 5,1 bilhões (R$ 25 bilhões), a empresa já nasce com o status de “pentacorn“, atraindo a atenção de gigantes como Nvidia, Microsoft, além do fundo soberano britânico Sovereign AI.
Ineffable Intelligence usa aprendizado por reforço para superar limites da geração de dados por humanos
A estratégia da Ineffable Intelligence baseia-se na crítica de que a indústria de IA pode estar seguindo o caminho errado ao depender excessivamente de textos e imagens da internet.
Silver usa uma metáfora didática para explicar sua visão: para ele, os dados humanos são como “combustível fóssil” que serviu como atalho inicial, mas que possui limites claros.
Em contrapartida, sistemas que aprendem por conta própria funcionariam como “fonte renovável”, capaz de evoluir indefinidamente e fazer descobertas científicas além da capacidade humana atual.
Diferente do ChatGPT ou do Gemini, que “estudam” exemplos prontos, o “superlearner“ de Silver será treinado em simulações complexas.
David Silver conversou com Hannah Fry sobre limitação de dados gerados por humanos no podcast do Google DeepMind – Imagem: Google DeepMind/YouTube
Nesses ambientes controlados, agentes de IA podem interagir, colaborar e testar hipóteses em alta velocidade. Isso permite a evolução de habilidades que vão desde movimentos motores básicos até avanços intelectuais profundos.
A startup acredita que, se for bem-sucedida, essa abordagem representará um marco científico comparável às leis da vida estabelecidas por Charles Darwin.
O foco total no aprendizado por reforço é o que diferencia a startup de outros laboratórios que dedicam a maior parte de seus recursos aos modelos de linguagem.
Silver argumenta que é necessário um laboratório dedicado 100% a essa técnica para que a IA possa, de fato, criar formas de ciência, tecnologia ou até mesmo modelos de economia.
Essa visão é o que permite à empresa planejar aplicações em setores como a gestão de redes elétricas, robótica avançada e simulações científicas de alta precisão.
Métodos de Silver aumentaram em 30% a eficiência de data centers – Imagem: Junayed graphics/Shutterstock
Apesar de gerar entusiasmo, o projeto enfrenta desafios técnicos. Isso porque sistemas treinados puramente por reforço costumam ter dificuldades em operar no mundo real, que é imprevisível.
No entanto, a reputação de Silver, cujos métodos já economizaram milhões de libras na rede elétrica do Reino Unido e aumentaram em 30% a eficiência de data centers, serve como lastro para a viabilidade do projeto.
Agora, a Ineffable busca recrutar talentos para transformar essas teses acadêmicas em infraestrutura tecnológica funcional.
Um episódio envolvendo testes de segurança com inteligência artificial reacendeu preocupações sobre o potencial uso indevido da tecnologia em cenários de risco. Durante uma avaliação conduzida por especialistas, um chatbot foi capaz de sugerir estratégias detalhadas para a criação e disseminação de uma arma biológica.
O caso foi relatado pelo microbiologista David Relman, da Universidade Stanford, ao The New York Times. Ele participou de um programa de testes antes do lançamento público de um sistema de IA, que preferiu não revelar o nome devido a um acordo de confidencialidade com a empresa.
Segundo ele, a ferramenta não apenas respondeu a perguntas técnicas sobre patógenos, como também apresentou um plano completo de ataque. “[A IA] Respondia a perguntas que eu nem tinha pensado em fazer, com um nível de malícia e astúcia que me deixou arrepiado”, afirmou Relman, que já atuou como consultor do governo dos Estados Unidos em temas de biossegurança.
O pesquisador relatou que o chatbot descreveu como modificar um patógeno conhecido para torná-lo resistente a tratamentos, além de sugerir formas de disseminação e de como explorar vulnerabilidades em sistemas urbanos para maximizar danos e reduzir a chance de detecção.
A companhia que o contratou implementou correções após o teste, que Relman considerou insuficientes.
O cientista faz parte de um grupo restrito de especialistas que avaliam riscos extremos associados a modelos de IA. Nos últimos meses, outros pesquisadores também relataram interações preocupantes com diferentes sistemas, incluindo modelos disponíveis ao público.
Em testes conduzidos por Kevin Esvelt, do Instituto de Tecnologia de Massachusetts (MIT), assistentes virtuais chegaram a explicar como adquirir material genético, transformá-lo em uma arma biológica e distribuí-la em ambientes urbanos.
Em um dos casos, o ChatGPT descreveu o uso de balões meteorológicos para dispersão de substâncias;
O Gemini, do Google, classificou patógenos com base em seu potencial de impacto econômico;
Já o Claude, da Anthropic, foi capaz de sugerir a criação de uma toxina a partir de compostos farmacêuticos.
Outro pesquisador que falou ao NYT, mas em anonimato, relatou ter recebido um guia com cerca de 8 mil palavras detalhando etapas para reconstrução de um vírus responsável por uma pandemia. Segundo ele, o material tinha imprecisões, mas poderia facilitar o trabalho de alguém com conhecimento técnico.
Especialistas expressaram preocupação com a capacidade da IA de orientar a criação de armas biológicas – Imagem: alexkich/Shutterstock
Arma biológica pode estar distante… mas risco é real
Especialistas afirmam que o risco de ataques biológicos em larga escala ainda é considerado baixo, mas alertam que os avanços recentes ampliam o acesso a informações sensíveis. A combinação de dados científicos disponíveis online, venda de material genético e o suporte de ferramentas automatizadas pode facilitar a vida de indivíduos mal-intencionados.
O próprio CEO da Anthropic, Dario Amodei, já expressou preocupações nesse sentido: “a biologia é, de longe, a área que mais me preocupa, devido ao seu enorme potencial de destruição e à dificuldade de defesa contra ela”.
Apesar dos alertas, empresas do setor defendem que seus sistemas passam por constante aprimoramento. OpenAI, Google e Anthropic afirmam que vêm reforçando mecanismos de segurança e que as respostas analisadas não seriam suficientes, por si só, para viabilizar ataques no mundo real.
Ainda assim, falhas persistem. Técnicas conhecidas como “jailbreaking” permitem contornar restrições impostas pelos sistemas, e versões antigas de modelos continuam acessíveis, muitas vezes com menos barreiras de segurança.
Mesmo com limitações práticas – já que a criação de uma arma biológica exige experiência avançada – especialistas chamam atenção para o risco de uso por profissionais qualificados. “Um dos principais problemas enfrentados por atores experientes não é necessariamente criar o vírus, mas transformá-lo em uma arma”, disse o virologista Jens Kuhn ao NYT.
Ao mesmo tempo, pesquisadores ressaltam que a tecnologia também tem potencial positivo, especialmente na medicina. Sistemas de IA já são usados para acelerar descobertas científicas, incluindo o desenvolvimento de novos medicamentos e a análise de proteínas.
A OpenAI está se preparando para lançar um novo modelo de inteligência artificial focado em cibersegurança, batizado de GPT-5.5-Cyber. Segundo o CEO Sam Altman em publicação no X, o lançamento deve ocorrer “nos próximos dias”.
Ao contrário de outros sistemas da desenvolvedora, a ferramenta não será liberada ao público geral no primeiro momento. O acesso ficará restrito a um grupo seleto de especialistas e instituições consideradas confiáveis, com o objetivo de fortalecer defesas digitais.
“Trabalharemos com todo o ecossistema e com o governo para definir um acesso confiável para a área cibernética”, escreveu Altman no X.
we’re starting rollout of GPT-5.5-Cyber, a frontier cybersecurity model, to critical cyber defenders in the next few days.
we will work with the entire ecosystem and the government to figure out trusted access for cyber; we want to rapidly help secure companies/infrastructure.
A OpenAI não deu detalhes sobre as especificações ou funcionalidades do GPT-5.5-Cyber, nem quais organizações ou profissionais terão acesso nesta fase inicial. Em iniciativas anteriores, a empresa adotou critérios de verificação para liberar ferramentas semelhantes a especialistas e entidades específicas.
O nome indica que o modelo será uma versão especializada do GPT-5.5, lançado há apenas uma semana (o Olhar Digital deu os detalhes aqui). Ele é descrito pela desenvolvedora como seu “modelo mais inteligente e intuitivo de usar até o momento”.
O GPT-5.5-Cyber será focado em cibersegurança. Na publicação do X, Altman acrescentou que “queremos ajudar rapidamente a proteger empresas/infraestruturas”.
GPT-5.5-Cyber está previsto para ser lançado nos próximos dias, segundo o CEO da OpenAI – Imagem: Primakov/Shutterstock
OpenAI mantém preocupação com cibersegurança
A estratégia de lançamento controlado reflete uma tendência crescente no setor de inteligência artificial. Empresas têm optado por limitar o acesso a modelos mais avançados devido ao potencial de uso indevido, especialmente em áreas sensíveis como cibersegurança.
A própria OpenAI já adotou abordagens semelhantes no passado, tanto com acesso gradual quanto com modelos especializados. Um deles foi o lançamento do GPT-Rosalind, ferramenta específica para áreas científicas, voltado à pesquisa em biologia e descoberta de medicamentos.
O anúncio do GPT-5.5-Cyber por parte de Sam Altman vem após a chegada do Claude Mythos, IA da Anthropic focada em cibersegurança avançada. O modelo rival, no entanto, enfrentou dificuldades no processo de implementação, incluindo quem poderia ter acesso à tecnologia.
O avanço desses sistemas especializados também tem chamado a atenção de governos. Nos Estados Unidos, autoridades demonstraram interesse em tecnologias do tipo, ao mesmo tempo em que levantam preocupações sobre riscos de segurança e impacto no acesso institucional às essas ferramentas.
Um relatório da ONU Mulheres, publicado nesta quinta-feira (30),aponta que a violência online e o uso de deepfakes estão afastando mulheres de cargos públicos e da vida política.
O documento destaca que ataques coordenados buscam silenciar vozes femininas e minar a credibilidade profissional de jornalistas, ativistas e defensoras de direitos humanos mundo afora.
A pesquisa detalha um cenário de “estupro virtual” e assédio facilitado por inteligência artificial (IA) que resulta em graves danos à saúde mental e retrocessos em direitos conquistados.
IA acelera o silenciamento e agrava a crise de impunidade digital, segundo a ONU
A sofisticação técnica das agressões impressiona pela velocidade: atualmente, ferramentas de IA permitem sobrepor rostos em vídeos pornográficos ou fabricar imagens íntimas em poucos minutos.
Segundo o relatório:
27% das entrevistadas sofreram assédio via mensagens;
12% tiveram fotos íntimas compartilhadas sem consentimento;
6% foram alvo de deepfakes.
O objetivo desses ataques é minar a credibilidade profissional e a saúde mental das vítimas.
Os danos extrapolam o ambiente virtual e atingem a saúde clínica das mulheres de forma severa. O estudo aponta que 24% das vítimas desenvolveram quadros de ansiedade ou depressão decorrentes da violência sofrida no ambiente digital.
Mais grave ainda é o índice de 13% das entrevistadas diagnosticadas com Transtorno de Estresse Pós-Traumático (TEPT), o que demonstra que o impacto de um ataque online é comparável a traumas físicos graves.
Muitas participantes da pesquisa disseram ter passado a se autocensurar nas redes sociais por receio de serem vítimas de violência online – Imagem: mikoto.raw Photographer/Pexels
Esse cenário gera um “efeito de resfriamento” na democracia, forçando as mulheres a recuarem para se protegerem.
As estatísticas mostram que 41% das participantes passaram a se autocensurar nas redes sociais e 19% reduziram sua atuação profissional para evitar novos abusos.
A pesquisadora Lea Hellmueller destaca que, muitas vezes, as próprias autoridades orientam as vítimas a abandonarem seus cargos ou redes sociais. Ou seja, terceirizam para a mulher a responsabilidade pela sua própria proteção.
Para Julie Posetti, coordenadora da pesquisa, o fenômeno do “estupro virtual” é facilitado por tecnologias que, por design, priorizam o lucro ao amplificar discursos de ódio.
Ela argumenta que essa violência não é aleatória, mas uma ferramenta política usada em contextos de retrocesso democrático para remover vozes femininas de espaços de decisão.
O relatório também sugere que a facilidade de acesso a essas ferramentas de IA colocou o poder de destruição de reputações literalmente “na ponta dos dedos” de qualquer agressor.
Apesar da gravidade, o sistema de justiça ainda falha em oferecer respostas concretas. Embora um quarto das mulheres tenha levado os casos à polícia, apenas 15% dessas denúncias resultaram em qualquer ação legal.
A coautora Pauline Renaud enfatiza que, além de treinar juízes e policiais para que parem de culpar as vítimas, é urgente que haja vontade política para regular as big techs.
Nesta quarta-feira (29), a Uber emitiu um comunicado à imprensa informando sua entrada formal no ramo hoteleiro graças a uma parceria com a empresa de viagens Expedia Group. Agora, usuários dos EUA podem reservar quartos de hotel diretamente pelo aplicativo de transporte.
Segundo a apuração do TechCrunch, só foi possível criar essa integração tão rápida entre a Uber e o ramo de hotelaria devido à inteligência artificial, que atuou como uma programadora para desenvolver a arquitetura de software.
Para quem tem pressa:
O aplicativo de transporte Uber agora possibilita, aos usuários dos EUA, a reserva de quartos de hotel;
A reserva pode ser feita em mais de 700 mil hotéis;
O desenvolvimento da arquitetura de software, a qual permitiu essa integração da Uber com a empresa Expedia Group, ocorreu graças à programação de uma inteligência artificial.
Uber agora também se encontra no ramo hoteleiro
Quarto de hotel (Reprodução: DALL-E/ChatGPT) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
O aplicativo de transporte mais famoso do mundo, Uber, agora permite que usuários dos Estados Unidos reservem quartos de hotel diretamente pelo app. Essa realidade é possível graças a uma parceria entre Uber e a Expedia Group, uma empresa que atua há anos no ramo de viagens e hotelaria.
A novidade foi anunciada durante o evento anual da empresa, o GO-GET, onde foi apresentada uma série de novos produtos e reforçou sua estratégia de integrar diferentes aspectos da vida cotidiana em uma única plataforma.
O diretor de tecnologia da Uber, Praveen Neppalli Naga, contou ao TechCrunch que o desenvolvimento da arquitetura de software necessária para fazer essa integração entre as duas empresas, normalmente, levaria até um ano. Contudo, a equipe resolveu utilizar uma inteligência artificial avançada para fazer o trabalho pesado.
Com a programação agora automatizada, a integração dos softwares de ambas as empresas e a adição de recursos com IA ficaram prontas em menos de um ano, o que economizou vários meses na agenda das companhias.
Embora o serviço esteja disponível apenas nos Estados Unidos, os quartos de hotel não se limitam a este território. Isso porque os clientes têm um extenso portfólio de mais de 700 mil hotéis por todo o mundo para realizar uma reserva.
Além disso, a parceria deve ser expandida para outros países no futuro, e haverá integração direta com o aplicativo da Expedia, permitindo que usuários também reservem corridas da Uber ao planejar suas viagens.
Fachada de um prédio da Uber (Imagem: JHVEPhoto / Shutterstock.com)
Assinantes do plano Uber One terão 20% de desconto na reserva de um quarto de hotel de uma lista seleta com 10 mil hotéis e ainda receberão 10% de cashback em créditos Uber para cada reserva realizada.
Outra novidade é que os usuários podem realizar a reserva de forma tradicional (dedos clicando na tela) ou via comandos de voz por inteligência artificial. Também, há o lançamento do “modo viagem”, o qual funciona como um guia para pontos turísticos e estabelecimentos locais.
Esse modo inclui recomendações personalizadas, reservas em restaurantes via integração com plataformas como OpenTable e até funcionalidades semelhantes a “serviço de quarto”, com entregas diretamente no hotel.
Não há informação de quando a Uber permitirá que usuários de outros países tenham acesso a um sistema de reserva de hotéis como o de agora. Ainda assim, a empresa já indicou que pretende ampliar gradualmente essas funcionalidades, alinhando-se ao objetivo de se tornar um “aplicativo para tudo”, reunindo mobilidade, entregas e viagens em um só lugar.
A Anthropic anunciou, na terça-feira (28), o lançamento de um conjunto de conectores que permitem ao Claude integrar-se a softwares da indústria criativa bem conhecidos, como Photoshop, Blender e Ableton.
A nova funcionalidade permite que o Claude acesse plataformas, recupere dados e execute ações como manipular imagens na Creative Cloud da Adobe ou buscar samples no catálogo da Splice.
O objetivo da Anthropic é transformar o chatbot num assistente que atua no fluxo de trabalho dos profissionais, auxiliando na automação de tarefas repetitivas e na expansão de habilidades técnicas.
Claude criativo: conectividade profunda e apoio ao ecossistema de código aberto
A integração com o Blender é um dos destaques. Isso porque oferece uma interface de linguagem natural para a API Python do programa de modelagem 3D.
Com isso, artistas podem usar o Claude para encontrar erros em cenas complexas ou criar scripts que aplicam mudanças em diversos objetos simultaneamente por meio de uma conversa.
Como o conector utiliza o padrão MCP (Model Context Protocol), ele é aberto e pode ser aproveitado por outros modelos de inteligência artificial (IA).
Anthropic reforçou que o objetivo da integração do Claude é transferir para a IA o “trabalho braçal” e repetitivo do processo criativo – Imagem: Divulgação/Anthropic
Além do avanço técnico, a Anthropic tornou-se Patrona Corporativa do Fundo de Desenvolvimento do Blender. A empresa se comprometeu a doar pelo menos cerca de US$ 281 mil (aproximadamente R$ 1,3 milhão) anualmente para apoiar a fundação.
Esse investimento ajuda a garantir que o software permaneça gratuito, independente e focado em ferramentas para artistas.
Outros softwares também receberam funcionalidades:
Autodesk Fusion: usuários agora podem criar e modificar modelos 3D ao descrevê-los para a IA;
Affinity by Canva: Claude assume o “trabalho braçal”, como renomear camadas e ajustar imagens em lote.
Ableton: integração transforma o chatbot num tutor que tira dúvidas com base nos manuais oficiais do software.
A estratégia de expansão também inclui parcerias com instituições de ensino como a Rhode Island School of Design e a Goldsmiths, no Reino Unido.
Estudantes e professores desses cursos de artes computacionais terão acesso aos conectores para testar as ferramentas em situações reais de aprendizado.
A Anthropic reforçou que a IA não tem como objetivo substituir talento, repertório ou imaginação humana. A ideia é que a tecnologia assuma o trabalho manual e repetitivo.
Ao eliminar esse “ruído” operacional, o profissional ganha liberdade para tocar projetos em escalas maiores e com ideias mais ambiciosas, diz a empresa.