A OpenAI prepara a integração doSora, seu gerador de vídeos por inteligência artificial, ao ChatGPT. A informação foi divulgada na terça-feira (10) pelo site The Information, citando fontes familiarizadas com a empresa que falaram em anonimato.
Caso a mudança se confirme, a ferramenta de criação de vídeos passaria a estar disponível diretamente dentro do chatbot, ampliando o uso da tecnologia multimodal da OpenAI. O recurso é capaz de trabalhar com diferentes tipos de conteúdo, como texto, imagem e vídeo.
O Sora foi lançado inicialmente como um aplicativo independente em setembro de 2025, permitindo que usuários criem vídeos gerados por IA a partir de comandos de texto. A plataforma também oferece recursos para compartilhar os conteúdos em um ambiente com características semelhantes às de uma rede social. O Olhar Digital deu os detalhes aqui.
Segundo o The Information, mesmo com a possível integração ao ChatGPT, o aplicativo próprio do Sora continuará funcionando de forma separada.
Aplicativo próprio do Sora continuará funcionando (Imagem: Tada Images/Shutterstock)
Sora e a rivalidade entre geradores de vídeo de IA
A movimentação ocorre em um momento em que ferramentas de geração de vídeo por IA se tornaram o centro da corrida entre desenvolvedoras e big techs. A OpenAI disputa esse segmento com recursos semelhantes de empresas como Meta e Google, que também desenvolvem sistemas capazes de transformar textos em vídeos.
Enquanto os modelos textuais já se tornaram comuns no dia a dia dos usuários, ferramentas capazes de produzir imagens e vídeos são vistas como a próxima etapa na evolução da IA.
A OpenAI anunciou, nesta segunda-feira (9), a aquisição da Promptfoo. Fundada em 2024, a Promptfoo é uma startup especializada em segurança de inteligência artificial (IA), com o objetivo principal de defender Grandes Modelos de Linguagem (LLMs, na sigla em inglês) contra diversas ameaças online.
De acordo com um comunicado divulgado pela OpenAI, a tecnologia da Promptfoo será integrada à plataforma empresarial da empresa, conhecida como OpenAI Frontier.
Essa integração ocorrerá após a conclusão do processo de aquisição, marcando um passo importante para a segurança e a confiabilidade dos agentes de IA.
Aumento da produtividade e novos desafios na OpenAI
O desenvolvimento de agentes de IA autônomos, capazes de executar tarefas digitais de forma independente, tem gerado grandes expectativas em relação à melhoria da produtividade;
Paralelamente a esse entusiasmo, surge também a preocupação com os riscos potenciais;
Agentes de IA mal-intencionados podem se tornar vetores para acessar dados sensíveis ou manipular sistemas automatizados;
Nesse contexto, a movimentação da OpenAI, ao adquirir a Promptfoo, sublinha a urgência e a dedicação das empresas de ponta em IA para demonstrar a segurança e a aplicabilidade de suas tecnologias em operações empresariais estratégicas.
Promptfoo vai fazer parte da OpenAI Frontier (Imagem: Reprodução/Promptfoo)
Trajetória da Promptfoo
A Promptfoo foi criada por Ian Webster e Michael D’Angelo. O propósito inicial da startup era desenvolver ferramentas que as empresas pudessem utilizar para testar vulnerabilidades de segurança em LLMs. Entre as soluções desenvolvidas pela Promptfoo, destacam-se uma interface e uma biblioteca de código aberto.
A empresa tem demonstrado crescimento significativo, com seus produtos sendo utilizados por mais de 25% das empresas listadas na Fortune 500. Isso indica a relevância e a demanda por soluções robustas de segurança no cenário atual da IA.
Desde sua fundação, a Promptfoo conseguiu arrecadar um total de US$ 23 milhões (R$ 119,7 milhões) em financiamento.
Em julho de 2025, a empresa foi avaliada em US$ 86 milhões (R$ 447,7 milhões), segundo dados da Pitchbook, após sua rodada de investimento mais recente. Por sua vez, a OpenAI optou por não divulgar o valor da transação de aquisição.
A OpenAI informou em sua publicação que a tecnologia da Promptfoo permitirá à sua plataforma de agentes realizar red-teaming (testes de intrusão) automatizado, processo crucial para identificar e mitigar falhas de segurança.
Além disso, a tecnologia será essencial para avaliar os fluxos de trabalho dos agentes em relação a questões de segurança e para monitorar as atividades para garantir a conformidade e gerenciar riscos.
A empresa também expressou a intenção de continuar expandindo a oferta de código aberto da Promptfoo, reforçando o compromisso com a comunidade e a inovação contínua no campo da segurança de IA.
A disputa entre duas das empresas mais influentes do setor de inteligência artificial (IA) — OpenAI e Anthropic — vem ganhando contornos cada vez mais pessoais e públicos, envolvendo seus líderes, Sam Altman e Dario Amodei, e levantando questionamentos sobre como a tecnologia será desenvolvida e utilizada nos próximos anos.
O episódio mais recente dessa rivalidade surgiu em meio a negociações com o Pentágono e expôs diferenças profundas entre as empresas sobre segurança, regulação e o uso militar da IA.
Rivalidade visível até em eventos públicos
A tensão entre Altman e Amodei chegou a se manifestar em um encontro recente com líderes de tecnologia na Índia;
Durante uma foto oficial com o primeiro-ministro do país, outros executivos deram as mãos em sinal de união — mas os dois rivais evitaram qualquer contato físico, limitando-se a um constrangido toque de cotovelos;
Para muitos observadores, a cena simbolizou a rivalidade crescente entre duas companhias que disputam usuários, talentos e investidores, especialmente em um momento em que ambas avaliam abrir capital ainda este ano;
Conflitos entre gigantes da tecnologia não são novidade no Vale do Silício. A história do setor inclui disputas, como Steve Jobs contra Bill Gates, Apple contra Samsung e Uber contra Lyft. Há ainda confrontos frequentes envolvendo Elon Musk e figuras, como Jeff Bezos e Mark Zuckerberg;
Embora rivalidades desse tipo muitas vezes estimulem inovação e concorrência, analistas alertam que a disputa entre OpenAI e Anthropic envolve um risco adicional: ambas concentram enorme influência sobre uma tecnologia ainda emergente, cujo impacto potencial é global.
Anthropic: origem da divisão da OpenAI
A Anthropic nasceu em 2021 justamente a partir de preocupações sobre segurança no desenvolvimento da IA. Amodei, então vice-presidente de pesquisa da OpenAI, deixou a empresa após questionar a rapidez com que a tecnologia estava sendo comercializada.
Ele levou consigo vários pesquisadores para fundar a nova companhia, estruturada como uma organização com fins lucrativos que afirma seguir padrões específicos de impacto social e responsabilidade.
As diferenças de visão entre os líderes são frequentemente apontadas como um dos motores da rivalidade. Altman é visto como um negociador agressivo, disposto a fechar grandes acordos para acelerar o crescimento da OpenAI. Já Amodei adota uma postura mais cautelosa e frequentemente alerta para riscos da tecnologia, como possíveis perdas massivas de empregos — comparáveis às da Grande Depressão.
Dario Amodei já criticou Sam Altman e a OpenAI em memorando interno (Imagem: Thrive Studios ID/Shutterstock)
Crescimento acelerado da Anthropic
Durante anos, a OpenAI parecia ter uma vantagem confortável na corrida para levar a IA ao grande público. A empresa criou o aplicativo de consumo com crescimento mais rápido da história da tecnologia, acumulou mais de US$ 100 bilhões (R$ 524,4 bilhões) em caixa e firmou parcerias com grandes empresas de computação.
Nos últimos meses, porém, o cenário começou a mudar. A Anthropic conquistou milhares de grandes empresas como clientes e mais que dobrou sua previsão de receita anual, passando de US$ 9 bilhões (R$ 47,2 bilhões) para US$ 19 bilhões (R$ 99,6 bilhões). Em alguns círculos da indústria, sua tecnologia também passou a ser considerada a mais avançada entre as concorrentes.
Segundo o investidor de capital de risco Siri Srinivas, mudanças de narrativa no setor estão acontecendo cada vez mais rápido. “Levava anos para surgir uma história sobre uma empresa. Agora, as narrativas mudam em meses”, disse ao The New York Times.
A corrida pelo domínio da IA também inclui planos de abertura de capital. De acordo com pessoas familiarizadas com o assunto que conversaram com o The Wall Street Journal, a Anthropic pretende realizar seu IPO antes da OpenAI, o que poderia dar à empresa uma vantagem inicial com investidores.
Situação semelhante ocorreu em 2019, quando a Lyft buscou abrir capital antes da Uber em meio à disputa entre as duas companhias de transporte por aplicativo.
A rivalidade atingiu um novo patamar quando a Anthropic entrou em choque com o Departamento de Defesa dos Estados Unidos.
Durante negociações para contratos governamentais, a empresa tentou incluir cláusulas que impediriam o uso de sua IA em sistemas de armas autônomas e em vigilância doméstica em larga escala. Autoridades do Pentágono reagiram negativamente. Segundo o chefe de tecnologia do departamento, Emil Michael, cabe ao governo decidir como o Exército utiliza tecnologia. “Tem que ser nossa escolha”, afirmou.
Após Amodei se recusar a retirar essas condições, o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um “risco na cadeia de suprimentos”, o que impede o uso de sua tecnologia em contratos de defesa.
Poucas horas depois de as negociações entre Anthropic e o Pentágono fracassarem, Altman anunciou que a OpenAI havia fechado seu próprio acordo com o Departamento de Defesa. A decisão provocou forte reação pública. Funcionários de tecnologia e usuários elogiaram a Anthropic por manter sua posição contra o uso da IA em vigilância e armamentos autônomos.
Manifestantes também se reuniram diante da sede da OpenAI, escrevendo mensagens como “Sem armas de IA” e “Quais são suas linhas vermelhas?” na calçada. Nas redes sociais, a hashtag “#FireSamAltman” (demita Sam Altman, em tradução livre) chegou a se tornar tendência.
Em contraste, apoiadores deixaram mensagens encorajadoras na sede da Anthropic, incluindo frases como “DEUS AMA A ANTHROPIC” e “VOCÊS NOS ENCORAJAM”.
Memorando interno da Anthropic e troca de acusações
Em um memorando interno divulgado posteriormente, Amodei criticou duramente a OpenAI e acusou a empresa de agir de forma enganosa. “Quero ser muito claro sobre as mensagens que estão vindo da OpenAI e a natureza mentirosa disso. Este é um exemplo de quem eles realmente são”, escreveu.
Ele também afirmou que a Anthropic perdeu o contrato porque se recusou a oferecer “elogios ao estilo de ditadores” ao governo de Donald Trump, algo que alegou que Altman estaria disposto a fazer. Após a repercussão pública do documento, Amodei pediu desculpas pelo tom da mensagem e afirmou que seu pensamento havia evoluído.
Altman também criticou indiretamente o rival ao comentar o papel do governo no setor. “O governo deve ser mais poderoso do que empresas privadas”, disse, durante conferência do banco Morgan Stanley.
A disputa também ganhou contornos políticos. O deputado democrata Ro Khanna elogiou a decisão da Anthropic de não ceder às exigências do Pentágono. Ao mesmo tempo, o presidente Trump criticou duramente a empresa. “Bem, eu demiti a Anthropic”, disse ele em entrevista ao Politico. “A Anthropic está em apuros”, acrescentou, afirmando que a empresa foi dispensada “como cães”.
Altman fez críticas indiretas à rival (Imagem: alprodhk/Shutterstock)
Popularidade e números do mercado
Apesar das controvérsias, as duas empresas continuam crescendo rapidamente. A OpenAI informou recentemente que seus produtos são usados por mais de 900 milhões de pessoas, mais que dobrando sua base de clientes em um ano. Mais de nove milhões de empresas pagam para usar o ChatGPT em atividades profissionais e a receita da companhia pode ultrapassar US$ 25 bilhões (R$ 131,1 bilhões) neste ano.
Já o Claude, chatbot da Anthropic, alcançou o primeiro lugar entre os downloads da Apple App Store em 16 países. Mais de um milhão de pessoas passaram a baixar o aplicativo diariamente — entre elas, a cantora Katy Perry.
Rivalidade que pode influenciar futuro da IA
Apesar dos conflitos, Altman e Amodei frequentemente expressam visões semelhantes sobre a velocidade com que a IA está evoluindo e sobre seu potencial transformador. Ambos concordam que a tecnologia terá impacto profundo na sociedade — inclusive na economia e no mercado de trabalho.
A divergência central está em como chegar lá: avançar rapidamente para dominar o mercado ou priorizar limites e regras de segurança. Com as duas empresas sediadas a poucos quilômetros de distância em São Francisco (EUA), a rivalidade entre seus líderes tornou-se um dos principais motores — e também uma das maiores tensões — da corrida global pela liderança em IA. E, pelo tom das recentes trocas de acusações, dificilmente os dois executivos estarão de mãos dadas tão cedo.
A OpenAI anunciou nesta sexta-feira (6) o lançamento do Codex Security, um agente de inteligência artificial projetado para transformar a segurança de aplicações. O objetivo central da ferramenta é resolver uma das maiores “dores” dos desenvolvedores: o excesso de alarmes falsos (falsos positivos) que sobrecarregam as equipes de segurança e atrasam o lançamento de softwares.
Diferente de ferramentas tradicionais, o Codex Security não apenas aponta vulnerabilidades, mas cria um modelo de ameaça específico para cada projeto, sendo capaz de sugerir e aplicar correções automáticas que mantêm a integridade do sistema.
We’re introducing Codex Security.
An application security agent that helps you secure your codebase by finding vulnerabilities, validating them, and proposing fixes you can review and patch.
Now, teams can focus on the vulnerabilities that matter and ship code faster.… pic.twitter.com/t45Wkm7Rda
O que muda com o Codex Security e como ele funciona?
A grande inovação do Codex Security é o uso de raciocínio agêntico, alimentado pelos modelos de fronteira da OpenAI (incluindo o GPT-5, conforme apontado pela Bloomberg). Enquanto ferramentas legadas costumam disparar alertas para qualquer linha de código suspeita, o novo agente valida as falhas em ambientes isolados (os chamados sandboxes) para garantir que o problema é real antes de notificar o usuário.
De acordo com o comunicado oficial da OpenAI, a ferramenta já demonstrou resultados impressionantes durante sua fase beta (quando ainda era chamada de Aardvark):
Redução de 84% no “ruído” (alertas irrelevantes) em repositórios testados.
Queda de 50% na taxa de falsos positivos.
Identificação de falhas críticas em projetos de peso, como OpenSSH, PHP e Chromium.
Para entender o salto geracional, veja como o novo agente da OpenAI se compara às soluções convencionais do mercado:
Quem pode usar e como acessar?
A OpenAI informou que o Codex Security está sendo liberado em Research Preview a partir de hoje. O acesso será gradual ao longo dos próximos dias para os seguintes grupos:
Assinantes corporativos: usuários do ChatGPT Enterprise, Business e Education.
Desenvolvedores de código aberto: a empresa criou o programa “Codex for OSS”, oferecendo contas gratuitas e suporte para mantenedores de projetos open-source.
Custo: o uso será gratuito durante o primeiro mês para os clientes elegíveis.
Para quem já utiliza as versões empresariais da OpenAI, o recurso aparecerá diretamente na interface do Codex web. Segundo a Bloomberg, o lançamento coloca a OpenAI em competição direta com outras gigantes do setor, como a Anthropic, que lançou recentemente o Claude Code Security.
Recentemente, a OpenAI fez uma mudança na política de serviços do ChatGPT, permitindo que o usuário possa sincronizar seus contatos para ver quais também usam a inteligência artificial (IA).
Isso, segundo o Mobile Time, pode ser um movimento rumo à adoção de um serviço de mensageria no chatbot. Para fortificar o argumento, o portal ouviu uma fonte experiente do mercado de mensageria.
“Não tenho dúvida de que o ChatGPT vai entrar em mensageria. E é o movimento mais inteligente que Sam Altman poderia fazer”, comentou.
Como se não bastasse, outra tecnologia recente da OpenAI poderia reforçar a ideia: a possibilidade de convidar pessoas para participar de uma mesma sessão de conversa com o ChatGPT a partir de um link.
“É o movimento mais inteligente que Sam Altman poderia fazer”, comentou fonte (Imagem: FotoField/Shutterstock)
O portal avalia, ainda, que essa é uma tendência do mercado, com buscadores e apps de mensageria incorporando IA generativa e assistentes de IA lançando navegadores;
O próximo passo seria a incorporação de mensageiros pelos chatbots;
Tudo isso se baseia na audiência e na obtenção de maior receita;
Hoje, os principais concorrentes no Ocidente são Meta, Google e Microsoft.
OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora
A OpenAI anunciou nesta quinta-feira (5) o lançamento do GPT-5.4, atualização que traz avanços em raciocínio, programação e execução de tarefas profissionais. Segundo a empresa, o modelo é o “mais capaz e eficiente para trabalho profissional” até agora.
A nova versão do GPT também amplia as capacidades do sistema ao lidar com documentos, planilhas e apresentações. Além disso, é mais um passo em direção aos agentes de IA, que atuam em segundo plano para realizar atividades complexas sem necessidade de intervenção humana.
A OpenAI anunciou nesta quinta-feira (5) o lançamento do GPT-5.4, atualização que traz avanços em raciocínio, programação e execução de tarefas profissionais. Segundo a empresa, o modelo é o “mais capaz e eficiente para trabalho profissional” até agora.
A nova versão do GPT também amplia as capacidades do sistema ao lidar com documentos, planilhas e apresentações. Além disso, é mais um passo em direção aos agentes de IA, que atuam em segundo plano para realizar atividades complexas sem necessidade de intervenção humana.
Um dos exemplos disso é a possibilidade de interação diretamente com computadores. O modelo consegue escrever código para executar ações em aplicativos, além de enviar comandos de teclado e mouse com base em capturas de tela. A OpenAI afirma que o GPT-5.4 também apresenta melhorias no uso em navegadores e na integração com ferramentas e APIs externas.
GPT-5.4 Thinking and GPT-5.4 Pro are rolling out now in ChatGPT.
GPT-5.4 is also now available in the API and Codex.
GPT-5.4 brings our advances in reasoning, coding, and agentic workflows into one frontier model. pic.twitter.com/1hy6xXLAmJ
No campo técnico, o GPT-5.4 traz avanços em eficiência e confiabilidade:
Segundo a desenvolvedora, o modelo consegue resolver problemas usando menos tokens em comparação com versões anteriores. Na API, a ferramenta passa a suportar janelas de contexto de até 1 milhão de tokens, a maior já oferecida pela empresa;
O desempenho também foi destaque. O GPT-5.4 atingiu pontuações elevadas em avaliações internas voltadas para tarefas de uso de computador e trabalho intelectual;
Outra frente de melhoria foi na confiabilidade, especialmente na redução de alucinações e erros factuais. De acordo com a OpenAI, o modelo apresentou 33% menos probabilidade de produzir afirmações incorretas em comparação com o GPT-5.2, além de uma queda de 18% no índice geral de respostas com erros;
Para desenvolvedores, a OpenAI também introduziu mudanças na forma como o modelo acessa ferramentas externas. Um novo sistema chamado Busca de Ferramentas permite que o GPT-5.4 consulte definições de ferramentas apenas quando necessário, em vez de carregar todas as informações antecipadamente. A abordagem tende a reduzir o consumo de tokens e acelerar as respostas em ambientes pesados.
OpenAI descreve o GPT-5.4 como seu modelo mais “profissional” até agora (Imagem: OpenAI/Reprodução)
GPT-5.4 chega em mais de uma versão
O modelo chega em três versões. Além da configuração padrão, há uma edição voltada para raciocínio avançado, o GPT-5.4 Thinking, e outra otimizada para alto desempenho em tarefas complexas, o GPT-5.4 Pro.
Inclusive, a versão de raciocínio avançado foi destaque nos testes de segurança internos. Segundo a OpenAI, o GPT-5.4 Thinking apresenta menor probabilidade de ocultar ou distorcer seu processo de raciocínio durante tarefas complexas.
A atualização está sendo disponibilizada gradualmente no ChatGPT, no ambiente de programação Codex e na API da OpenAI. A versão GPT-5.4 Thinking chega inicialmente aos usuários dos planos Plus, Team e Pro, enquanto o GPT-5.4 Pro também será oferecido para clientes Enterprise e Edu.
Recentemente, o Canadá informou que o presidente-executivo da OpenAI, o empresário Sam Altman, prometeu aumentar os protocolos de segurança do ChatGPT. A mudança deve auxiliar os funcionários de Altman a contatarem a polícia canadense quando um residente do país executar atividades suspeitas via ChatGPT.
A promessa foi garantida em uma carta, redigida pela OpenAI e endereçada ao governo do Canadá.
O envio do documento decorre após um tiroteio que acometeu alunos e funcionários de uma escola na cidade de Tumbler Ridge, na província de British Columbia, no Canadá: a investigação da polícia concluiu que a atiradora tinha um histórico suspeito de conversas com o ChatGPT, teve sua conta encerrada na plataforma, mas a OpenAI nunca entrara em contato com a polícia canadense.
Para quem tem pressa:
A OpenAI entrou em contato com o governo do Canadá, por meio de uma carta, e disse estar comprometida a melhorar os protocolos de segurança de sua IA;
A atitude ocorre após a polêmica de a empresa saber de um histórico de conversa suspeito de um usuário canadense e não ter acionado a polícia;
Meses depois, esse mesmo usuário abriu fogo contra a própria família, estudantes e funcionários de sua cidade.
OpenAI e a promessa de mudar os protocolos de segurança no Canadá
Evan Solomon é um ministro canadense que, dentre vários assuntos, cuida dos interesses do país referente a utilização e segurança de plataformas de inteligência artificial (Crédito das imagens, respectivamente: Centro Nacional de Artes do Canadá e DANIEL CONSTANTE)
Após o contato de Sam Altman com o governo canadense, o Ministro da Inteligência Artificial, Evan Solomon, solicitou que os novos protocolos de segurança fossem adicionados não só agora, mas que a equipe da OpenAI revisasse o histórico passado de conversas dos usuários e contatassem a polícia se identificassem mais suspeitos.
Na quarta-feira (04), o ministro teve uma reunião virtual com Altman pela tarde; à noite, emitiu à mídia um comunicado que resumia os assuntos tratados no encontro com o CEO.
“Pedi à OpenAI que tomasse várias medidas, o que Altman concordou em fazer”, disse Solomon. A declaração ainda informa que a OpenAI se comprometeu a avaliar “como eles incluiriam especialistas canadenses em privacidade, saúde mental e aplicação da lei no processo para identificar e revisar casos de alto risco envolvendo usuários canadenses”.
Sam Altman, CEO da OpenAI (Imagem: FotoField/Shutterstock)
Ademais, o ministro informou que a OpenAI está comprometida em emitir relatórios que expliquem como os novos protocolos serão desenvolvidos e de que maneira vão identificar infratores reincidentes ou de alto risco.
A empresa também promete cooperar com a investigação das autoridades que ocorre na Colúmbia Britânica, onde Jesse Van Rootselaar, de 18 anos, abriu fogo contra várias pessoas na cidade de Tumbler Ridge meses depois de conversas suspeitas com o ChatGPT.
No episódio violento, 9 pessoas foram mortas (incluindo a autora dos disparos) e outras 27 ficaram feridas.
A decisão da OpenAI de fechar uma parceria com o Departamento de Guerra (antigo Departamento de Defesa) dos Estados Unidos não caiu bem entre os usuários. As desinstalações do aplicativo do ChatGPT aumentaram em 295% no sábado (28 de fevereiro) em relação ao dia anterior.
Os dados são da empresa de inteligência de mercado Sensor Tower, divulgados pelo TechCrunch. O salto nesse número contrasta com a média diária registrada nos 30 dias anteriores, quando a mesma taxa ficava em torno de 9%.
E não foram apenas as desinstalações que afetaram o ChatGPT. Na sexta-feira (27), antes da divulgação do acordo da OpenAI com o Pentágono, a taxa de downloads havia crescido 14%. No sábado, depois do acordo, caiu 13% em relação ao dia anterior. No domingo, caiu mais 5%.
As quedas vieram após a OpenAI firmar um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Departamento de Guerra para fornecer IA voltada à vigilância militar. Antes disso, a Anthropic tinha um acordo com o Pentágono para a mesma finalidade, mas se recusou a flexibilizar suas regras de segurança para permitir o uso do Claude em operações militares perigosas. A rival desfez a parceria com o governo e a OpenAI entrou no lugar.
Mesmo com a perda do contrato federal, a Anthropic experienciou o efeito inverso: enquanto o ChatGPT caiu, o Claude cresceu em downloads.
Comparação nos downloads dos aplicativos ChatGPT (OpenAI) e Claude (Anthropic) [Imagem: Appfigures)
ChatGPT caindo, Claude crescendo
Após a recusa da Anthropic em ceder o Claude para aplicações militares perigosas, os downloads do aplicativo nos Estados Unidos subiram 37% na sexta-feira e 51% no sábado, de acordo com a Sensor Tower.
Os números sugerem que, aparentemente, parte dos consumidores aprovou a postura adotada pela desenvolvedora.
A repercussão também se refletiu no desempenho do aplicativo nas lojas digitais. No sábado, o Claude alcançou o primeiro lugar em downloads na App Store dos EUA – e continuou assim até segunda-feira (2). Para se ter uma ideia, uma semana antes, o app estava 20 posições abaixo no ranking.
Além da Sensor Tower, outras empresas de monitoramento de mercado registraram tendências semelhantes:
A Appfigures apontou que, pela primeira vez, o total de downloads diários do Claude nos EUA superou o do ChatGPT;
Segundo as estimativas, o crescimento do app no sábado foi ainda mais expressivo, chegando a 88% em comparação com o dia anterior;
O avanço não ficou restrito ao mercado americano. A Appfigures informou que o Claude passou a ocupar o topo da categoria de aplicativos gratuitos para iPhone em seis países fora dos EUA: Bélgica, Canadá, Alemanha, Luxemburgo, Noruega e Suíça;
Já a Similarweb estimou que, na última semana, os downloads do Claude nos EUA foram cerca de 20 vezes maiores do que os registrados em janeiro. A empresa destacou que o aumento pode estar associado a múltiplos fatores, e não exclusivamente à controvérsia envolvendo o Pentágono.
A reação também apareceu nas avaliações do ChatGPT. De acordo com a Sensor Tower, as avaliações de uma estrela para o aplicativo cresceram 775% no sábado e 100% no domingo. No mesmo intervalo, as avaliações máximas (cinco estrelas) caíram 50%.
A OpenAI firmou um contrato de US$ 200 milhões (pouco mais de R$ 1 bilhão) com o Pentágono para fornecer inteligência artificial (IA) voltada à vigilância militar. O acordo foi fechado após o colapso das negociações entre o Departamento de Defesa e a Anthropic, que recusou os termos exigidos pelo governo.
A divergência central envolve o monitoramento de cidadãos americanos e o uso da tecnologia em operações de segurança nacional. Enquanto a Anthropic priorizou restrições éticas sobre vigilância doméstica, a OpenAI aceitou as condições governamentais para integrar seus modelos de linguagem à infraestrutura de defesa dos EUA.
Anthropic interrompe negociações por restrições ao monitoramento de cidadãos
As conversas entre a Anthropic e o Pentágono falharam minutos antes do prazo final estabelecido pelo Secretário de Defesa, Pete Hegseth, segundo o jornal The New York Times. O impasse central foi a exigência do governo pelo uso irrestrito das ferramentas de IA para vigilância doméstica. A empresa se recusou a ceder em pontos que violariam suas políticas de segurança e ética de dados pessoais.
O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana (Imagem: Ahyan Stock Studios/Shutterstock)
O diretor de tecnologia do Departamento de Defesa, Emil Michael, liderou as tratativas de um contrato avaliado em US$ 200 milhões. O CEO da Anthropic, Dario Amodei, argumentou que a tecnologia atual não possui confiabilidade suficiente para operações militares letais sem supervisão humana. A resistência da startup gerou atritos diretos com a cúpula do governo e resultou no fim do diálogo.
A Anthropic buscava garantir que seus modelos não fossem aplicados em ações de vigilância em solo americano. O Departamento de Defesa, contudo, demandava flexibilidade total para interpretar o que seria considerado monitoramento legal sob a legislação vigente. Essa divergência semântica e ética foi o principal gatilho para o encerramento do contrato na última sexta-feira (28).
O fracasso da parceria resultou na designação da Anthropic como risco à cadeia de suprimentos pelo governo federal. O presidente dos EUA, Donald Trump, ordenou que agências federais suspendessem o uso das tecnologias da empresa logo após o colapso do acordo.
OpenAI aceita termos do Pentágono e assume contrato de inteligência militar
Pouco após o recuo da Anthropic, o CEO da OpenAI, Sam Altman, anunciou um acordo com o Departamento de Defesa. A empresa assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono. A manobra foi vista como uma resposta estratégica para ocupar o vácuo deixado pela concorrente.
A OpenAI assumiu o contrato de US$ 200 milhões para integrar seus modelos de linguagem nas operações de inteligência do Pentágono (Imagem: Thrive Studios ID/Shutterstock)
A OpenAI concordou com cláusulas que permitem a utilização de seus sistemas para análise de dados de vigilância. Altman defendeu a posição afirmando que a empresa não deseja opinar sobre a legalidade de ações militares específicas, mas fornecer tecnologia de ponta. O acordo permite que o Pentágono utilize a infraestrutura da OpenAI para fins de segurança nacional.
Críticos e especialistas em privacidade consultados pelo The Verge questionam a conformidade do pacto com os princípios de segurança originais da OpenAI. A mudança na política de uso da empresa, ocorrida anteriormente, já havia removido a proibição explícita de aplicações para “fins militares e bélicos”. Essa alteração facilitou juridicamente a assinatura do contrato e o uso de modelos como o GPT-4.
O Pentágono planeja utilizar a tecnologia para acelerar o desenvolvimento de sistemas autônomos e o processamento massivo de informações de inteligência. A parceria estabelece a OpenAI como o principal fornecedor de IA generativa para a defesa dos Estados Unidos. E o movimento consolida uma fase na qual a eficiência operacional militar sobrepõe-se a restrições de monitoramento.
Na madrugada deste sábado (28), o CEO da OpenAI, Sam Altman, anunciou um acordo entre a empresa e o Departamento de Defesa dos Estados Unidos para uso de sua inteligência artificial (IA).
“Esta noite, chegamos a um acordo com o Departamento de Guerra para implantar nossos modelos em sua rede classificada”, escreveu. “Em todas as nossas interações, o DoW [sigla em inglês para Departamento de Guerra] demonstrou profundo respeito pela segurança e um desejo de colaborar para alcançar o melhor resultado possível.”
Quebra de braço entre Anthropic e Pentágono resulta em vitória da OpenAI
O acordo anunciado por Altman é mais um capítulo na queda de braço entre o governo Trump e a Anthropic, desenvolvedora do Claude;
Enquanto o Pentágono exigia que a startup liberasse sua IA para usos militares legais, o CEO da companhia, Dario Amodei, adotou tom que contrariava os desejos dos EUA;
Amodei e sua empresa queriam garantias de que seus modelos de IA não seriam utilizados em armas totalmente autônomas ou para vigilância em massa dos cidadãos estadunidenses;
Por conta da inflexibilidade da Anthropic, o Secretário de Defesa, Pete Hegseth, anunciou que a startup passou a ser considerada um risco à segurança nacional em sua cadeia de suprimentos;
Isso é comum com adversários estrangeiros e poderá forçar os fornecedores do Departamento a garantir que não estão usando os modelos da empresa de Amodei.
A fala do secretário veio de encontro a uma postagem de Trump, afirmando que ordenou que todos os setores do governo parem de usar a tecnologia da startup imediatamente. Apenas o Pentágono terá seis meses para remover a tecnologia de seus equipamentos militares.
Agora, com o acordo da OpenAI com o governo dos EUA, chega ao fim uma semana tumultuada para o setor, que se viu no centro de um debate político sobre quais os limites para uso da IA.
A Anthropic foi a primeira empresa a implantar seus modelos na rede classificada do Departamento de Defesa. Nos últimos tempos, a startup negociava os termos de seu contrato em curso, até que as conversas foram encerradas.
Amodei e sua empresa “bateram o pé” e perderam o contrato com a administração Trump (Imagem: El editorial/Shutterstock)
Segundo a CNBC, na quinta-feira (26), Altman enviou um memorando a seus funcionários no qual dizia que a OpenAI compartilhava as mesmas “linhas vermelhas” que a Anthropic. Já na publicação deste sábado (28), ele disse que os militares aceitaram seus termos restritivos.
“Dois de nossos principais princípios de segurança são proibições de uso para vigilância doméstica em massa e responsabilidade humana para uso da força, incluindo para sistemas de armas autônomas”, explicou. “O DoW concordou com esses princípios, os reflete em suas leis e políticas e entramos em acordo”, prosseguiu.
Conforme a CNBC, ainda não se sabe o motivo pelo qual o governo aceitou as exigências da OpenAI e não as da Anthropic, ao passo em que membros importantes da gestão Trump vinham, há meses, criticando a companhia de Amodei por estar, supostamente, preocupada em excesso com a segurança em torno da IA.
Altman ainda disse que sua empresa criará “salvaguardas técnicas para garantir que seus modelos se comportem como eles devem se comportar”, além de que a startup irá realocar alguns funcionários para “ajudar com nossos modelos e garantir sua segurança”.
“Pedimos ao DoW que ofereça esses mesmos termos a todas as empresas de IA […] entendemos que cada uma delas deve estar disposta a aceitar. Temos expressado nosso profundo desejo de ver as coisas se acalmarem no que tange às ações legais e governamentais e em direção a acordos razoáveis”, finalizou.
Por sua vez, a Anthropic chegou a soltar um comunicado na sexta-feira (27), no qual se disse “profundamente triste” pela decisão do Pentágono de colocar a empresa na lista negra da cadeia de suprimentos. Ela também afirmou que pretende recorrer à Justiça para demover a instituição da decisão.