inteligência artificial

Auto Added by WPeMatico

claude anthropic 1024x632

Anthropic: Amazon mantém oferta do Claude para clientes AWS

Após a confirmação de que a Anthropic foi classificada como risco na cadeia de suprimentos pelo Pentágono, a Amazon se pronunciou a respeito e disse que seguirá ofertando a inteligência artificial (IA) da empresa, o Claude, a seus clientes de nuvem, o Amazon Web Services (AWS). Somente os projetos que envolvem o Departamento de Defesa não receberão mais a oferta.

“Os clientes e parceiros da AWS podem continuar usando o Claude para todas as suas cargas de trabalho não associadas ao Departamento de Guerra (DoW). Para todas as cargas de trabalho do DoW que usam tecnologias da Anthropic, estamos dando suporte aos clientes e parceiros durante a transição para alternativas executadas na AWS”, disse um porta-voz da AWS em comunicado.

Amazon se junta a outras big techs para “defender” Anthropic

  • A Amazon, que detém a liderança no mercado de nuvem, segue o passo de suas concorrentes (Microsoft e Google) ao atualizar seus clientes sobre a disponibilidade da Anthropic;
  • Na quinta-feira (5), a Microsoft anunciou que o Claude segue acessível em produtos que não envolvam o Departamento de Defesa. Na manhã desta sexta-feira (6), foi a vez de o Google fazer o mesmo;
  • A gigante do e-commerce de Jeff Bezos é uma das maiores investidoras da Anthropic, com investimentos de US$ 8 bilhões (R$ 41,9 bilhões) desde 2023. Elas também possuem forte relação comercial.

Por sua vez, a AWS segue como a principal parceira de nuvem e treinamento da empresa de Dario Amodei, que se comprometeu a utilizar 500 mil chips personalizados da Amazon, o Trainium 2, como parte de um campus de data centers da AWS construído para a startup, nomeado Projeto Rainier. Seu custo é de US$ 11 bilhões (R$ 57,6 bilhões).

Startup está “em pé de guerra” com Pentágono (Imagem: gguy/Shutterstock)

Acesso ao Claude na AWS

Os modelos do Claude estão disponíveis via AWS Bedrock, no qual as empresas podem acessar vários modelos de IA de diferentes desenvolvedoras.

O Bedrock é fornecido por meio do serviço GovCloud, da AWS. Trata-se de uma região de nuvem dedicada e equipada para hospedagem de dados sensíveis e fluxos de trabalho regulamentados.

A Amazon conseguiu contratos bilionários com agências do governo dos EUA, fornecendo serviços de nuvem e IA. Em novembro de 2025, foram destinados, pela empresa, cerca de US$ 50 bilhões (R$ 262,2 bilhões) às infraestruturas de IA para clientes governamentais. À época, a big tech dizia ter mais de 11 mil agências dos EUA sob seu guarda-chuva.

Leia mais:

Anthropic vs Pentágono: linha do tempo

11 de julho de 2024: a Anthropic firmou uma parceria com a Palantir para integrar o Claude à plataforma de IA Palantir AIP. O objetivo era permitir que agências de inteligência e defesa dos EUA usassem a IA para analisar grandes volumes de dados complexos de forma segura.

14 de julho de 2025: o Pentágono concedeu à Anthropic um contrato de prototipagem no valor de US$ 200 milhões (R$ 1 bilhão). O objetivo era desenvolver capacidades de IA de fronteira para a segurança nacional. Outras empresas, como OpenAI e xAI, também receberam contratos de valores similares na mesma época.

Janeiro de 2026: o Secretário de Defesa, Pete Hegseth, emitiu um memorando exigindo que todos os contratos de IA do Departamento de Defesa incluíssem uma cláusula de “qualquer uso lícito” em até 180 dias. A medida entrou em conflito direto com as políticas de segurança da Anthropic, que proíbem o uso do Claude para vigilância doméstica em massa ou armas totalmente autônomas.

24 de fevereiro de 2026: Hegseth reuniu-se com o CEO da Anthropic, Dario Amodei, exigindo formalmente a assinatura de um documento que garantisse ao exército acesso total e irrestrito aos modelos Claude, sem as “travas” de segurança da empresa.

27 de fevereiro de 2026: fim do prazo estipulado pelo Pentágono. A Anthropic recusou-se oficialmente a remover as salvaguardas. Em resposta, o presidente Donald Trump ordenou que todas as agências federais interrompessem o uso dos produtos da Anthropic. No mesmo dia, Hegseth declarou a empresa um “risco à cadeia de suprimentos”, proibindo qualquer contratante militar de fazer negócios com ela.

28 de fevereiro de 2026: a OpenAI, através de Sam Altman, aproveitou o vácuo deixado pela Anthropic e anunciou um novo acordo para implantar seus modelos na rede classificada do Departamento de Defesa, comprometendo-se com os termos de “uso lícito” exigidos pelo governo.
Enquanto os Estados Unidos baniam a Anthropic, o Pentágono iniciava a Operação Epic Fury, uma ofensiva aérea contra o Irã, usando as ferramentas de IA da empresa.

3 de março de 2026: Sam Altman, CEO da OpenAI, disse aos seus funcionários que não controla como o Pentágono utiliza o sistema de inteligência artificial da empresa.

4 de março de 2026: embora houvesse rumor de que Amodei e Hegseth voltariam a conversar, o Pentágono notificou formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.

5 de março de 2026: Amodei afirmou que a Anthropic pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial. Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.

O post Anthropic: Amazon mantém oferta do Claude para clientes AWS apareceu primeiro em Olhar Digital.

Anthropic: Amazon mantém oferta do Claude para clientes AWS Read More »

OpenAI lança Codex Security: o novo agente de IA para cibersegurança

A OpenAI anunciou nesta sexta-feira (6) o lançamento do Codex Security, um agente de inteligência artificial projetado para transformar a segurança de aplicações. O objetivo central da ferramenta é resolver uma das maiores “dores” dos desenvolvedores: o excesso de alarmes falsos (falsos positivos) que sobrecarregam as equipes de segurança e atrasam o lançamento de softwares.

Diferente de ferramentas tradicionais, o Codex Security não apenas aponta vulnerabilidades, mas cria um modelo de ameaça específico para cada projeto, sendo capaz de sugerir e aplicar correções automáticas que mantêm a integridade do sistema.

O que muda com o Codex Security e como ele funciona?

A grande inovação do Codex Security é o uso de raciocínio agêntico, alimentado pelos modelos de fronteira da OpenAI (incluindo o GPT-5, conforme apontado pela Bloomberg). Enquanto ferramentas legadas costumam disparar alertas para qualquer linha de código suspeita, o novo agente valida as falhas em ambientes isolados (os chamados sandboxes) para garantir que o problema é real antes de notificar o usuário.

De acordo com o comunicado oficial da OpenAI, a ferramenta já demonstrou resultados impressionantes durante sua fase beta (quando ainda era chamada de Aardvark):

  • Redução de 84% no “ruído” (alertas irrelevantes) em repositórios testados.
  • Queda de 50% na taxa de falsos positivos.
  • Identificação de falhas críticas em projetos de peso, como OpenSSH, PHP e Chromium.

Para entender o salto geracional, veja como o novo agente da OpenAI se compara às soluções convencionais do mercado:

Quem pode usar e como acessar?

A OpenAI informou que o Codex Security está sendo liberado em Research Preview a partir de hoje. O acesso será gradual ao longo dos próximos dias para os seguintes grupos:

  1. Assinantes corporativos: usuários do ChatGPT Enterprise, Business e Education.
  2. Desenvolvedores de código aberto: a empresa criou o programa “Codex for OSS”, oferecendo contas gratuitas e suporte para mantenedores de projetos open-source.
  3. Custo: o uso será gratuito durante o primeiro mês para os clientes elegíveis.

Para quem já utiliza as versões empresariais da OpenAI, o recurso aparecerá diretamente na interface do Codex web. Segundo a Bloomberg, o lançamento coloca a OpenAI em competição direta com outras gigantes do setor, como a Anthropic, que lançou recentemente o Claude Code Security.

O post OpenAI lança Codex Security: o novo agente de IA para cibersegurança apareceu primeiro em Olhar Digital.

OpenAI lança Codex Security: o novo agente de IA para cibersegurança Read More »

sam altman openai 1024x576 1

ChatGPT pode incorporar mensageiro, diz site

Recentemente, a OpenAI fez uma mudança na política de serviços do ChatGPT, permitindo que o usuário possa sincronizar seus contatos para ver quais também usam a inteligência artificial (IA).

Isso, segundo o Mobile Time, pode ser um movimento rumo à adoção de um serviço de mensageria no chatbot. Para fortificar o argumento, o portal ouviu uma fonte experiente do mercado de mensageria.

Não tenho dúvida de que o ChatGPT vai entrar em mensageria. E é o movimento mais inteligente que Sam Altman poderia fazer”, comentou.

Como se não bastasse, outra tecnologia recente da OpenAI poderia reforçar a ideia: a possibilidade de convidar pessoas para participar de uma mesma sessão de conversa com o ChatGPT a partir de um link.

“É o movimento mais inteligente que Sam Altman poderia fazer”, comentou fonte (Imagem: FotoField/Shutterstock)

Leia mais:

ChatGPT com mensageiro?

  • O portal avalia, ainda, que essa é uma tendência do mercado, com buscadores e apps de mensageria incorporando IA generativa e assistentes de IA lançando navegadores;
  • O próximo passo seria a incorporação de mensageiros pelos chatbots;
  • Tudo isso se baseia na audiência e na obtenção de maior receita;
  • Hoje, os principais concorrentes no Ocidente são Meta, Google e Microsoft.

OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora

OpenAI anunciou nesta quinta-feira (5) o lançamento do GPT-5.4, atualização que traz avanços em raciocínio, programação e execução de tarefas profissionais. Segundo a empresa, o modelo é o “mais capaz e eficiente para trabalho profissional” até agora.

A nova versão do GPT também amplia as capacidades do sistema ao lidar com documentos, planilhas e apresentações. Além disso, é mais um passo em direção aos agentes de IA, que atuam em segundo plano para realizar atividades complexas sem necessidade de intervenção humana.

Leia a matéria completa aqui

O post ChatGPT pode incorporar mensageiro, diz site apareceu primeiro em Olhar Digital.

ChatGPT pode incorporar mensageiro, diz site Read More »

shutterstock 2645157717

Anthropic vai à Justiça contra Pentágono, diz CEO

No fim da noite desta quinta-feira (5), o CEO da Anthropic, Dario Amodei, confirmou os rumores de que a Anthropic teria recebido a classificação de risco à cadeia de suprimentos pelo Pentágono.

Além disso, ele afirmou que a empresa pretende contestar isso na Justiça. Segundo ele, a companhia “não teve outra escolha” senão recorrer aos tribunais após a designação oficial.

Amodei confirmou que o governo dos EUA declarou a Anthropic como um risco de cadeia de suprimentos na quinta-feira (5). A classificação ocorre em meio a um impasse entre a startup e o Departamento de Defesa dos Estados Unidos (DOD) sobre a forma como seus modelos de inteligência artificial (IA), o Claude, podem ser utilizados.

A empresa vinha se desentendendo com o Pentágono sobre limites para o uso da tecnologia. No fim da semana passada, a Anthropic foi informada — por meio de publicações em redes sociais — de que estava sendo incluída em uma lista que a impediria de participar de contratos governamentais.

A companhia buscava garantias de que sua tecnologia não seria utilizada para armas totalmente autônomas ou para vigilância doméstica em massa. Já o DOD queria que a Anthropic concedesse acesso irrestrito ao Claude para qualquer finalidade legal.

“Como afirmamos na sexta-feira passada, não acreditamos, e nunca acreditamos, que seja papel da Anthropic ou de qualquer empresa privada se envolver na tomada de decisões operacionais — esse é o papel dos militares”, escreveu Amodei.

“Nossas únicas preocupações sempre foram nossas exceções para armas totalmente autônomas e vigilância doméstica em massa, que se relacionam a áreas de uso de alto nível, e não à tomada de decisões operacionais.”

CEO disse que não há outra saída senão ir à Justiça contra o Pentágono (Imagem: Thrive Studios ID/Shutterstock)

Leia mais:

Anthropic: Amodei diz que não há outra saída

  • Segundo o executivo, a Anthropic é a única empresa estadunidense a ser publicamente classificada como risco para a cadeia de suprimentos;
  • A designação agora oficial exige que fornecedores e contratados do setor de defesa certifiquem que não utilizam os modelos da empresa em trabalhos realizados com o Pentágono;
  • Esse tipo de classificação costuma ser aplicado a organizações que operam em países considerados adversários dos Estados Unidos, como a empresa chinesa de tecnologia Huawei;
  • Ainda há incerteza sobre se empresas contratadas pelo setor de defesa poderão continuar usando a tecnologia da Anthropic em projetos que não estejam relacionados ao trabalho militar;
  • Amodei afirmou que a designação “não limita (e não pode limitar) o uso do Claude ou relações comerciais com a Anthropic quando não estão relacionadas a contratos específicos com o Departamento de Guerra”.

A Microsoft, que anunciou, em novembro, planos de investir até US$ 5 bilhões (R$ 26,3 bilhões) na Anthropic, afirmou, em comunicado, que seus advogados analisaram a designação e concluíram que os produtos da empresa podem continuar disponíveis para clientes que não sejam o DOD.

A Anthropic havia firmado em julho um contrato de US$ 200 milhões (R$ 1 bilhão) com o Departamento de Defesa e foi o primeiro laboratório de inteligência artificial a integrar seus modelos a fluxos de trabalho de missões em redes classificadas. No entanto, com o avanço das divergências nas negociações, concorrentes também passaram a firmar acordos semelhantes.

A OpenAI, de Sam Altman, e a xAI, de Elon Musk, concordaram em implantar seus modelos em ambientes classificados. Altman anunciou o acordo de sua companhia com o Departamento de Defesa poucas horas depois de a Anthropic ter sido colocada na lista de restrições na sexta-feira (27).

Em uma publicação no X, Altman afirmou que a agência demonstrou “profundo respeito pela segurança e o desejo de fazer parceria para alcançar o melhor resultado possível”.

À frente e à esquerda, Sam Altman com um pequeno sorriso; à direita e ao fundo, o logo da OpenAI em uma tela
Executivo da OpenAI garantiu que o Departamento vai seguir suas restrições (Imagem: FotoField/Shutterstock)

Relação tensa

A relação entre a Anthropic e o governo do presidente Trump tem se tornado cada vez mais tensa nos últimos meses. Amodei chegou a pedir desculpas por um memorando interno crítico à administração que vazou para a imprensa na quarta-feira (4).

De acordo com uma reportagem do The Information, o executivo teria dito a funcionários que o governo não simpatizava com a Anthropic porque a empresa não havia feito doações nem oferecido “elogios no estilo ditador a Trump”.

Amodei afirmou que o memorando foi escrito na sexta-feira (27), após “um dia difícil para a empresa”, e que não reflete suas “opiniões cuidadosas ou ponderadas”. Ele acrescentou que o texto representa uma “avaliação desatualizada da situação atual”.

“A Anthropic não vazou essa publicação nem orientou ninguém a fazê-lo — não é do nosso interesse escalar essa situação”, escreveu o executivo.

O post Anthropic vai à Justiça contra Pentágono, diz CEO apareceu primeiro em Olhar Digital.

Anthropic vai à Justiça contra Pentágono, diz CEO Read More »

Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse

O Pentágono teria notificado formalmente a Anthropic de que a companhia e seus produtos (incluindo o chatbot Claude) foram classificados como um risco à cadeia de suprimentos dos Estados Unidos.

A medida, confirmada por autoridades de defesa à Bloomberg, ocorre em um momento de incerteza: embora o Financial Times tenha relatado horas antes que as partes haviam voltado negociar, a oficialização do status de risco sinaliza que a diplomacia entre o Vale do Silício e Washington pode ter fracassado.

Essa notificação é um golpe direto na Anthropic, atualmente avaliada em US$ 380 bilhões. Com uma receita projetada de US$ 20 bilhões para este ano, a startup depende de sua integração em sistemas como o Maven (da Palantir), utilizado em operações militares no Irã.

Se a classificação de risco for mantida, empresas privadas com contratos federais podem ser forçadas a banir o uso do Claude, prejudicando uma das principais verticais de crescimento da empresa.

Histórico das empresas

O embate entre o CEO da Anthropic, Dario Amodei, e o subsecretário de defesa, Emil Michael, atingiu níveis de hostilidade raros no setor. Michael chegou a acusar Amodei publicamente de ter um “complexo de Deus” e colocar a nação em perigo.

O cerne da disputa é uma cláusula sobre o uso do Claude para vigilância em massa e armas autônomas: termos que a Anthropic se recusa a flexibilizar, mas que rivais como OpenAI e xAI teriam aceitado sob a premissa de “qualquer uso legal”.

Um memorando interno da Anthropic, revelado pelo The Information, sugere que o Pentágono tentou uma manobra de última hora: o governo aceitaria os termos éticos da startup, desde que uma frase específica sobre “análise de dados adquiridos em massa” fosse removida.

A recusa de Amodei em ceder nesse ponto parece ter sido a gota d’água para que o Secretário de Defesa, Pete Hegseth, cumprisse a promessa de rotularr a empresa como uma ameaça à segurança nacional.

Cenário do setor

O mercado agora observa se a retomada das conversas citada pelo Financial Times é uma tentativa real de conciliação ou apenas uma formalidade antes de uma batalha judicial. A classificação de “risco à cadeia de suprimentos” é uma ferramenta de pressão extrema, geralmente reservada a adversários geopolíticos, e sua aplicação a uma “queridinha” de Wall Street cria um precedente que pode vir ameaçar a autonomia das Big Techs.

Para a Anthropic, o desafio é sobreviver a essa decisão do governo sem comprometer os princípios de segurança que sustentam sua marca. Enquanto isso, a OpenAI se posiciona para ocupar a lacuna deixada no Pentágono, transformando o impasse ético em uma vantagem competitiva de bilhões de dólares.

O post Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse apareceu primeiro em Olhar Digital.

Ameaça real? Pentágono rotula Anthropic como “risco” e gera impasse Read More »

tiiny ai pocket lab 1024x683

Menor supercomputador de IA do mundo cabe no bolso

Uma startup dos EUA afirma ter criado o menor supercomputador de Inteligência Artificial (IA) do mundo. O equipamento reúne alto poder de processamento e grande quantidade de memória em um dispositivo compacto, pequeno o suficiente para caber no bolso. 

Segundo os desenvolvedores, a máquina consegue executar modelos avançados de IA capazes de analisar informações complexas, planejar tarefas e resolver problemas de forma autônoma.

Em resumo:

  • Startup cria supercomputador de IA que cabe no bolso;
  • Dispositivo roda modelos gigantes localmente;
  • Memória é bem superior à da maioria dos notebooks atuais;
  • Tecnologias otimizam cálculos e reduzem consumo;
  • IA local amplia privacidade e uso remoto.
O pequeno dispositivo de IA Pocket Lab se conecta a notebooks. Crédito: Tiiny AI

Desenvolvido pela empresa Tiiny AI, o supercomputador recebeu o nome de AI Pocket Lab. Ele consegue rodar localmente um grande modelo de linguagem com cerca de 120 bilhões de parâmetros. Normalmente, sistemas desse porte dependem de grandes centros de dados cheios de servidores e placas gráficas. Nesse caso, porém, o processamento ocorre diretamente no dispositivo, sem necessidade de conexão com a internet.

O AI Pocket Lab utiliza um processador ARM de 12 núcleos, tecnologia comum em smartphones e tablets. Apesar do tamanho reduzido – cerca de 14 centímetros de comprimento – o equipamento possui 80 GB de memória RAM do tipo LPDDR5X. Para comparação, a maioria dos notebooks atuais possui entre 8 GB e 32 GB de memória.

Cerca de 48 GB dessa memória são reservados para a unidade de processamento neural (NPU). Esse tipo de chip é otimizado para executar operações relacionadas à inteligência artificial com maior eficiência. Tecnologias semelhantes já aparecem em processadores modernos de empresas como Intel e AMD, criadas justamente para acelerar aplicações baseadas em IA.

Por que “supercomputador”?

O dispositivo é considerado um supercomputador porque consegue executar modelos de linguagem com mais de 100 bilhões de parâmetros. Em geral, esse tipo de processamento exige vários computadores com placas gráficas avançadas trabalhando juntos em centros de dados especializados.

Mesmo não rivalizando com os maiores supercomputadores do mundo, o AI Pocket Lab alcança cerca de 190 trilhões de operações por segundo. Esse desempenho resulta da combinação entre CPU e NPU trabalhando juntas para executar cálculos complexos.

Para atingir essa potência em um aparelho pequeno, os engenheiros utilizaram tecnologias de otimização. Uma delas é o sistema TurboSparse, que faz o modelo de IA usar apenas partes específicas de seus parâmetros durante cada etapa do processamento, reduzindo cálculos desnecessários.

Outra tecnologia, chamada PowerInfer, distribui as tarefas entre diferentes processadores do dispositivo. Dessa forma, cada componente executa apenas as operações para as quais é mais eficiente. Isso melhora o desempenho, reduz o consumo de energia e permite usar IA avançada mesmo em locais sem acesso à internet.

Leia mais:

Elon Musk investe bilhões para construir maior supercomputador de IA do mundo

No outro extremo está um projeto do bilionário Elon Musk, que ele chama de “maior supercomputador de IA do mundo”: o Colossus, que abriga mais de 200 mil chips da Nvidia e alimenta o chatbot Grok. 

Agora, a empresa está perto de finalizar um segundo centro, batizado de Colossus 2, ainda maior e mais potente. Estima-se que o novo projeto abrigará inicialmente 550 mil chips, podendo chegar futuramente a um milhão, com investimento total que pode atingir dezenas de bilhões de dólares. Saiba mais aqui.

O post Menor supercomputador de IA do mundo cabe no bolso apareceu primeiro em Olhar Digital.

Menor supercomputador de IA do mundo cabe no bolso Read More »

pentagono 1024x683 1

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude

Anthropic e o Departamento de Defesa dos Estados Unidos (agora renomeado para Departamento de Guerra) cortaram relações na sexta-feira passada. O desentendimento veio após a desenvolvedora de IA se recusar a flexibilizar suas regras para permitir o uso do Claude em aplicações perigosas, incluindo vigilância em massa de cidadãos americanos e armas autônomas.

Agora, parece que a Anthropic mudou de ideia. Segundo o Financial Times, que citou fontes familiarizadas com o assunto, o CEO Dario Amodei voltou a discutir um possível acordo com Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia. O objetivo seria estabelecer novos termos contratuais que permitam o uso do Claude nas forças armadas.

Mas o clima entre as partes é tenso. Após o desentendimento entre Anthropic e Pentágono, Michael criticou Amodei nas redes sociais, chamando-o de “mentiroso” com “complexo de Deus” e acusando-o de “colocar a segurança de nossa nação em risco”.

Do outro lado, Amodei também criticou o Pentágono e a rival OpenAI, que aproveitou a quebra de contrato para se aliar ao governo. Em um memorando interno divulgado pelo The Information, o executivo criticou o acordo entre OpenAI e Departamento de Defesa, classificando-o como “teatro da segurança” e afirmando que as mensagens entre as partes eram “mentiras descaradas”.

Amodei ainda sugeriu que o relacionamento da Anthropic com o governo federal pode ter se deteriorado por fatores políticos. No documento, ele afirmou que a empresa não fez doações ao presidente Donald Trump nem adotou uma postura pública de apoio semelhante à de outros líderes do setor de tecnologia.

O memorando também detalha um momento das negociações em que o Departamento de Defesa teria sinalizado que aceitaria os termos propostos pela startup, desde que uma cláusula específica fosse removida do contrato.

Perto do fim da negociação, o [departamento] ofereceu-se para aceitar os nossos termos atuais se excluíssemos uma frase específica sobre ‘análise de dados adquiridos em massa’, que era a única linha do contrato que correspondia exatamente ao cenário que mais nos preocupava. Achamos isso muito suspeito.

Anthropic, em memorando interno divulgado pelo The Information

Com a recusa da Anthropic, Pentágono se aliou à OpenAI (Imagem: Keith J Finks/Shutterstock)

Então, por que Anthropic voltou a negociar com o Pentágono?

Mesmo assim, a Anthropic tem motivo para voltar atrás.

Durante as negociações da semana passada, o secretário de Defesa dos Estados Unidos, Pete Hegseth, afirmou que a desenvolvedora poderia ser classificada como um “risco para a cadeia de suprimentos” caso não se aliasse ao Pentágono. Esse tipo de designação costuma ser aplicado a empresas consideradas uma ameaça à segurança nacional – geralmente por vínculos com governos estrangeiros – e poderia prejudicar a Anthropic no setor de tecnologia.

Caso a desenvolvedora realmente seja incluída na lista, companhias que trabalham com contratos de defesa poderiam ser obrigadas a interromper o uso do Claude e encerrar parcerias com a startup.

Leia mais:

Relembrando: No centro dessa disputa estão as condições para o uso militar da tecnologia da Anthropic. A empresa afirma ter dois limites claros: não permitir aplicações de vigilância em massa contra cidadãos americanos e impedir o uso de sistemas de inteligência artificial em armas autônomas letais, capazes de operar sem supervisão humana.

O Departamento de Defesa, por sua vez, defende que a IA utilizada pela instituição esteja disponível para “qualquer uso legal”, um princípio que a Anthropic considera amplo demais e potencialmente incompatível com suas restrições éticas. Segundo relatos, outras empresas do setor – como OpenAI e xAI – teriam aceitado esse tipo de condição.

O post Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude apareceu primeiro em Olhar Digital.

Mudou de ideia? Anthropic e Pentágono retomam conversas para uso militar do Claude Read More »

gpt 54

OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora

A OpenAI anunciou nesta quinta-feira (5) o lançamento do GPT-5.4, atualização que traz avanços em raciocínio, programação e execução de tarefas profissionais. Segundo a empresa, o modelo é o “mais capaz e eficiente para trabalho profissional” até agora.

A nova versão do GPT também amplia as capacidades do sistema ao lidar com documentos, planilhas e apresentações. Além disso, é mais um passo em direção aos agentes de IA, que atuam em segundo plano para realizar atividades complexas sem necessidade de intervenção humana.

Um dos exemplos disso é a possibilidade de interação diretamente com computadores. O modelo consegue escrever código para executar ações em aplicativos, além de enviar comandos de teclado e mouse com base em capturas de tela. A OpenAI afirma que o GPT-5.4 também apresenta melhorias no uso em navegadores e na integração com ferramentas e APIs externas.

No campo técnico, o GPT-5.4 traz avanços em eficiência e confiabilidade:

  • Segundo a desenvolvedora, o modelo consegue resolver problemas usando menos tokens em comparação com versões anteriores. Na API, a ferramenta passa a suportar janelas de contexto de até 1 milhão de tokens, a maior já oferecida pela empresa;
  • O desempenho também foi destaque. O GPT-5.4 atingiu pontuações elevadas em avaliações internas voltadas para tarefas de uso de computador e trabalho intelectual;
  • Outra frente de melhoria foi na confiabilidade, especialmente na redução de alucinações e erros factuais. De acordo com a OpenAI, o modelo apresentou 33% menos probabilidade de produzir afirmações incorretas em comparação com o GPT-5.2, além de uma queda de 18% no índice geral de respostas com erros;

Para desenvolvedores, a OpenAI também introduziu mudanças na forma como o modelo acessa ferramentas externas. Um novo sistema chamado Busca de Ferramentas permite que o GPT-5.4 consulte definições de ferramentas apenas quando necessário, em vez de carregar todas as informações antecipadamente. A abordagem tende a reduzir o consumo de tokens e acelerar as respostas em ambientes pesados.

OpenAI descreve o GPT-5.4 como seu modelo mais “profissional” até agora (Imagem: OpenAI/Reprodução)

GPT-5.4 chega em mais de uma versão

O modelo chega em três versões. Além da configuração padrão, há uma edição voltada para raciocínio avançado, o GPT-5.4 Thinking, e outra otimizada para alto desempenho em tarefas complexas, o GPT-5.4 Pro.

Inclusive, a versão de raciocínio avançado foi destaque nos testes de segurança internos. Segundo a OpenAI, o GPT-5.4 Thinking apresenta menor probabilidade de ocultar ou distorcer seu processo de raciocínio durante tarefas complexas.

A atualização está sendo disponibilizada gradualmente no ChatGPT, no ambiente de programação Codex e na API da OpenAI. A versão GPT-5.4 Thinking chega inicialmente aos usuários dos planos Plus, Team e Pro, enquanto o GPT-5.4 Pro também será oferecido para clientes Enterprise e Edu.

O post OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora apareceu primeiro em Olhar Digital.

OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora Read More »

meta logo 1024x682 2

Meta enfrenta processo sobre óculos com IA e privacidade

A Meta está no centro de uma nova controvérsia, enfrentando um processo judicial que questiona a privacidade de seus óculos inteligentes com inteligência artificial (IA).

Esta ação legal surge após uma investigação realizada por jornais suecos, que revelou que trabalhadores de uma subcontratada no Quênia estavam revisando gravações de clientes. Entre o material analisado, foram encontrados conteúdos altamente sensíveis, como nudez, atos sexuais e pessoas utilizando o banheiro.

A empresa havia afirmado anteriormente que utilizava tecnologia para desfocar rostos nas imagens coletadas.

No entanto, fontes ligadas à investigação contestaram essa afirmação, indicando que o desfoque não funcionava de maneira consistente, deixando a privacidade dos usuários vulnerável. Diante dessas descobertas, o Information Commissioner’s Office (ICO), órgão regulador do Reino Unido, iniciou sua própria investigação sobre o ocorrido.

Meta: processo judicial nos EUA e alegações de violação de privacidade

  • Agora, a gigante da tecnologia enfrenta um processo semelhante também nos Estados Unidos;
  • A queixa foi apresentada por Gina Bartone, de Nova Jersey, e Mateo Canu, da Califórnia;
  • Os demandantes acusam a Meta de violar leis de privacidade e de praticar publicidade enganosa em relação aos seus óculos inteligentes com IA;
  • A acusação detalha que os óculos foram comercializados com promessas de privacidade, utilizando frases, como “projetado para privacidade, controlado por você” e “construído para sua privacidade”;
  • Tais promessas levariam os consumidores a crer que suas gravações, inclusive momentos íntimos, não seriam monitoradas por funcionários em outros países;
  • Os autores da ação afirmam ter acreditado na campanha de marketing da Meta e não ter encontrado nenhum aviso ou informação que contradissesse as garantias de privacidade divulgadas.

Envolvimento da Luxottica e amplitude do problema

A ação judicial atribui responsabilidade à Meta e à Luxottica of America, parceira na fabricação dos óculos, por condutas que estariam em desacordo com as leis de proteção ao consumidor.

O Clarkson Law Firm, escritório responsável pela acusação e conhecido por processos contra outras grandes empresas de tecnologia, como Apple, Google e OpenAI, destaca a relevância do problema.

Em 2025, mais de sete milhões de unidades dos óculos inteligentes da Meta foram comercializadas. Isso significa que as gravações de um número expressivo de usuários são encaminhadas para um processo de análise de dados, sem que haja uma opção clara para os usuários de optarem por não participar desse sistema de revisão.

Meta avisa, de forma discreta, que pode usar dados de seus usuários para análise de dados (Imagem: PJ McDonnell/Shutterstock)

Leia mais:

Revisão humana de conteúdo e termos de serviço

A Meta declarou à BBC que utiliza prestadores de serviços para revisar o conteúdo compartilhado com a inteligência artificial, visando aprimorar a experiência dos usuários.

Segundo a empresa, esse procedimento está descrito em sua política de privacidade. A Meta também fez referência aos Termos de Serviço Suplementares das Plataformas Meta, embora não tenha especificado a localização exata da menção à revisão humana. A BBC, no entanto, conseguiu identificar que os termos de serviço de IA da Meta no Reino Unido incluem uma menção à revisão manual.

Uma versão da política aplicável aos Estados Unidos e a outros países, como o Brasil, estabelece que: “Em alguns casos, a Meta revisará suas interações com as IAs, incluindo o conteúdo de suas conversas ou mensagens para as IAs, e essa revisão pode ser automatizada ou manual (humana).”

A queixa apresenta diversas evidências de como os óculos foram promovidos no mercado, mostrando exemplos de anúncios que enfatizavam as garantias de privacidade, as configurações de segurança e a “camada adicional de segurança”.

Um dos anúncios destacava: “Você está no controle de seus dados e conteúdo”, explicando aos proprietários dos óculos inteligentes que eles teriam a autonomia de escolher o que seria compartilhado com terceiros.

Crescimento da “vigilância de luxo” e cenário atual

O aumento da popularidade de dispositivos como os óculos inteligentes e outras tecnologias de “vigilância de luxo”, como pingentes de IA que estão sempre em escuta, tem gerado um debate amplo sobre privacidade.

Em resposta a essa tendência, um desenvolvedor lançou um aplicativo capaz de identificar a presença de óculos inteligentes nas proximidades, refletindo a crescente preocupação pública com a coleta de dados e a vigilância em tempo real.

O que diz a Meta

O Olhar Digital entrou em contato com a Meta e a Luxottica e aguarda retorno.

O post Meta enfrenta processo sobre óculos com IA e privacidade apareceu primeiro em Olhar Digital.

Meta enfrenta processo sobre óculos com IA e privacidade Read More »

evan solomon e openai 1024x577

Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT

Recentemente, o Canadá informou que o presidente-executivo da OpenAI, o empresário Sam Altman, prometeu aumentar os protocolos de segurança do ChatGPT. A mudança deve auxiliar os funcionários de Altman a contatarem a polícia canadense quando um residente do país executar atividades suspeitas via ChatGPT.

A promessa foi garantida em uma carta, redigida pela OpenAI e endereçada ao governo do Canadá.

O envio do documento decorre após um tiroteio que acometeu alunos e funcionários de uma escola na cidade de Tumbler Ridge, na província de British Columbia, no Canadá: a investigação da polícia concluiu que a atiradora tinha um histórico suspeito de conversas com o ChatGPT, teve sua conta encerrada na plataforma, mas a OpenAI nunca entrara em contato com a polícia canadense.

Para quem tem pressa:

  • A OpenAI entrou em contato com o governo do Canadá, por meio de uma carta, e disse estar comprometida a melhorar os protocolos de segurança de sua IA;
  • A atitude ocorre após a polêmica de a empresa saber de um histórico de conversa suspeito de um usuário canadense e não ter acionado a polícia;
  • Meses depois, esse mesmo usuário abriu fogo contra a própria família, estudantes e funcionários de sua cidade.

OpenAI e a promessa de mudar os protocolos de segurança no Canadá

Evan Solomon é um ministro canadense que, dentre vários assuntos, cuida dos interesses do país referente a utilização e segurança de plataformas de inteligência artificial (Crédito das imagens, respectivamente: Centro Nacional de Artes do Canadá e DANIEL CONSTANTE)

Após o contato de Sam Altman com o governo canadense, o Ministro da Inteligência Artificial, Evan Solomon, solicitou que os novos protocolos de segurança fossem adicionados não só agora, mas que a equipe da OpenAI revisasse o histórico passado de conversas dos usuários e contatassem a polícia se identificassem mais suspeitos.

Na quarta-feira (04), o ministro teve uma reunião virtual com Altman pela tarde; à noite, emitiu à mídia um comunicado que resumia os assuntos tratados no encontro com o CEO.

Pedi à OpenAI que tomasse várias medidas, o que Altman concordou em fazer”, disse Solomon. A declaração ainda informa que a OpenAI se comprometeu a avaliar “como eles incluiriam especialistas canadenses em privacidade, saúde mental e aplicação da lei no processo para identificar e revisar casos de alto risco envolvendo usuários canadenses”.

À frente e à esquerda, Sam Altman com um pequeno sorriso; à direita e ao fundo, o logo da OpenAI em uma tela
Sam Altman, CEO da OpenAI (Imagem: FotoField/Shutterstock)

Leia mais:

Ademais, o ministro informou que a OpenAI está comprometida em emitir relatórios que expliquem como os novos protocolos serão desenvolvidos e de que maneira vão identificar infratores reincidentes ou de alto risco.

A empresa também promete cooperar com a investigação das autoridades que ocorre na Colúmbia Britânica, onde Jesse Van Rootselaar, de 18 anos, abriu fogo contra várias pessoas na cidade de Tumbler Ridge meses depois de conversas suspeitas com o ChatGPT.

No episódio violento, 9 pessoas foram mortas (incluindo a autora dos disparos) e outras 27 ficaram feridas.

O post Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT apareceu primeiro em Olhar Digital.

Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT Read More »