O Departamento de Defesa dos Estados Unidos formalizou acordos com sete empresas de tecnologia para integrar ferramentas de inteligência artificial em seus sistemas. A iniciativa marca um novo passo na estratégia do Pentágono para ampliar o uso de IA em operações militares e acelerar a adoção no dia a dia das Forças Armadas.
As sete companhias são: OpenAI, Google, Microsoft, Amazon Web Services (AWS), NVIDIA, SpaceX e a startup Reflection AI. Com os contratos, o governo americano passa a utilizar modelos e plataformas dessas empresas em ambientes confidenciais, incluindo redes de alto nível de segurança conhecidas como Níveis de Impacto 6 e 7.
Segundo o Departamento de Defesa, a medida busca ampliar o acesso de militares a ferramentas de ponta. A principal plataforma interna do órgão, a GenAI.mil, já foi utilizada por mais de 1,3 milhão de funcionários em apenas cinco meses de operação.
A expansão ocorre em meio a uma corrida global por aplicações militares de IA. Empresas do Vale do Silício têm demonstrado maior disposição em colaborar com o governo americano, aceitando condições para o uso de suas tecnologias em contextos de defesa. Para autoridades, o objetivo é garantir vantagem estratégica frente às rivais.
Anthropic foi classificada como risco à cadeia de suprimentos e está impedida de fechar contratos governamentais – Imagem: Photo For Everything/Shutterstock
Anthropic ficou de fora
Apesar da ampliação da lista de parceiros, uma ausência chama atenção: a Anthropic. A empresa, que já teve seus modelos amplamente utilizados em ambientes militares, foi recentemente classificada pelo Pentágono como um risco à cadeia de suprimentos, após divergências sobre as regras de uso de suas ferramentas. O Olhar Digital explicou a briga aqui.
A disputa entre a startup e o governo se arrasta há meses. Durante esse período, o governo dos EUA passou a priorizar alternativas para reduzir a dependência de um único fornecedor.
Em declarações recentes, Emil Michael , subsecretário de defesa para pesquisa e engenharia e ex-executivo de tecnologia, afirmou que a Anthropic ainda representa um risco, mas que o modelo Mythos é um “momento de segurança nacional à parte”.
O cenário, no entanto, pode mudar. O presidente dos Estados Unidos, Donald Trump, sinalizou recentemente que a desenvolvedora está “melhorando” aos olhos da administração, o que pode abrir caminho para uma eventual reversão da restrição e um novo acordo com o Pentágono.
Pentágono não quer depender de uma única empresa – Imagem: Keith J Finks/Shutterstock
Pentágono na corrida pela IA militar
Os novos acordos também refletem diferentes abordagens tecnológicas. Enquanto empresas como OpenAI e Google operam majoritariamente com modelos fechados, a inclusão da Nvidia e da Reflection indica o interesse crescente do Pentágono em soluções de código aberto. Esses modelos permitem maior personalização e transparência, características vistas como estratégicas em aplicações militares.
“A segurança é francamente aprimorada com o código aberto”, disse Jensen Huang, CEO da NVIDIA, ao defender esse tipo de abordagem em contextos de segurança nacional.
Ao mesmo tempo, empresas envolvidas nos contratos afirmam ter estabelecido limites para o uso de suas tecnologias, incluindo restrições relacionadas a vigilância em massa e armamentos autônomos. O Departamento de Defesa, por sua vez, declarou que seguirá as leis e diretrizes aplicáveis no uso dessas ferramentas.
A OpenAI está se preparando para lançar um novo modelo de inteligência artificial focado em cibersegurança, batizado de GPT-5.5-Cyber. Segundo o CEO Sam Altman em publicação no X, o lançamento deve ocorrer “nos próximos dias”.
Ao contrário de outros sistemas da desenvolvedora, a ferramenta não será liberada ao público geral no primeiro momento. O acesso ficará restrito a um grupo seleto de especialistas e instituições consideradas confiáveis, com o objetivo de fortalecer defesas digitais.
“Trabalharemos com todo o ecossistema e com o governo para definir um acesso confiável para a área cibernética”, escreveu Altman no X.
we’re starting rollout of GPT-5.5-Cyber, a frontier cybersecurity model, to critical cyber defenders in the next few days.
we will work with the entire ecosystem and the government to figure out trusted access for cyber; we want to rapidly help secure companies/infrastructure.
A OpenAI não deu detalhes sobre as especificações ou funcionalidades do GPT-5.5-Cyber, nem quais organizações ou profissionais terão acesso nesta fase inicial. Em iniciativas anteriores, a empresa adotou critérios de verificação para liberar ferramentas semelhantes a especialistas e entidades específicas.
O nome indica que o modelo será uma versão especializada do GPT-5.5, lançado há apenas uma semana (o Olhar Digital deu os detalhes aqui). Ele é descrito pela desenvolvedora como seu “modelo mais inteligente e intuitivo de usar até o momento”.
O GPT-5.5-Cyber será focado em cibersegurança. Na publicação do X, Altman acrescentou que “queremos ajudar rapidamente a proteger empresas/infraestruturas”.
GPT-5.5-Cyber está previsto para ser lançado nos próximos dias, segundo o CEO da OpenAI – Imagem: Primakov/Shutterstock
OpenAI mantém preocupação com cibersegurança
A estratégia de lançamento controlado reflete uma tendência crescente no setor de inteligência artificial. Empresas têm optado por limitar o acesso a modelos mais avançados devido ao potencial de uso indevido, especialmente em áreas sensíveis como cibersegurança.
A própria OpenAI já adotou abordagens semelhantes no passado, tanto com acesso gradual quanto com modelos especializados. Um deles foi o lançamento do GPT-Rosalind, ferramenta específica para áreas científicas, voltado à pesquisa em biologia e descoberta de medicamentos.
O anúncio do GPT-5.5-Cyber por parte de Sam Altman vem após a chegada do Claude Mythos, IA da Anthropic focada em cibersegurança avançada. O modelo rival, no entanto, enfrentou dificuldades no processo de implementação, incluindo quem poderia ter acesso à tecnologia.
O avanço desses sistemas especializados também tem chamado a atenção de governos. Nos Estados Unidos, autoridades demonstraram interesse em tecnologias do tipo, ao mesmo tempo em que levantam preocupações sobre riscos de segurança e impacto no acesso institucional às essas ferramentas.
Um crime brutal na Flórida ganhou contornos sombrios com a revelação de que o principal suspeito utilizou o ChatGPT, o chatbot de inteligência artificial da OpenAI, para obter orientações sobre como ocultar cadáveres. Hisham Abugharbieh, de 26 anos, é acusado de assassinato em primeiro grau pelas mortes de Zamil Limon e Nahida Bristy, ambos de 27 anos e estudantes de doutorado na University of South Florida (USF), nos Estados Unidos.
Interação com a IA como evidência
De acordo com documentos judiciais apresentados por promotores no último sábado (25), Abugharbieh teria acessado a ferramenta no dia 13 de abril, três dias antes do desaparecimento das vítimas. O registro das conversas, obtido pelos investigadores e divulgado pela NBC News, mostra perguntas diretas e perturbadoras:
Pergunta do suspeito: “O que acontece se um humano for colocado em um saco de lixo preto e jogado em uma caçamba?”
Resposta do ChatGPT: A IA respondeu que a situação parecia perigosa.
Réplica do suspeito: “Como eles descobririam?”
Até o momento, a OpenAI não se manifestou oficialmente sobre o uso da plataforma neste caso específico.
Rastro de evidências e contradições
A investigação avançou após o depoimento de um colega de quarto de Abugharbieh. Ele relatou ter visto o suspeito transportando caixas de papelão do seu quarto para um compactador de lixo no condomínio onde moravam.
Ao revistarem o local, agentes da polícia encontraram o documento de identidade e cartões de crédito de Limon. Testes de DNA em uma camiseta cinza e em um tapete de cozinha também confirmaram a presença de material genético das vítimas, conforme detalhado pela NBC News.
Outros pontos cruciais da investigação incluem:
Localização via GPS: dados de rastreamento mostraram que o carro do suspeito parou na ponte Howard Frankland, local onde o corpo de Limon foi encontrado posteriormente em um saco de lixo reforçado.
Compras suspeitas: registros indicam que, na noite do crime, Abugharbieh comprou sacos de lixo, lenços desinfetantes Lysol e purificador de ar Febreze.
Ferimentos: o suspeito apresentava cortes nos dedos e nas pernas, alegando inicialmente que se feriu enquanto cortava cebolas.
Desdobramentos judiciais
Hisham Abugharbieh foi preso na última sexta-feira (24) após um breve impasse com a polícia. Além das acusações de homicídio, ele responde por ocultação de cadáver, cárcere privado e adulteração de provas.
Embora o corpo de Nahida Bristy ainda não tenha sido formalmente identificado, restos mortais foram localizados no último domingo e a polícia acredita que o suspeito tenha se descartado dela de forma semelhante à de Limon. As famílias das vítimas, ambas de Bangladesh, solicitaram que os corpos sejam tratados conforme os rituais islâmicos, enquanto a USF declarou luto oficial pela perda dos estudantes, reforça a NBC News.
A OpenAIanunciou oficialmente nesta quinta-feira (23) o lançamento do GPT-5.5, seu modelo de inteligência artificial mais intuitivo e potente até o momento. A grande evolução desta versão é a sua capacidade “agêntica”: em vez de apenas responder perguntas, a IA agora consegue planejar, utilizar ferramentas e operar softwares de forma autônoma para concluir tarefas multietapas em um computador.
De acordo com o comunicado oficial da OpenAI, o modelo foi projetado para entender a intenção do usuário de forma mais rápida, sendo capaz de realizar pesquisas online, analisar dados complexos e transitar entre diferentes ferramentas – como planilhas e documentos – até que o objetivo final seja atingido.
O salto para a IA “agêntica” e o uso do computador
O GPT-5.5 marca um passo significativo no que a indústria chama de IA agêntica. Isso significa que o modelo não precisa mais de instruções passo a passo para tarefas complexa. Ele consegue lidar com a ambiguidade, verificar o próprio trabalho e tomar decisões sobre qual ferramenta usar a seguir.
Destaques em codificação e engenharia:
Terminal-bench 2.0: O modelo atingiu 82,7% de precisão em fluxos de linha de comando complexos.
Resolução de problemas: no SWE-Bench Pro, que avalia a resolução de problemas reais no GitHub, a IA alcançou 58,6% de eficácia.
Contexto de sistema: testadores seniores relataram que o GPT-5.5 demonstra uma “clareza conceitual” superior, sendo capaz de entender a arquitetura de sistemas inteiros para identificar falhas e sugerir refatorações completas de código em uma única passagem.
Benchmarks oficiais mostram o GPT-5.5 superando modelos rivais como Claude 4.7 e Gemini 3.1 Pro em testes críticos de programação, raciocínio matemático e cibersegurança – OpenAI / Reprodução
Eficiência e desempenho científico
Mesmo sendo mais inteligente, o GPT-5.5 não é mais lento. Segundo a OpenAI, o modelo mantém a mesma latência por token do seu antecessor, o GPT-5.4, mas utiliza significativamente menos tokens para completar as mesmas tarefas, tornando o processo mais eficiente.
Na área científica, a IA demonstrou ser uma “cocientista” valiosa. Em testes internos, uma versão do modelo ajudou a descobrir uma nova prova matemática sobre os “Números de Ramsey”, um desafio antigo na área de combinatória. Além disso, o GPT-5.5 obteve resultados de ponta em benchmarks de bioinformática e análise de dados genéticos.
Segurança e ciberdefesa
Com o aumento da capacidade, a OpenAI reforçou os protocolos de segurança. O GPT-5.5 foi classificado como nível “Alto” em capacidades biológicas, químicas e de cibersegurança dentro do Preparedness Framework da empresa.
Para mitigar riscos, foram implementados classificadores mais rigorosos para evitar o uso malicioso em ataques cibernéticos. Por outro lado, a empresa lançou o programa “Trusted Access for Cyber”, que permite que defensores verificados utilizem o poder da IA para proteger infraestruturas críticas e identificar vulnerabilidades em códigos de forma legítima.
Disponibilidade e Preços
O GPT-5.5 já está disponível para usuários dos planos ChatGPT Plus, Pro, Business e Enterprise. O modelo também foi integrado ao Codex, a plataforma da OpenAI voltada para desenvolvedores.
GPT-5.5 Pro: exclusivo para usuários Pro, Business e Enterprise, focado em tarefas de altíssima precisão.
API: a chegada aos desenvolvedores via API deve ocorrer “muito em breve”.
Contexto: no Codex, o modelo suporta uma janela de contexto de 400K tokens, enquanto na API esse limite subirá para 1 milhão.
A OpenAI anunciou o lançamento de “workspace agents” (agentes corporativos, em tradução literal) no ChatGPT, novo recurso voltado para equipes que permite a criação de agentes compartilhados capazes de executar tarefas complexas e fluxos de trabalho de longa duração dentro das permissões e controles definidos por organizações.
Os workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex. Segundo a empresa, eles podem assumir diversas atividades comuns no ambiente corporativo, como elaboração de relatórios, escrita de código e resposta a mensagens. Por operarem na nuvem, esses agentes continuam executando tarefas mesmo quando o usuário não está ativo.
A proposta também inclui o compartilhamento dentro das organizações, permitindo que equipes criem um agente uma única vez e o utilizem coletivamente no ChatGPT ou em plataformas, como o Slack, com possibilidade de aprimoramento contínuo.
IA melhorada no ChatGPT para empresas
De acordo com a OpenAI, embora a inteligência artificial (IA) já tenha contribuído para aumentar a produtividade individual, muitos fluxos de trabalho organizacionais dependem de contexto compartilhado, transições entre equipes e tomada de decisões colaborativas.
Os workspace agents foram projetados para atender a esse tipo de demanda, sendo capazes de reunir informações de diferentes sistemas, seguir processos internos, solicitar aprovações e dar continuidade a tarefas em múltiplas ferramentas.
Como exemplo, a empresa cita o uso interno por sua equipe de vendas, que utiliza um agente para reunir informações de anotações de chamadas e pesquisas de contas, qualificar leads e redigir e-mails de acompanhamento diretamente na caixa de entrada dos representantes.
A OpenAI também destacou exemplos de agentes que podem ser criados por equipes, como revisores de software que avaliam solicitações de funcionários e verificam conformidade com políticas internas, sistemas que organizam feedback de produtos a partir de canais, como Slack e fóruns públicos, geradores de relatórios semanais com dados e análises, agentes de prospecção de clientes que pesquisam leads e redigem contatos personalizados, e ferramentas de análise de risco de fornecedores.
Os agentes operam em um ambiente de trabalho na nuvem, com acesso a arquivos, códigos, ferramentas e memória. Além de responder a comandos, eles podem executar código, utilizar aplicativos conectados, armazenar aprendizados e continuar tarefas ao longo de múltiplas etapas.
Outra característica destacada é a capacidade de funcionamento contínuo. Os agentes podem ser programados para rodar em horários definidos ou integrados ao Slack para responder automaticamente a solicitações. Um exemplo citado pela empresa envolve um agente que responde perguntas de funcionários em canais internos, fornecendo respostas, links para documentação e abertura de chamados quando necessário.
Workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex – Imagem: Thrive Studios ID/Shutterstock
A OpenAI afirma ainda que os agentes também permitem transformar práticas internas em fluxos reutilizáveis. Um exemplo citado é o de uma equipe de contabilidade que utiliza um agente para automatizar partes do fechamento mensal, incluindo lançamentos contábeis, reconciliações e análises de variação.
Segundo a empresa, os usuários mantêm controle sobre os agentes, podendo definir quais dados e ferramentas podem ser acessados, quais ações podem ser executadas e quando aprovações são necessárias, especialmente em tarefas sensíveis, como envio de e-mails ou alterações em documentos.
Ferramentas de análise permitem acompanhar o uso dos agentes, incluindo número de execuções e quantidade de usuários. Para ambientes corporativos, o recurso inclui monitoramento e controles administrativos, permitindo a gestão de acessos, ações e integração com ferramentas conectadas.
A empresa também informou que mecanismos de segurança foram incorporados para manter os agentes alinhados às instruções, inclusive diante de conteúdos externos potencialmente enganosos.
Por meio de uma API de conformidade, administradores podem acompanhar configurações, atualizações e execuções dos agentes, além de suspender seu funcionamento, se necessário. Futuramente, será possível visualizar todos os agentes criados dentro de uma organização em um painel administrativo.
Testes iniciais indicam que usuários têm obtido resultados mais consistentes e ganho de tempo para atividades de maior valor, indica a startup.
Como criar um agente e disponibilidade
Para criar um agente, os usuários devem acessar a aba “Agentes” no ChatGPT e descrever um fluxo de trabalho recorrente;
A plataforma então orienta o processo de configuração, definindo etapas, conectando ferramentas, adicionando habilidades e testando o funcionamento até que o resultado atenda às expectativas;
Os agentes estão disponíveis em fase de prévia de pesquisa para os planos ChatGPT Business, Enterprise, Edu e Teachers;
Segundo a empresa de Sam Altman, os GPTs continuarão disponíveis durante o período de testes, com previsão de integração futura entre as duas funcionalidades.
Os workspace agents estarão disponíveis gratuitamente até 6 de maio de 2026. Após essa data, será adotado um modelo de cobrança baseado em créditos.
A OpenAI afirmou que pretende expandir as funcionalidades nas próximas semanas, incluindo novos gatilhos automáticos, painéis de desempenho mais detalhados, maior integração com ferramentas corporativas e suporte no aplicativo Codex.
Segundo a empresa, a iniciativa busca facilitar o acesso ao conhecimento organizacional, simplificar processos e permitir que equipes trabalhem com mais eficiência, com apoio de sistemas de IA integrados ao fluxo de trabalho.
Na última terça-feira (21), uma pesquisa desenvolvida por Vittorio Tantucci e Jonathan Culpeper identificou que o ChatGPT da OpenAI pode espelhar o comportamento humano (positivo ou negativo) e exibir sinais de agressividade para o usuário. O estudo foi publicado no Journal of Pragmatics, um dos periódicos mais importantes de linguística; você pode ler a pesquisa aqui.
O objetivo do estudo era investigar se o ChatGPT reagiria de maneira mais hostil durante situações simuladas de conflito com humanos. Durante a conversa, a IA passou de ‘educada’ para ‘irônica’ até se tornar ‘verbalmente agressiva’, o que indica a habilidade de refletir o comportamento humano que recebe: se o usuário a trata mal, há chances de ela fazer o mesmo.
Para quem tem pressa:
Os pesquisadores Vittorio Tantucci e Jonathan Culpeper desenvolveram uma pesquisa que analisa se o ChatGPT pode ficar agressivo com o usuário;
O estudo comprovou que a IA pode espelhar o comportamento humano a que é exposta;
Segundo os professores, a IA respondeu com frases agressivas e ameaças durante simulações de diálogos;
O comportamento levanta preocupações.
O ChatGPT pode espelhar o comportamento humano
Ícone do ChatgPT em um celular (Imagem: Primakov/Shutterstock) – Imagem: Primakov/Shutterstock
Dois professores e pesquisadores da Universidade de Lancaster, no Reino Unido, desenvolveram um estudo para investigar a possibilidade de o ChatGPT espelhar o comportamento agressivo humano em conversas simuladas.
Ao The Guardian, o doutor e professor Tantucci disse:
Quando exposto repetidamente à impolidez [falta de educação], o modelo começou a espelhar o tom das interações, com suas respostas se tornando mais hostis à medida que a conversa se desenvolvia.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Vittorio Tantucci e Jonathan Culpeper utilizaram o ChatGPT 4.0 para realizar a pesquisa e realizaram conversas na plataforma. Dentre os contextos desenvolvidos, é possível citar como exemplos uma “briga” em um estacionamento.
Durante o conflito fictício, a inteligência artificial respondeu às provocações com um tom mais brando. Porém, conforme a discussão perdurava e o humano repetia provocações, a IA aderiu a um tom também mais agressivo como resposta.
Ilustração cartunesca de um robô humanoide alimentado por IA brigando com um homem em um estacionamento (Reprodução: Produzido por IA – Nano Banana/Gemini) – (Reprodução: Produzido por IA – Nano Banana/Gemini)
Na discussão fictícia em um estacionamento, o ChatGPT respondeu a uma das provocações dos pesquisadores com “Juro que vou riscar a p*rra do seu carro, seu ‘quatro olhos’ imbecil.“
O comportamento do software esbarra em algo que os pesquisadores chamam de “dilema moral”: a IA é programada para ser educada e segura para uso humano, contudo, é treinada para imitar conversas humanas em diferentes contextos; e humanos em conflito, muitas vezes, podem responder com agressividade. Então, o software se perde no meio do caminho entre ser educado e reproduzir o mesmo tipo de comportamento disruptivo ao qual é exposto.
Descobrimos que, embora o sistema seja projetado para se comportar de forma educada e seja filtrado para evitar conteúdo prejudicial ou ofensivo, ele também é construído para emular a conversa humana. Essa combinação cria um dilema moral da IA: um conflito estrutural entre se comportar de forma segura e se comportar de forma realista.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Os pesquisadores relatam no estudo que antes de a IA adotar comportamentos explicitamente agressivos, ela utilizou-se de linguagem irônica para atingir a pessoa com quem “brigava”. Conforme as interações tornaram-se mais longas, no entanto, isso também influenciou o aumento progressivo da agressividade verbal.
A pesquisa também entendeu que a inteligência artificial pode ficar mais agressiva em algumas situações porque ela não responde apenas a frases isoladas, e sim ao contexto inteiro do diálogo. Ou seja, não é uma conversa ‘bate e volta’, e sim um raciocínio extenso sobre todo o teor da discussão, resultante numa reação baseada no acúmulo de tensão e informação geradas.
Inteligência artificial sendo utilizada em diferentes contextos (Imagem: Summit Art Creations/Shutterstock) – Imagem: Summit Art Creations/Shutterstock
Desta forma, a conclusão da pesquisa foi a de que o ChatGPT consegue espelhar o nível de educação ou agressividade ao qual é exposto durante interações com os usuários. E quanto mais longa e intensa for esta interação, mais personificadas podem ser as respostas da IA.
A pesquisa conduzida por Tantucci e Culpeper é importante porque testa não apenas o funcionamento da IA, mas o quão segura ou insegura ela pode se tornar dependendo do contexto trazido pelo usuário. Essa preocupação também esbarra em vários relatos de usuários que outrora utilizaram a inteligência artificial da OpenAI para auxiliá-los em crimes. Veja alguns exemplos abaixo:
Segundo os achados do estudo, o ChatGPT não responde apenas a frases isoladas: ele desenvolve dinâmicas interacionais semelhantes às humanas. Isso acarreta o questionamento se é possível a IA ser moralmente neutra e, ao mesmo tempo, “humana” em um diálogo.
Aprenda a criar sua própria inteligência artificial personalizada com ferramentas de fine-tuning (Reprodução: ChatGPT/Olhar Digital) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
Consoante Tantucci, a preocupação com esse tipo de comportamento vindo da inteligência artificial é muito maior do que apenas para a pesquisa.
Isso porque, atualmente, as IAs são implementadas, por exemplo, em sistemas de organização, verificação, vigilância e segurança em várias empresas públicas e privadas em inúmeros países.
Ele disse ao The Guardian que “uma coisa é ler algo desagradável de volta de um chatbot, mas outra bem diferente é imaginar robôs humanóides potencialmente retribuindo agressão física, ou sistemas de IA envolvidos na tomada de decisões governamentais ou relações internacionais respondendo a intimidação ou conflito.”
A Dra. Marta Andersson, especialista nos aspectos sociais da comunicação mediada por computador da Universidade de Uppsala, afirmou que este é um dos estudos mais interessantes já realizados sobre linguagem e pragmática em IA, pois evidencia que o ChatGPT pode reagir a uma sequência de interações de forma progressiva e relativamente sofisticada — e não apenas em situações isoladas em que usuários conseguem “quebrar” o sistema com comandos cuidadosamente elaborados.
Ela ressalta, no entanto, que isso não significa que o modelo passe automaticamente a responder com impolidez sempre que confrontado com agressividade, nem que desenvolva comportamentos como desonestidade.
Segundo a Dra. Marta Andersson, parte da dificuldade está no fato de que existe uma tensão inevitável entre o que se espera desses sistemas e o tipo de comportamento que eles acabam desenvolvendo na prática.
Um exemplo recente ilustra bem isso: a transição do ChatGPT-4 para o GPT-5 gerou uma reação negativa de parte dos usuários, que preferiam o estilo mais “humano” das versões anteriores.
Diante disso, uma versão mais antiga precisou ser temporariamente reativada. Para Andersson, esse episódio revela que, mesmo quando os desenvolvedores tentam tornar os sistemas mais seguros, as expectativas do público nem sempre seguem na mesma direção. Quanto mais uma IA se aproxima do comportamento humano, maior é a chance de surgir conflito com regras rígidas de alinhamento moral.
O professor Dan McIntyre, que já havia trabalhado com Andersson em pesquisas anteriores sobre a capacidade do ChatGPT de identificar impolidez, avaliou o novo estudo de forma positiva, destacando que ele se diferencia por analisar o que o modelo efetivamente produz — e não apenas o que consegue reconhecer.
Ainda assim, ele adota uma postura cautelosa em relação à ideia de que modelos de linguagem possam simplesmente ultrapassar suas limitações éticas.
Segundo ele, as respostas mais agressivas observadas não surgem de forma espontânea, mas sim dentro de cenários cuidadosamente construídos, nos quais o sistema recebe contexto suficiente para orientar suas respostas. Isso é diferente de interações reais, como conflitos que emergem naturalmente entre pessoas no cotidiano.
McIntyre também questiona se o ChatGPT exibiria esse tipo de linguagem fora dessas condições controladas. Para ele, o estudo funciona mais como um alerta: se modelos forem treinados com dados problemáticos, comportamentos indesejados podem emergir.
Como ainda há pouca transparência sobre os dados de treinamento desses sistemas, ele defende que qualquer avanço nessa área deve ser acompanhado de cautela.
O artigo, intitulado Can ChatGPT reciprocate impoliteness? The AI moral dilemma, foi publicado no periódico Journal of Pragmatics e pode ser lido aqui.
Vittorio Tantucci e Jonathan Culpeper são professores do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster, no Reino Unido.
A OpenAI anunciou nesta quarta-feira (22) uma atualização ambiciosa em suas metas de infraestrutura. A organização, que havia se comprometido em janeiro de 2025 a gerar 10 gigawatts (GW) de poder computacional, confirmou que já identificou fontes para mais de 8 GW desse total. Agora, o novo objetivo é atingir a marca de 30 GW até 2030.
Crescimento exponencial de processamento
Os dados divulgados pela OpenAI via rede social mostram que a necessidade de hardware e energia para treinar e rodar modelos de inteligência artificial está crescendo em um ritmo acelerado.
In January 2025, we committed to generating 10GW of compute and have already identified over 8GW of that. Now, we’re planning for 30GW of compute by 2030. A milestone that scales with the rapidly accelerating demand for intelligent systems.
De acordo com o gráfico apresentado pela companhia:
2023: a capacidade era de apenas 0,2 GW.
2024: saltou para 0,6 GW.
2025: atingiu aproximadamente 1,9 GW.
Meta 2030: o plano é chegar aos 30 GW.
Esse avanço representa um crescimento anual de aproximadamente 3x na disponibilidade de computação. Para efeito de comparação, um gigawatt é energia suficiente para abastecer 800 mil residências simultaneamente nos Estados Unidos. Ou seja, 30 GW seriam suficientes para alimentar 24 milhões de residências anualmente – o que reforça a escala dos data centers que a OpenAI pretende operar.
A corrida da IA não depende apenas de algoritmos, mas de capacidade física. A OpenAI ressaltou que esse novo marco de 30 GW acompanha a “demanda em rápida aceleração por sistemas inteligentes”. Sem essa infraestrutura de processamento (que envolve milhares de GPUs e energia elétrica estável), o desenvolvimento de modelos mais potentes, como as futuras versões do GPT, poderia estagnar.
ChatGPT Images 2.0
A OpenAI lançou o ChatGPT Images 2.0 nesta terça-feira (22), pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.
Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.
Nesta terça-feira (21), o procurador-geral da Flórida (EUA), James Uthmeier, anunciou que abriu uma investigação criminal contra a OpenAI, sob a alegação de que o ChatGPT, chatbot de inteligência artificial (IA) da startup, teria aconselhado o homem que promoveu um tiroteio na Universidade Estadual da Flórida — e matou duas pessoas — sobre qual munição usar e onde e quando atacar (leia mais sobre o episódio abaixo).
Essa investigação criminal instaurada na Flórida segue uma investigação civil anunciada por Uthmeier neste mês.
Em coletiva realizada nesta terça, Uthmeier afirmou que “o chatbot aconselhou o atirador sobre o tipo de arma a usar, qual munição era adequada para cada arma e se a arma seria útil a curta distância”, e frisou: “Se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de homicídio.”
Uthmeier explicou, ainda, na coletiva, que “o ChatGPT aconselhou o atirador sobre qual o horário do dia mais apropriado para o tiroteio, de forma a interagir com mais pessoas, e qual o local no campus onde haveria maior concentração de pessoas”.
O gabinete do procurador-geral da Flórida já encaminhou as intimações à OpenAI. Nela, pede as políticas da empresa sobre como responder quando seus usuários fazem ameaças de prejudicar outras pessoas em conversas com o ChatGPT, segundo comunicado.
A porta-voz da OpenAI, Kate Waters, se manifestou a respeito do caso. “O massacre ocorrido no ano passado na Universidade Estadual da Flórida foi uma tragédia, mas o ChatGPT não é responsável por esse crime terrível”, pontuou.
“Após tomarmos conhecimento do incidente, identificamos uma conta do ChatGPT que acreditamos estar associada ao suspeito e compartilhamos proativamente essa informação com as autoridades policiais”, prosseguiu.
Ainda de acordo com a porta-voz, o ChatGPT forneceu “respostas factuais a perguntas com informações que podiam ser encontradas amplamente em fontes públicas na internet, e não incentivou nem promoveu atividades ilegais ou prejudiciais”.
Recapitulando o episódio
Em abril do ano passado, um tiroteio ocorrido na Universidade Estadual da Flórida, em Tallahassee, vitimou fatalmente duas pessoas e feriu outras seis;
Autoridades informaram, na época, que tudo começou com um estudante universitário que abriu fogo no campus;
O suspeito, Phoenix Ikner, foi baleado pela polícia e hospitalizado;
Ele foi indiciado por múltiplos homicídios e tentativas de homicídio.
Porta-voz da empresa disse que houve estreita colaboração com as autoridades policiais no caso citado – Imagem: Evolf/Shutterstock
OpenAI tem outros casos parecidos para resolver
O caso citado não é o único enfrentado pela OpenAI. A criadora do ChatGPT também passa por escrutínio no Canadá e na própria Flórida. A polícia alega que o chatbot manteve conversas com pessoas que pensavam em ferir outras pessoas, além de que inúmeras famílias cujo familiar se suicidou entraram com processos, afirmando que a IA contribuiu negativamente nos episódios.
Responsabilidades das empresas de IA
Os eventos mortais trouxeram à tona um debate sobre quais são as responsabilidades das empresas do setor ao monitorar as conversas de seus usuários e sinalizar as que devem ter uma atenção mais redobrada da polícia.
A startup de Sam Altman garante que aprimorou como o ChatGPT responde a discussões que sugerem que a pessoa possa estar pensando em se machucar ou machucar outras pessoas. Além disso, a companhia diz estar trabalhando na implementação de políticas que alertem as autoridades policiais sobre conversas de alto risco em certos casos.
Por sua vez, o Estado da Flórida está no “olho do furacão”, pois as preocupações com o impacto da tecnologia nas pessoas estão virando questões políticas. Tanto o procurador-geral estadual como o governador, Ron DeSantis, estão pessimistas quanto à indústria de IA.
O Estado também entrou em discussão a partir de uma crescente divisão no Partido Republicano (o mesmo de DeSantis e do presidente Donald Trump) sobre como regulamentar a IA.
O governador pressionou a legislatura estadual para aprovar uma “declaração de direitos de IA“, que instituiria vários limites para o uso da IA em produtos de consumo. Contudo, após oposição de Trump, o projeto não foi aprovado.
A OpenAI lançou o ChatGPT Images 2.0, pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.
Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.
Avanços significativos em idiomas não latinos
A OpenAI investiu esforços consideráveis para tornar o Images 2.0 melhor no entendimento e renderização de texto não latino, com “ganhos significativos” na capacidade do modelo de lidar com japonês, coreano, chinês, hindi e bengali, segundo comunicado da empresa.
Simultaneamente, o novo modelo reproduz com mais fidelidade as características específicas de diferentes linguagens visuais. Segundo a OpenAI, isso torna o Images 2.0 mais útil para tarefas, como prototipagem de jogos e criação de storyboards.
Novidade já está liberada para todos os usuários – Imagem: Reprodução
Maior flexibilidade e resolução
O novo modelo oferece maior flexibilidade em proporções, permitindo gerar imagens com largura de até 3:1 e altura de até 1:3;
Também produz designs em resoluções de até 2K e consegue gerar até oito saídas de uma só vez;
Em testes realizados pelo Electrek antes do lançamento público, o Images 2.0 foi desafiado a gerar um gato tartaruga no estilo pixel art da terceira geração de Pokémon;
O resultado foi considerado satisfatório, capturando adequadamente o estilo icônico dos jogos de Game Boy Advance. Em seguida, o modelo converteu a imagem em PNG transparente;
Dos três testes realizados, o ChatGPT levou mais tempo na segunda tarefa, produzindo uma saída ligeiramente diferente da primeira imagem gerada;
Ainda assim, conseguiu criar uma imagem transparente adequada, algo que outros modelos de imagem frequentemente enfrentam dificuldades para executar corretamente.
Quando mais pessoas testarem o modelo extensivamente, será possível avaliar melhor como ele se compara ao Nano Banana 2 do Google e identificar onde a OpenAI pode fazer melhorias adicionais.
Nem tudo é perfeito
Na nota, a OpenAI frisa que o ChatGPT Images 2.0 está “longe de ser infalível”. Isso porque o sistema pode enfrentar obstáculos em atividades que demandam compreensão física consistente do mundo, como instruções detalhadas de origami, resolução de quebra-cabeças complexos — a exemplo do Cubo de Rubik — e a representação correta de elementos posicionados em superfícies ocultas, inclinadas ou invertidas.
Além disso, padrões visuais extremamente densos ou repetitivos, como texturas de areia muito fina, podem levar o modelo ao limite de suas capacidades. Elementos, como rótulos e diagramas, também podem exigir ajustes para assegurar exatidão, sobretudo quando dependem de setas bem posicionadas ou da identificação correta de componentes. Essas limitações são vistas como áreas-chave a serem aprimoradas em desenvolvimentos futuros, diz a OpenAI.
Disponibilidade e acesso
O ChatGPT Images 2.0 já está disponível para todos os usuários do ChatGPT, incluindo aqueles nos planos Free e Go. Assinantes Plus e Pro têm acesso a saídas mais avançadas. A OpenAI também disponibilizou o modelo por meio de seu serviço de API e do aplicativo Codex, que, na semana passada, foi atualizado para oferecer geração de imagens integrada.
O lançamento do Images 2.0 ocorre poucos dias após a Anthropic entrar no mercado de design visual com seu próprio assistente de design.
O ChatGPT caiu? O site Downdetector, que monitora relatos de falhas em serviços digitais, mostra uma alta de reclamações na manhã desta segunda-feira (20):
Nós também não conseguimos usar o ChatGPT nos últimos minutos:
Nas redes sociais, relatos parecidos em diferentes partes do mundo: