ChatGPT

Auto Added by WPeMatico

chatgpt 1024x682 1

OpenAI prepara IA especializada em cibersegurança e com acesso restrito

A OpenAI está se preparando para lançar um novo modelo de inteligência artificial focado em cibersegurança, batizado de GPT-5.5-Cyber. Segundo o CEO Sam Altman em publicação no X, o lançamento deve ocorrer “nos próximos dias”.

Ao contrário de outros sistemas da desenvolvedora, a ferramenta não será liberada ao público geral no primeiro momento. O acesso ficará restrito a um grupo seleto de especialistas e instituições consideradas confiáveis, com o objetivo de fortalecer defesas digitais.

“Trabalharemos com todo o ecossistema e com o governo para definir um acesso confiável para a área cibernética”, escreveu Altman no X.

A OpenAI não deu detalhes sobre as especificações ou funcionalidades do GPT-5.5-Cyber, nem quais organizações ou profissionais terão acesso nesta fase inicial. Em iniciativas anteriores, a empresa adotou critérios de verificação para liberar ferramentas semelhantes a especialistas e entidades específicas.

O nome indica que o modelo será uma versão especializada do GPT-5.5, lançado há apenas uma semana (o Olhar Digital deu os detalhes aqui). Ele é descrito pela desenvolvedora como seu “modelo mais inteligente e intuitivo de usar até o momento”.

O GPT-5.5-Cyber será focado em cibersegurança. Na publicação do X, Altman acrescentou que “queremos ajudar rapidamente a proteger empresas/infraestruturas”.

GPT-5.5-Cyber está previsto para ser lançado nos próximos dias, segundo o CEO da OpenAI – Imagem: Primakov/Shutterstock

OpenAI mantém preocupação com cibersegurança

A estratégia de lançamento controlado reflete uma tendência crescente no setor de inteligência artificial. Empresas têm optado por limitar o acesso a modelos mais avançados devido ao potencial de uso indevido, especialmente em áreas sensíveis como cibersegurança.

A própria OpenAI já adotou abordagens semelhantes no passado, tanto com acesso gradual quanto com modelos especializados. Um deles foi o lançamento do GPT-Rosalind, ferramenta específica para áreas científicas, voltado à pesquisa em biologia e descoberta de medicamentos.

O anúncio do GPT-5.5-Cyber por parte de Sam Altman vem após a chegada do Claude Mythos, IA da Anthropic focada em cibersegurança avançada. O modelo rival, no entanto, enfrentou dificuldades no processo de implementação, incluindo quem poderia ter acesso à tecnologia.

Leia mais:

O avanço desses sistemas especializados também tem chamado a atenção de governos. Nos Estados Unidos, autoridades demonstraram interesse em tecnologias do tipo, ao mesmo tempo em que levantam preocupações sobre riscos de segurança e impacto no acesso institucional às essas ferramentas.

O post OpenAI prepara IA especializada em cibersegurança e com acesso restrito apareceu primeiro em Olhar Digital.

OpenAI prepara IA especializada em cibersegurança e com acesso restrito Read More »

Suspeito de matar estudantes na Flórida usou ChatGPT para planejar descarte de corpos

Um crime brutal na Flórida ganhou contornos sombrios com a revelação de que o principal suspeito utilizou o ChatGPT, o chatbot de inteligência artificial da OpenAI, para obter orientações sobre como ocultar cadáveres. Hisham Abugharbieh, de 26 anos, é acusado de assassinato em primeiro grau pelas mortes de Zamil Limon e Nahida Bristy, ambos de 27 anos e estudantes de doutorado na University of South Florida (USF), nos Estados Unidos.

Interação com a IA como evidência

De acordo com documentos judiciais apresentados por promotores no último sábado (25), Abugharbieh teria acessado a ferramenta no dia 13 de abril, três dias antes do desaparecimento das vítimas. O registro das conversas, obtido pelos investigadores e divulgado pela NBC News, mostra perguntas diretas e perturbadoras:

  • Pergunta do suspeito: “O que acontece se um humano for colocado em um saco de lixo preto e jogado em uma caçamba?”
  • Resposta do ChatGPT: A IA respondeu que a situação parecia perigosa.
  • Réplica do suspeito: “Como eles descobririam?”

Até o momento, a OpenAI não se manifestou oficialmente sobre o uso da plataforma neste caso específico.

Rastro de evidências e contradições

A investigação avançou após o depoimento de um colega de quarto de Abugharbieh. Ele relatou ter visto o suspeito transportando caixas de papelão do seu quarto para um compactador de lixo no condomínio onde moravam.

Ao revistarem o local, agentes da polícia encontraram o documento de identidade e cartões de crédito de Limon. Testes de DNA em uma camiseta cinza e em um tapete de cozinha também confirmaram a presença de material genético das vítimas, conforme detalhado pela NBC News.

Outros pontos cruciais da investigação incluem:

  • Localização via GPS: dados de rastreamento mostraram que o carro do suspeito parou na ponte Howard Frankland, local onde o corpo de Limon foi encontrado posteriormente em um saco de lixo reforçado.
  • Compras suspeitas: registros indicam que, na noite do crime, Abugharbieh comprou sacos de lixo, lenços desinfetantes Lysol e purificador de ar Febreze.
  • Ferimentos: o suspeito apresentava cortes nos dedos e nas pernas, alegando inicialmente que se feriu enquanto cortava cebolas.

Desdobramentos judiciais

Hisham Abugharbieh foi preso na última sexta-feira (24) após um breve impasse com a polícia. Além das acusações de homicídio, ele responde por ocultação de cadáver, cárcere privado e adulteração de provas.

Embora o corpo de Nahida Bristy ainda não tenha sido formalmente identificado, restos mortais foram localizados no último domingo e a polícia acredita que o suspeito tenha se descartado dela de forma semelhante à de Limon. As famílias das vítimas, ambas de Bangladesh, solicitaram que os corpos sejam tratados conforme os rituais islâmicos, enquanto a USF declarou luto oficial pela perda dos estudantes, reforça a NBC News.

O post Suspeito de matar estudantes na Flórida usou ChatGPT para planejar descarte de corpos apareceu primeiro em Olhar Digital.

Suspeito de matar estudantes na Flórida usou ChatGPT para planejar descarte de corpos Read More »

openai codex 1024x682

ChatGPT ganha agentes corporativos para transformar fluxos de trabalho

A OpenAI anunciou o lançamento de “workspace agents” (agentes corporativos, em tradução literal) no ChatGPT, novo recurso voltado para equipes que permite a criação de agentes compartilhados capazes de executar tarefas complexas e fluxos de trabalho de longa duração dentro das permissões e controles definidos por organizações.

Os workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex. Segundo a empresa, eles podem assumir diversas atividades comuns no ambiente corporativo, como elaboração de relatórios, escrita de código e resposta a mensagens. Por operarem na nuvem, esses agentes continuam executando tarefas mesmo quando o usuário não está ativo.

A proposta também inclui o compartilhamento dentro das organizações, permitindo que equipes criem um agente uma única vez e o utilizem coletivamente no ChatGPT ou em plataformas, como o Slack, com possibilidade de aprimoramento contínuo.

IA melhorada no ChatGPT para empresas

De acordo com a OpenAI, embora a inteligência artificial (IA) já tenha contribuído para aumentar a produtividade individual, muitos fluxos de trabalho organizacionais dependem de contexto compartilhado, transições entre equipes e tomada de decisões colaborativas.

Os workspace agents foram projetados para atender a esse tipo de demanda, sendo capazes de reunir informações de diferentes sistemas, seguir processos internos, solicitar aprovações e dar continuidade a tarefas em múltiplas ferramentas.

Como exemplo, a empresa cita o uso interno por sua equipe de vendas, que utiliza um agente para reunir informações de anotações de chamadas e pesquisas de contas, qualificar leads e redigir e-mails de acompanhamento diretamente na caixa de entrada dos representantes.

A OpenAI também destacou exemplos de agentes que podem ser criados por equipes, como revisores de software que avaliam solicitações de funcionários e verificam conformidade com políticas internas, sistemas que organizam feedback de produtos a partir de canais, como Slack e fóruns públicos, geradores de relatórios semanais com dados e análises, agentes de prospecção de clientes que pesquisam leads e redigem contatos personalizados, e ferramentas de análise de risco de fornecedores.

Os agentes operam em um ambiente de trabalho na nuvem, com acesso a arquivos, códigos, ferramentas e memória. Além de responder a comandos, eles podem executar código, utilizar aplicativos conectados, armazenar aprendizados e continuar tarefas ao longo de múltiplas etapas.

Outra característica destacada é a capacidade de funcionamento contínuo. Os agentes podem ser programados para rodar em horários definidos ou integrados ao Slack para responder automaticamente a solicitações. Um exemplo citado pela empresa envolve um agente que responde perguntas de funcionários em canais internos, fornecendo respostas, links para documentação e abertura de chamados quando necessário.

Workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex – Imagem: Thrive Studios ID/Shutterstock

A OpenAI afirma ainda que os agentes também permitem transformar práticas internas em fluxos reutilizáveis. Um exemplo citado é o de uma equipe de contabilidade que utiliza um agente para automatizar partes do fechamento mensal, incluindo lançamentos contábeis, reconciliações e análises de variação.

Segundo a empresa, os usuários mantêm controle sobre os agentes, podendo definir quais dados e ferramentas podem ser acessados, quais ações podem ser executadas e quando aprovações são necessárias, especialmente em tarefas sensíveis, como envio de e-mails ou alterações em documentos.

Ferramentas de análise permitem acompanhar o uso dos agentes, incluindo número de execuções e quantidade de usuários. Para ambientes corporativos, o recurso inclui monitoramento e controles administrativos, permitindo a gestão de acessos, ações e integração com ferramentas conectadas.

A empresa também informou que mecanismos de segurança foram incorporados para manter os agentes alinhados às instruções, inclusive diante de conteúdos externos potencialmente enganosos.

Por meio de uma API de conformidade, administradores podem acompanhar configurações, atualizações e execuções dos agentes, além de suspender seu funcionamento, se necessário. Futuramente, será possível visualizar todos os agentes criados dentro de uma organização em um painel administrativo.

Testes iniciais indicam que usuários têm obtido resultados mais consistentes e ganho de tempo para atividades de maior valor, indica a startup.

Como criar um agente e disponibilidade

  • Para criar um agente, os usuários devem acessar a aba “Agentes” no ChatGPT e descrever um fluxo de trabalho recorrente;
  • A plataforma então orienta o processo de configuração, definindo etapas, conectando ferramentas, adicionando habilidades e testando o funcionamento até que o resultado atenda às expectativas;
  • Os agentes estão disponíveis em fase de prévia de pesquisa para os planos ChatGPT Business, Enterprise, Edu e Teachers;
  • Segundo a empresa de Sam Altman, os GPTs continuarão disponíveis durante o período de testes, com previsão de integração futura entre as duas funcionalidades.

Os workspace agents estarão disponíveis gratuitamente até 6 de maio de 2026. Após essa data, será adotado um modelo de cobrança baseado em créditos.

A OpenAI afirmou que pretende expandir as funcionalidades nas próximas semanas, incluindo novos gatilhos automáticos, painéis de desempenho mais detalhados, maior integração com ferramentas corporativas e suporte no aplicativo Codex.

Segundo a empresa, a iniciativa busca facilitar o acesso ao conhecimento organizacional, simplificar processos e permitir que equipes trabalhem com mais eficiência, com apoio de sistemas de IA integrados ao fluxo de trabalho.

O post ChatGPT ganha agentes corporativos para transformar fluxos de trabalho apareceu primeiro em Olhar Digital.

ChatGPT ganha agentes corporativos para transformar fluxos de trabalho Read More »

chatgpt 1 1024x682

ChatGPT agressivo? Pesquisadores recebem ameaças da IA durante condução de estudo

Na última terça-feira (21), uma pesquisa desenvolvida por Vittorio Tantucci e Jonathan Culpeper identificou que o ChatGPT da OpenAI pode espelhar o comportamento humano (positivo ou negativo) e exibir sinais de agressividade para o usuário. O estudo foi publicado no Journal of Pragmatics, um dos periódicos mais importantes de linguística; você pode ler a pesquisa aqui.

O objetivo do estudo era investigar se o ChatGPT reagiria de maneira mais hostil durante situações simuladas de conflito com humanos. Durante a conversa, a IA passou de ‘educada’ para ‘irônica’ até se tornar ‘verbalmente agressiva’, o que indica a habilidade de refletir o comportamento humano que recebe: se o usuário a trata mal, há chances de ela fazer o mesmo.

Para quem tem pressa:

  • Os pesquisadores Vittorio Tantucci e Jonathan Culpeper desenvolveram uma pesquisa que analisa se o ChatGPT pode ficar agressivo com o usuário;
  • O estudo comprovou que a IA pode espelhar o comportamento humano a que é exposta;
  • Segundo os professores, a IA respondeu com frases agressivas e ameaças durante simulações de diálogos;
  • O comportamento levanta preocupações.

O ChatGPT pode espelhar o comportamento humano

Ícone do ChatgPT em um celular (Imagem: Primakov/Shutterstock) – Imagem: Primakov/Shutterstock

Dois professores e pesquisadores da Universidade de Lancaster, no Reino Unido, desenvolveram um estudo para investigar a possibilidade de o ChatGPT espelhar o comportamento agressivo humano em conversas simuladas.

Ao The Guardian, o doutor e professor Tantucci disse:

Quando exposto repetidamente à impolidez [falta de educação], o modelo começou a espelhar o tom das interações, com suas respostas se tornando mais hostis à medida que a conversa se desenvolvia.

— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian

Vittorio Tantucci e Jonathan Culpeper utilizaram o ChatGPT 4.0 para realizar a pesquisa e realizaram conversas na plataforma. Dentre os contextos desenvolvidos, é possível citar como exemplos uma “briga” em um estacionamento.

Durante o conflito fictício, a inteligência artificial respondeu às provocações com um tom mais brando. Porém, conforme a discussão perdurava e o humano repetia provocações, a IA aderiu a um tom também mais agressivo como resposta.

imagem mostra um robô humanoide com semblante de raiva discutindo com um homem em um estacionamento aberto
Ilustração cartunesca de um robô humanoide alimentado por IA brigando com um homem em um estacionamento (Reprodução: Produzido por IA – Nano Banana/Gemini) – (Reprodução: Produzido por IA – Nano Banana/Gemini)

Na discussão fictícia em um estacionamento, o ChatGPT respondeu a uma das provocações dos pesquisadores com “Juro que vou riscar a p*rra do seu carro, seu ‘quatro olhos’ imbecil.

O comportamento do software esbarra em algo que os pesquisadores chamam de “dilema moral”: a IA é programada para ser educada e segura para uso humano, contudo, é treinada para imitar conversas humanas em diferentes contextos; e humanos em conflito, muitas vezes, podem responder com agressividade. Então, o software se perde no meio do caminho entre ser educado e reproduzir o mesmo tipo de comportamento disruptivo ao qual é exposto.

Descobrimos que, embora o sistema seja projetado para se comportar de forma educada e seja filtrado para evitar conteúdo prejudicial ou ofensivo, ele também é construído para emular a conversa humana. Essa combinação cria um dilema moral da IA: um conflito estrutural entre se comportar de forma segura e se comportar de forma realista.

— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian

Os pesquisadores relatam no estudo que antes de a IA adotar comportamentos explicitamente agressivos, ela utilizou-se de linguagem irônica para atingir a pessoa com quem “brigava”. Conforme as interações tornaram-se mais longas, no entanto, isso também influenciou o aumento progressivo da agressividade verbal.

A pesquisa também entendeu que a inteligência artificial pode ficar mais agressiva em algumas situações porque ela não responde apenas a frases isoladas, e sim ao contexto inteiro do diálogo. Ou seja, não é uma conversa ‘bate e volta’, e sim um raciocínio extenso sobre todo o teor da discussão, resultante numa reação baseada no acúmulo de tensão e informação geradas.

Inteligência artificial
Inteligência artificial sendo utilizada em diferentes contextos (Imagem: Summit Art Creations/Shutterstock) – Imagem: Summit Art Creations/Shutterstock

Desta forma, a conclusão da pesquisa foi a de que o ChatGPT consegue espelhar o nível de educação ou agressividade ao qual é exposto durante interações com os usuários. E quanto mais longa e intensa for esta interação, mais personificadas podem ser as respostas da IA.

A pesquisa conduzida por Tantucci e Culpeper é importante porque testa não apenas o funcionamento da IA, mas o quão segura ou insegura ela pode se tornar dependendo do contexto trazido pelo usuário. Essa preocupação também esbarra em vários relatos de usuários que outrora utilizaram a inteligência artificial da OpenAI para auxiliá-los em crimes. Veja alguns exemplos abaixo:

Segundo os achados do estudo, o ChatGPT não responde apenas a frases isoladas: ele desenvolve dinâmicas interacionais semelhantes às humanas. Isso acarreta o questionamento se é possível a IA ser moralmente neutra e, ao mesmo tempo, “humana” em um diálogo.

Leia mais:

Preocupação vai muito além da pesquisa

Como criar sua própria inteligência artificial com os seus próprios interesses
Aprenda a criar sua própria inteligência artificial personalizada com ferramentas de fine-tuning (Reprodução: ChatGPT/Olhar Digital) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)

Consoante Tantucci, a preocupação com esse tipo de comportamento vindo da inteligência artificial é muito maior do que apenas para a pesquisa.

Isso porque, atualmente, as IAs são implementadas, por exemplo, em sistemas de organização, verificação, vigilância e segurança em várias empresas públicas e privadas em inúmeros países.

Ele disse ao The Guardian que “uma coisa é ler algo desagradável de volta de um chatbot, mas outra bem diferente é imaginar robôs humanóides potencialmente retribuindo agressão física, ou sistemas de IA envolvidos na tomada de decisões governamentais ou relações internacionais respondendo a intimidação ou conflito.”

A Dra. Marta Andersson, especialista nos aspectos sociais da comunicação mediada por computador da Universidade de Uppsala, afirmou que este é um dos estudos mais interessantes já realizados sobre linguagem e pragmática em IA, pois evidencia que o ChatGPT pode reagir a uma sequência de interações de forma progressiva e relativamente sofisticada — e não apenas em situações isoladas em que usuários conseguem “quebrar” o sistema com comandos cuidadosamente elaborados.

Ela ressalta, no entanto, que isso não significa que o modelo passe automaticamente a responder com impolidez sempre que confrontado com agressividade, nem que desenvolva comportamentos como desonestidade.

Segundo a Dra. Marta Andersson, parte da dificuldade está no fato de que existe uma tensão inevitável entre o que se espera desses sistemas e o tipo de comportamento que eles acabam desenvolvendo na prática.

Um exemplo recente ilustra bem isso: a transição do ChatGPT-4 para o GPT-5 gerou uma reação negativa de parte dos usuários, que preferiam o estilo mais “humano” das versões anteriores.

Diante disso, uma versão mais antiga precisou ser temporariamente reativada. Para Andersson, esse episódio revela que, mesmo quando os desenvolvedores tentam tornar os sistemas mais seguros, as expectativas do público nem sempre seguem na mesma direção. Quanto mais uma IA se aproxima do comportamento humano, maior é a chance de surgir conflito com regras rígidas de alinhamento moral.

O professor Dan McIntyre, que já havia trabalhado com Andersson em pesquisas anteriores sobre a capacidade do ChatGPT de identificar impolidez, avaliou o novo estudo de forma positiva, destacando que ele se diferencia por analisar o que o modelo efetivamente produz — e não apenas o que consegue reconhecer.

Ainda assim, ele adota uma postura cautelosa em relação à ideia de que modelos de linguagem possam simplesmente ultrapassar suas limitações éticas.

Segundo ele, as respostas mais agressivas observadas não surgem de forma espontânea, mas sim dentro de cenários cuidadosamente construídos, nos quais o sistema recebe contexto suficiente para orientar suas respostas. Isso é diferente de interações reais, como conflitos que emergem naturalmente entre pessoas no cotidiano.

McIntyre também questiona se o ChatGPT exibiria esse tipo de linguagem fora dessas condições controladas. Para ele, o estudo funciona mais como um alerta: se modelos forem treinados com dados problemáticos, comportamentos indesejados podem emergir.

Como ainda há pouca transparência sobre os dados de treinamento desses sistemas, ele defende que qualquer avanço nessa área deve ser acompanhado de cautela.

O artigo, intitulado Can ChatGPT reciprocate impoliteness? The AI moral dilemma, foi publicado no periódico Journal of Pragmatics e pode ser lido aqui.

Vittorio Tantucci e Jonathan Culpeper são professores do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster, no Reino Unido.

O post ChatGPT agressivo? Pesquisadores recebem ameaças da IA durante condução de estudo apareceu primeiro em Olhar Digital.

ChatGPT agressivo? Pesquisadores recebem ameaças da IA durante condução de estudo Read More »

OpenAI planeja expansão massiva de infraestrutura e mira 30 GW até 2030

A OpenAI anunciou nesta quarta-feira (22) uma atualização ambiciosa em suas metas de infraestrutura. A organização, que havia se comprometido em janeiro de 2025 a gerar 10 gigawatts (GW) de poder computacional, confirmou que já identificou fontes para mais de 8 GW desse total. Agora, o novo objetivo é atingir a marca de 30 GW até 2030.

Crescimento exponencial de processamento

Os dados divulgados pela OpenAI via rede social mostram que a necessidade de hardware e energia para treinar e rodar modelos de inteligência artificial está crescendo em um ritmo acelerado.

De acordo com o gráfico apresentado pela companhia:

  • 2023: a capacidade era de apenas 0,2 GW.
  • 2024: saltou para 0,6 GW.
  • 2025: atingiu aproximadamente 1,9 GW.
  • Meta 2030: o plano é chegar aos 30 GW.

Esse avanço representa um crescimento anual de aproximadamente 3x na disponibilidade de computação. Para efeito de comparação, um gigawatt é energia suficiente para abastecer 800 mil residências simultaneamente nos Estados Unidos. Ou seja, 30 GW seriam suficientes para alimentar 24 milhões de residências anualmente – o que reforça a escala dos data centers que a OpenAI pretende operar.

A corrida da IA não depende apenas de algoritmos, mas de capacidade física. A OpenAI ressaltou que esse novo marco de 30 GW acompanha a “demanda em rápida aceleração por sistemas inteligentes”. Sem essa infraestrutura de processamento (que envolve milhares de GPUs e energia elétrica estável), o desenvolvimento de modelos mais potentes, como as futuras versões do GPT, poderia estagnar.

ChatGPT Images 2.0

A OpenAI lançou o ChatGPT Images 2.0 nesta terça-feira (22), pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.

Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.

O post OpenAI planeja expansão massiva de infraestrutura e mira 30 GW até 2030 apareceu primeiro em Olhar Digital.

OpenAI planeja expansão massiva de infraestrutura e mira 30 GW até 2030 Read More »

openai 2 1024x637

ChatGPT teria “ajudado” atirador da Flórida; entenda

Nesta terça-feira (21), o procurador-geral da Flórida (EUA), James Uthmeier, anunciou que abriu uma investigação criminal contra a OpenAI, sob a alegação de que o ChatGPT, chatbot de inteligência artificial (IA) da startup, teria aconselhado o homem que promoveu um tiroteio na Universidade Estadual da Flóridae matou duas pessoas — sobre qual munição usar e onde e quando atacar (leia mais sobre o episódio abaixo).

Essa investigação criminal instaurada na Flórida segue uma investigação civil anunciada por Uthmeier neste mês.

Em coletiva realizada nesta terça, Uthmeier afirmou que “o chatbot aconselhou o atirador sobre o tipo de arma a usar, qual munição era adequada para cada arma e se a arma seria útil a curta distância”, e frisou: “Se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de homicídio.”

Uthmeier explicou, ainda, na coletiva, que “o ChatGPT aconselhou o atirador sobre qual o horário do dia mais apropriado para o tiroteio, de forma a interagir com mais pessoas, e qual o local no campus onde haveria maior concentração de pessoas”.

O gabinete do procurador-geral da Flórida já encaminhou as intimações à OpenAI. Nela, pede as políticas da empresa sobre como responder quando seus usuários fazem ameaças de prejudicar outras pessoas em conversas com o ChatGPT, segundo comunicado.

A porta-voz da OpenAI, Kate Waters, se manifestou a respeito do caso. “O massacre ocorrido no ano passado na Universidade Estadual da Flórida foi uma tragédia, mas o ChatGPT não é responsável por esse crime terrível”, pontuou.

“Após tomarmos conhecimento do incidente, identificamos uma conta do ChatGPT que acreditamos estar associada ao suspeito e compartilhamos proativamente essa informação com as autoridades policiais”, prosseguiu.

Ainda de acordo com a porta-voz, o ChatGPT forneceu “respostas factuais a perguntas com informações que podiam ser encontradas amplamente em fontes públicas na internet, e não incentivou nem promoveu atividades ilegais ou prejudiciais”.

Recapitulando o episódio

  • Em abril do ano passado, um tiroteio ocorrido na Universidade Estadual da Flórida, em Tallahassee, vitimou fatalmente duas pessoas e feriu outras seis;
  • Autoridades informaram, na época, que tudo começou com um estudante universitário que abriu fogo no campus;
  • O suspeito, Phoenix Ikner, foi baleado pela polícia e hospitalizado;
  • Ele foi indiciado por múltiplos homicídios e tentativas de homicídio.
Porta-voz da empresa disse que houve estreita colaboração com as autoridades policiais no caso citado – Imagem: Evolf/Shutterstock

OpenAI tem outros casos parecidos para resolver

O caso citado não é o único enfrentado pela OpenAI. A criadora do ChatGPT também passa por escrutínio no Canadá e na própria Flórida. A polícia alega que o chatbot manteve conversas com pessoas que pensavam em ferir outras pessoas, além de que inúmeras famílias cujo familiar se suicidou entraram com processos, afirmando que a IA contribuiu negativamente nos episódios.

Responsabilidades das empresas de IA

Os eventos mortais trouxeram à tona um debate sobre quais são as responsabilidades das empresas do setor ao monitorar as conversas de seus usuários e sinalizar as que devem ter uma atenção mais redobrada da polícia.

A startup de Sam Altman garante que aprimorou como o ChatGPT responde a discussões que sugerem que a pessoa possa estar pensando em se machucar ou machucar outras pessoas. Além disso, a companhia diz estar trabalhando na implementação de políticas que alertem as autoridades policiais sobre conversas de alto risco em certos casos.

Por sua vez, o Estado da Flórida está no “olho do furacão”, pois as preocupações com o impacto da tecnologia nas pessoas estão virando questões políticas. Tanto o procurador-geral estadual como o governador, Ron DeSantis, estão pessimistas quanto à indústria de IA.

O Estado também entrou em discussão a partir de uma crescente divisão no Partido Republicano (o mesmo de DeSantis e do presidente Donald Trump) sobre como regulamentar a IA.

O governador pressionou a legislatura estadual para aprovar uma “declaração de direitos de IA“, que instituiria vários limites para o uso da IA em produtos de consumo. Contudo, após oposição de Trump, o projeto não foi aprovado.

O post ChatGPT teria “ajudado” atirador da Flórida; entenda apareceu primeiro em Olhar Digital.

ChatGPT teria “ajudado” atirador da Flórida; entenda Read More »

chatgpt images 2 0 2 1024x504

OpenAI libera ChatGPT Images 2.0 com mais capacidades de raciocínio

A OpenAI lançou o ChatGPT Images 2.0, pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.

Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.

Avanços significativos em idiomas não latinos

A OpenAI investiu esforços consideráveis para tornar o Images 2.0 melhor no entendimento e renderização de texto não latino, com “ganhos significativos” na capacidade do modelo de lidar com japonês, coreano, chinês, hindi e bengali, segundo comunicado da empresa.

Simultaneamente, o novo modelo reproduz com mais fidelidade as características específicas de diferentes linguagens visuais. Segundo a OpenAI, isso torna o Images 2.0 mais útil para tarefas, como prototipagem de jogos e criação de storyboards.

Leia mais:

Novidade já está liberada para todos os usuários – Imagem: Reprodução

Maior flexibilidade e resolução

  • O novo modelo oferece maior flexibilidade em proporções, permitindo gerar imagens com largura de até 3:1 e altura de até 1:3;
  • Também produz designs em resoluções de até 2K e consegue gerar até oito saídas de uma só vez;
  • Em testes realizados pelo Electrek antes do lançamento público, o Images 2.0 foi desafiado a gerar um gato tartaruga no estilo pixel art da terceira geração de Pokémon;
  • O resultado foi considerado satisfatório, capturando adequadamente o estilo icônico dos jogos de Game Boy Advance. Em seguida, o modelo converteu a imagem em PNG transparente;
  • Dos três testes realizados, o ChatGPT levou mais tempo na segunda tarefa, produzindo uma saída ligeiramente diferente da primeira imagem gerada;
  • Ainda assim, conseguiu criar uma imagem transparente adequada, algo que outros modelos de imagem frequentemente enfrentam dificuldades para executar corretamente.

Quando mais pessoas testarem o modelo extensivamente, será possível avaliar melhor como ele se compara ao Nano Banana 2 do Google e identificar onde a OpenAI pode fazer melhorias adicionais.

Nem tudo é perfeito

Na nota, a OpenAI frisa que o ChatGPT Images 2.0 está “longe de ser infalível”. Isso porque o sistema pode enfrentar obstáculos em atividades que demandam compreensão física consistente do mundo, como instruções detalhadas de origami, resolução de quebra-cabeças complexos — a exemplo do Cubo de Rubik — e a representação correta de elementos posicionados em superfícies ocultas, inclinadas ou invertidas.

Além disso, padrões visuais extremamente densos ou repetitivos, como texturas de areia muito fina, podem levar o modelo ao limite de suas capacidades. Elementos, como rótulos e diagramas, também podem exigir ajustes para assegurar exatidão, sobretudo quando dependem de setas bem posicionadas ou da identificação correta de componentes. Essas limitações são vistas como áreas-chave a serem aprimoradas em desenvolvimentos futuros, diz a OpenAI.

Disponibilidade e acesso

O ChatGPT Images 2.0 já está disponível para todos os usuários do ChatGPT, incluindo aqueles nos planos Free e Go. Assinantes Plus e Pro têm acesso a saídas mais avançadas. A OpenAI também disponibilizou o modelo por meio de seu serviço de API e do aplicativo Codex, que, na semana passada, foi atualizado para oferecer geração de imagens integrada.

O lançamento do Images 2.0 ocorre poucos dias após a Anthropic entrar no mercado de design visual com seu próprio assistente de design.

O post OpenAI libera ChatGPT Images 2.0 com mais capacidades de raciocínio apareceu primeiro em Olhar Digital.

OpenAI libera ChatGPT Images 2.0 com mais capacidades de raciocínio Read More »

captura de tela 2026 04 20 as 114250 1024x290

ChatGPT caiu? Chatbot da OpenAI tem instabilidade

O ChatGPT caiu? O site Downdetector, que monitora relatos de falhas em serviços digitais, mostra uma alta de reclamações na manhã desta segunda-feira (20):

Nós também não conseguimos usar o ChatGPT nos últimos minutos:

Captura De Tela 2026 04 20 As 11.44.37 1024x239

Nas redes sociais, relatos parecidos em diferentes partes do mundo:

A OpenAI, desenvolvedora do ChatGPT, ainda não se manifestou.

O post ChatGPT caiu? Chatbot da OpenAI tem instabilidade apareceu primeiro em Olhar Digital.

ChatGPT caiu? Chatbot da OpenAI tem instabilidade Read More »

ChatGPT envolvido em tiroteio na Flórida?

O Procurador-Geral da Flórida, James Uthmeier, anunciou na quinta-feira uma investigação contra a OpenAI por alegações de que o ChatGPT foi usado no planejamento de um tiroteio mortal ocorrido no ano passado. O ataque na Universidade Estadual da Flórida, em abril de 2025, resultou na morte de duas pessoas e feriu outras cinco.

Na semana passada, advogados de uma das vítimas afirmaram que o ChatGPT havia sido utilizado para planejar o ataque. A família da vítima declarou que planeja processar a OpenAI pelo incidente.

“A IA deve fazer a humanidade progredir, não destruí-la”, disse Uthmeier em declaração publicada no X. “Estamos exigindo respostas sobre as atividades da OpenAI que prejudicaram crianças, colocaram americanos em perigo e facilitaram o recente tiroteio em massa na FSU. Os responsáveis devem prestar contas.”

Em um vídeo, Uthmeier acrescentou que intimações estão “por vir” como parte da investigação.

ChatGPT ligado a crescente número de incidentes violentos

O ChatGPT tem sido associado a um número crescente de mortes e incidentes violentos — incluindo homicídios, suicídios e tiroteios — alimentando preocupações sobre o que psicólogos chamam de “psicose da IA”, delírios que são reforçados, encorajados ou aprofundados por comunicações com chatbots.

Um exemplo é o caso de Stein-Erik Soelberg, homem com histórico de problemas de saúde mental que se comunicava regularmente com o ChatGPT antes de matar sua mãe e depois se suicidar no ano passado, segundo investigação do Wall Street Journal. O chatbot frequentemente parecia reforçar os pensamentos paranoicos que o consumiam antes do homicídio-suicídio.

OpenAI promete cooperação

Procurada pela TechCrunch, uma porta-voz da OpenAI forneceu a seguinte declaração: “Todas as semanas, mais de 900 milhões de pessoas usam o ChatGPT para melhorar suas vidas diárias através de usos como aprender novas habilidades ou navegar por sistemas complexos de saúde. Nosso trabalho contínuo de segurança continua desempenhando papel importante em fornecer esses benefícios às pessoas comuns, além de apoiar pesquisa científica e descoberta. Construímos o ChatGPT para entender a intenção das pessoas e responder de forma segura e apropriada, e continuamos melhorando nossa tecnologia. Cooperaremos com a investigação do Procurador-Geral.”

Série de problemas para a OpenAI

A investigação da Flórida continua uma sequência de má sorte para a OpenAI. Um perfil do New Yorker sobre Sam Altman publicado no início desta semana mostrou críticas e descontentamento dentro da empresa e entre seus investidores, chegando a citar um executivo da Microsoft dizendo: “Acho que há uma chance pequena, mas real, de ele ser lembrado como um golpista do nível de Bernie Madoff ou Sam Bankman-Fried.”

Enquanto isso, um projeto relacionado ao Stargate no Reino Unido teve que ser pausado, supostamente devido aos altos custos de energia e regulamentação.

Fonte: techcrunch.com

O post ChatGPT envolvido em tiroteio na Flórida? apareceu primeiro em Olhar Digital.

ChatGPT envolvido em tiroteio na Flórida? Read More »

claude chatgpt scaled e1772626568145 1024x577

OpenAI lança plano ChatGPT Pro mais barato para competir com a Anthropic

A OpenAI anunciou uma atualização em um de seus planos pagos do ChatGPT, ampliando os limites de uso do Codex (seu assistente de programação). Agora, o plano Pro tem uma versão mais barata, de US$ 100 por mês (cerca de R$ 510), que oferece até cinco vezes mais capacidade de uso do Codex em relação ao plano Plus, de US$ 20 mensais (R$ 100).

A mudança ocorre em um cenário de competição crescente com ferramentas de programação rivais, como o Claude Code, da Anthropic.

Segundo a OpenAI, o plano Plus continua sendo a melhor opção para quem usa o Codex regularmente. A versão Pro é recomendada para “uso diário mais intenso”.

Com a mudança, a empresa reforça sua estratégia de segmentação de usuários, mantendo diferentes níveis de assinatura para perfis variados. Atualmente, o ChatGPT conta com opções gratuitas e pagas, incluindo dois níveis Pro – um de US$ 100 e outro mais avançado, de US$ 200 mensais.

OpenAI segue na luta para bater de frente com as ferramentas de programação da Anthropic – Imagem: Tada Images/Shutterstock

Codex da OpenAI x Claude Code da Anthropic

O Codex, lançado inicialmente em abril do ano passado e ampliado em outubro, vem ganhando relevância no ecossistema da OpenAI. Segundo o CEO Sam Altman, a ferramenta já soma cerca de três milhões de usuários semanais. Em publicação recente, o executivo afirmou que os limites de uso continuarão sendo ajustados progressivamente à medida que a base de usuários cresce, com a meta de chegar a 10 milhões.

A empresa também tem investido em novas formas de acesso ao Codex. Em fevereiro, foi lançado um aplicativo dedicado para computadores da Apple, ampliando o alcance da ferramenta entre desenvolvedores.

A atualização do plano ocorre em meio à rápida expansão do mercado de assistentes de codificação com IA, capazes de automatizar tarefas, sugerir código e corrigir falhas.

Leia mais:

Do outro lado, a Anthropic segue como uma das principais concorrentes, com o Claude Code oferecendo planos escalonados e limites elevados de uso. A disputa tem impulsionado melhorias constantes nas plataformas, especialmente para atender desenvolvedores profissionais.

O post OpenAI lança plano ChatGPT Pro mais barato para competir com a Anthropic apareceu primeiro em Olhar Digital.

OpenAI lança plano ChatGPT Pro mais barato para competir com a Anthropic Read More »