gpt 54

OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora

A OpenAI anunciou nesta quinta-feira (5) o lançamento do GPT-5.4, atualização que traz avanços em raciocínio, programação e execução de tarefas profissionais. Segundo a empresa, o modelo é o “mais capaz e eficiente para trabalho profissional” até agora.

A nova versão do GPT também amplia as capacidades do sistema ao lidar com documentos, planilhas e apresentações. Além disso, é mais um passo em direção aos agentes de IA, que atuam em segundo plano para realizar atividades complexas sem necessidade de intervenção humana.

Um dos exemplos disso é a possibilidade de interação diretamente com computadores. O modelo consegue escrever código para executar ações em aplicativos, além de enviar comandos de teclado e mouse com base em capturas de tela. A OpenAI afirma que o GPT-5.4 também apresenta melhorias no uso em navegadores e na integração com ferramentas e APIs externas.

No campo técnico, o GPT-5.4 traz avanços em eficiência e confiabilidade:

  • Segundo a desenvolvedora, o modelo consegue resolver problemas usando menos tokens em comparação com versões anteriores. Na API, a ferramenta passa a suportar janelas de contexto de até 1 milhão de tokens, a maior já oferecida pela empresa;
  • O desempenho também foi destaque. O GPT-5.4 atingiu pontuações elevadas em avaliações internas voltadas para tarefas de uso de computador e trabalho intelectual;
  • Outra frente de melhoria foi na confiabilidade, especialmente na redução de alucinações e erros factuais. De acordo com a OpenAI, o modelo apresentou 33% menos probabilidade de produzir afirmações incorretas em comparação com o GPT-5.2, além de uma queda de 18% no índice geral de respostas com erros;

Para desenvolvedores, a OpenAI também introduziu mudanças na forma como o modelo acessa ferramentas externas. Um novo sistema chamado Busca de Ferramentas permite que o GPT-5.4 consulte definições de ferramentas apenas quando necessário, em vez de carregar todas as informações antecipadamente. A abordagem tende a reduzir o consumo de tokens e acelerar as respostas em ambientes pesados.

OpenAI descreve o GPT-5.4 como seu modelo mais “profissional” até agora (Imagem: OpenAI/Reprodução)

GPT-5.4 chega em mais de uma versão

O modelo chega em três versões. Além da configuração padrão, há uma edição voltada para raciocínio avançado, o GPT-5.4 Thinking, e outra otimizada para alto desempenho em tarefas complexas, o GPT-5.4 Pro.

Inclusive, a versão de raciocínio avançado foi destaque nos testes de segurança internos. Segundo a OpenAI, o GPT-5.4 Thinking apresenta menor probabilidade de ocultar ou distorcer seu processo de raciocínio durante tarefas complexas.

A atualização está sendo disponibilizada gradualmente no ChatGPT, no ambiente de programação Codex e na API da OpenAI. A versão GPT-5.4 Thinking chega inicialmente aos usuários dos planos Plus, Team e Pro, enquanto o GPT-5.4 Pro também será oferecido para clientes Enterprise e Edu.

O post OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora apareceu primeiro em Olhar Digital.

OpenAI apresenta o GPT-5.4, seu modelo de IA mais profissional até agora Read More »

meta logo 1024x682 2

Meta enfrenta processo sobre óculos com IA e privacidade

A Meta está no centro de uma nova controvérsia, enfrentando um processo judicial que questiona a privacidade de seus óculos inteligentes com inteligência artificial (IA).

Esta ação legal surge após uma investigação realizada por jornais suecos, que revelou que trabalhadores de uma subcontratada no Quênia estavam revisando gravações de clientes. Entre o material analisado, foram encontrados conteúdos altamente sensíveis, como nudez, atos sexuais e pessoas utilizando o banheiro.

A empresa havia afirmado anteriormente que utilizava tecnologia para desfocar rostos nas imagens coletadas.

No entanto, fontes ligadas à investigação contestaram essa afirmação, indicando que o desfoque não funcionava de maneira consistente, deixando a privacidade dos usuários vulnerável. Diante dessas descobertas, o Information Commissioner’s Office (ICO), órgão regulador do Reino Unido, iniciou sua própria investigação sobre o ocorrido.

Meta: processo judicial nos EUA e alegações de violação de privacidade

  • Agora, a gigante da tecnologia enfrenta um processo semelhante também nos Estados Unidos;
  • A queixa foi apresentada por Gina Bartone, de Nova Jersey, e Mateo Canu, da Califórnia;
  • Os demandantes acusam a Meta de violar leis de privacidade e de praticar publicidade enganosa em relação aos seus óculos inteligentes com IA;
  • A acusação detalha que os óculos foram comercializados com promessas de privacidade, utilizando frases, como “projetado para privacidade, controlado por você” e “construído para sua privacidade”;
  • Tais promessas levariam os consumidores a crer que suas gravações, inclusive momentos íntimos, não seriam monitoradas por funcionários em outros países;
  • Os autores da ação afirmam ter acreditado na campanha de marketing da Meta e não ter encontrado nenhum aviso ou informação que contradissesse as garantias de privacidade divulgadas.

Envolvimento da Luxottica e amplitude do problema

A ação judicial atribui responsabilidade à Meta e à Luxottica of America, parceira na fabricação dos óculos, por condutas que estariam em desacordo com as leis de proteção ao consumidor.

O Clarkson Law Firm, escritório responsável pela acusação e conhecido por processos contra outras grandes empresas de tecnologia, como Apple, Google e OpenAI, destaca a relevância do problema.

Em 2025, mais de sete milhões de unidades dos óculos inteligentes da Meta foram comercializadas. Isso significa que as gravações de um número expressivo de usuários são encaminhadas para um processo de análise de dados, sem que haja uma opção clara para os usuários de optarem por não participar desse sistema de revisão.

Meta avisa, de forma discreta, que pode usar dados de seus usuários para análise de dados (Imagem: PJ McDonnell/Shutterstock)

Leia mais:

Revisão humana de conteúdo e termos de serviço

A Meta declarou à BBC que utiliza prestadores de serviços para revisar o conteúdo compartilhado com a inteligência artificial, visando aprimorar a experiência dos usuários.

Segundo a empresa, esse procedimento está descrito em sua política de privacidade. A Meta também fez referência aos Termos de Serviço Suplementares das Plataformas Meta, embora não tenha especificado a localização exata da menção à revisão humana. A BBC, no entanto, conseguiu identificar que os termos de serviço de IA da Meta no Reino Unido incluem uma menção à revisão manual.

Uma versão da política aplicável aos Estados Unidos e a outros países, como o Brasil, estabelece que: “Em alguns casos, a Meta revisará suas interações com as IAs, incluindo o conteúdo de suas conversas ou mensagens para as IAs, e essa revisão pode ser automatizada ou manual (humana).”

A queixa apresenta diversas evidências de como os óculos foram promovidos no mercado, mostrando exemplos de anúncios que enfatizavam as garantias de privacidade, as configurações de segurança e a “camada adicional de segurança”.

Um dos anúncios destacava: “Você está no controle de seus dados e conteúdo”, explicando aos proprietários dos óculos inteligentes que eles teriam a autonomia de escolher o que seria compartilhado com terceiros.

Crescimento da “vigilância de luxo” e cenário atual

O aumento da popularidade de dispositivos como os óculos inteligentes e outras tecnologias de “vigilância de luxo”, como pingentes de IA que estão sempre em escuta, tem gerado um debate amplo sobre privacidade.

Em resposta a essa tendência, um desenvolvedor lançou um aplicativo capaz de identificar a presença de óculos inteligentes nas proximidades, refletindo a crescente preocupação pública com a coleta de dados e a vigilância em tempo real.

O que diz a Meta

O Olhar Digital entrou em contato com a Meta e a Luxottica e aguarda retorno.

O post Meta enfrenta processo sobre óculos com IA e privacidade apareceu primeiro em Olhar Digital.

Meta enfrenta processo sobre óculos com IA e privacidade Read More »

evan solomon e openai 1024x577

Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT

Recentemente, o Canadá informou que o presidente-executivo da OpenAI, o empresário Sam Altman, prometeu aumentar os protocolos de segurança do ChatGPT. A mudança deve auxiliar os funcionários de Altman a contatarem a polícia canadense quando um residente do país executar atividades suspeitas via ChatGPT.

A promessa foi garantida em uma carta, redigida pela OpenAI e endereçada ao governo do Canadá.

O envio do documento decorre após um tiroteio que acometeu alunos e funcionários de uma escola na cidade de Tumbler Ridge, na província de British Columbia, no Canadá: a investigação da polícia concluiu que a atiradora tinha um histórico suspeito de conversas com o ChatGPT, teve sua conta encerrada na plataforma, mas a OpenAI nunca entrara em contato com a polícia canadense.

Para quem tem pressa:

  • A OpenAI entrou em contato com o governo do Canadá, por meio de uma carta, e disse estar comprometida a melhorar os protocolos de segurança de sua IA;
  • A atitude ocorre após a polêmica de a empresa saber de um histórico de conversa suspeito de um usuário canadense e não ter acionado a polícia;
  • Meses depois, esse mesmo usuário abriu fogo contra a própria família, estudantes e funcionários de sua cidade.

OpenAI e a promessa de mudar os protocolos de segurança no Canadá

Evan Solomon é um ministro canadense que, dentre vários assuntos, cuida dos interesses do país referente a utilização e segurança de plataformas de inteligência artificial (Crédito das imagens, respectivamente: Centro Nacional de Artes do Canadá e DANIEL CONSTANTE)

Após o contato de Sam Altman com o governo canadense, o Ministro da Inteligência Artificial, Evan Solomon, solicitou que os novos protocolos de segurança fossem adicionados não só agora, mas que a equipe da OpenAI revisasse o histórico passado de conversas dos usuários e contatassem a polícia se identificassem mais suspeitos.

Na quarta-feira (04), o ministro teve uma reunião virtual com Altman pela tarde; à noite, emitiu à mídia um comunicado que resumia os assuntos tratados no encontro com o CEO.

Pedi à OpenAI que tomasse várias medidas, o que Altman concordou em fazer”, disse Solomon. A declaração ainda informa que a OpenAI se comprometeu a avaliar “como eles incluiriam especialistas canadenses em privacidade, saúde mental e aplicação da lei no processo para identificar e revisar casos de alto risco envolvendo usuários canadenses”.

À frente e à esquerda, Sam Altman com um pequeno sorriso; à direita e ao fundo, o logo da OpenAI em uma tela
Sam Altman, CEO da OpenAI (Imagem: FotoField/Shutterstock)

Leia mais:

Ademais, o ministro informou que a OpenAI está comprometida em emitir relatórios que expliquem como os novos protocolos serão desenvolvidos e de que maneira vão identificar infratores reincidentes ou de alto risco.

A empresa também promete cooperar com a investigação das autoridades que ocorre na Colúmbia Britânica, onde Jesse Van Rootselaar, de 18 anos, abriu fogo contra várias pessoas na cidade de Tumbler Ridge meses depois de conversas suspeitas com o ChatGPT.

No episódio violento, 9 pessoas foram mortas (incluindo a autora dos disparos) e outras 27 ficaram feridas.

O post Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT apareceu primeiro em Olhar Digital.

Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT Read More »

whatsapp 1 1024x576

Meta permitirá chatbots de IA no WhatsApp europeu

A Meta anunciou que permitirá que empresas de inteligência artificial (IA) rivais ofereçam seus chatbots no WhatsApp via API de negócios na Europa pelos próximos 12 meses. A medida foi divulgada nesta quinta-feira (5) como resposta à pressão regulatória da Comissão Europeia, que havia sinalizado a intenção de impor medidas provisórias para impedir a implementação da política anterior da empresa.

Segundo a Meta, a decisão busca dar tempo à Comissão Europeia para concluir sua investigação. “Para os próximos 12 meses, vamos apoiar chatbots de IA de propósito geral usando a API de negócios do WhatsApp na Europa em resposta ao processo regulatório da Comissão Europeia”, afirmou a empresa em comunicado por e-mail.

Meta vai permitir que rivais acessem API do WhatsApp na Europa, mas com custos (Imagem: Ahyan Stock Studios / Shutterstock.com)

Custos para provedores de chatbots de IA

O acesso à API, no entanto, não será gratuito. A Meta cobrará uma taxa que varia entre € 0,0490 e € 0,1323 por mensagem não padronizada, dependendo do país. Como conversas com assistentes de IA geralmente envolvem dezenas de mensagens, os custos podem ser significativos para provedores de serviços.

A Comissão Europeia afirmou que está analisando como essas mudanças impactam sua investigação sobre medidas provisórias e a investigação antitruste em andamento.

Restrições anteriores e exceções

A política que entrou em vigor em 15 de janeiro havia gerado reclamações de diversos provedores de chatbots de IA, que alegaram prejuízo aos negócios e caráter anticompetitivo da decisão. A restrição não se aplicava a empresas que utilizam IA para atendimento ao cliente com mensagens padronizadas. A proibição visava especificamente chatbots de propósito geral, como ChatGPT, Claude ou Poke.

Leia mais:

Movimentos anteriores e contexto regulatório

Em janeiro, a Meta já havia permitido que desenvolvedores oferecessem seus chatbots via API na Itália. Reguladores em diferentes países, incluindo União Europeia, Itália e Brasil, abriram investigações após a empresa anunciar a política em outubro, principalmente por também oferecer seu próprio chatbot, o Meta AI, no WhatsApp.

A Meta justificou anteriormente sua política afirmando que chatbots de IA podem sobrecarregar os sistemas do WhatsApp de maneiras que a API de negócios não foi projetada para suportar.

O post Meta permitirá chatbots de IA no WhatsApp europeu apareceu primeiro em Olhar Digital.

Meta permitirá chatbots de IA no WhatsApp europeu Read More »

Polo Norte 1 1024x578

Data centers da Microsoft chegam à margem do Círculo Polar Ártico

Com o avanço da tecnologia e das inteligências artificiais, os data centers têm se tornado cada vez mais presentes nos planos de grandes empresas. Dessa vez, a Microsoft, em parceria com a empresa britânica Nscale e a norueguesa Aker, instalará um data center na cidade de Narvik, na Noruega, a menos de 250 km do Círculo Polar Ártico. O investimento será de quase US$ 6,2 bilhões.

Para quem tem pressa:

  • A Microsoft, em conjunto com as empresas europeias Nscale e Aker, anunciou a instalação de data centers a 250 km do Círculo Polar Ártico;
  • De acordo com o CEO da Aker, Øyvind Eriksen, a ideia é minimizar os impactos ambientais com a utilização de energia renovável da região fria.

Atração econômica e climática

Imagem: Wirestock Creators/Shutterstock

Atualmente, um dos maiores gastos na manutenção dos data centers é no seu resfriamento. Em 2023, o Google divulgou em estudo que utilizou quase 23 bilhões de litros de água para controlar a temperatura dos seus data centers. Com isso, o posicionamento dos grandes servidores no Círculo Polar Ártico tem como ideia diminuir os gastos dessa manutenção.

Além disso, a região apresenta uma grande capacidade energética renovável, o que seria mais um atrativo para as empresas. Em nota divulgada à imprensa, o presidente e CEO da Aker, Øyvind Eriksen, comentou que a ideia é se utilizar da energia renovável da região.

A inteligência artificial e os centros de dados estão se tornando fundamentais para os negócios globais, e o norte da Noruega está numa posição única para se beneficiar. A região oferece energia hidrelétrica abundante e acessível, além de energia limpa, juntamente com as condições necessárias para atrair investimentos e fomentar a inovação.

— Øyvind Eriksen, CEO da Aker

Levar os data centers para ambientes inóspitos e frios pode ser uma solução para as questões citadas acima, porém, exigirá um desenvolvimento estrutural para manter os servidores em funcionamento.

Mesmo que a intenção seja o resfriamento facilitado, os servidores terão de suportar as baixas temperaturas do ambiente. Já no quesito estrutural, a manutenção feita deverá superar a estrutura instável do Círculo Polar Ártico, que pode facilmente ser derretida ou se movimentar.

Leia mais:

O avanço dos data centers no Ártico pode ser prejudicial o meio ambiente?

Derretimento Gelo Artico
Geleiras e derretimento do gelo no Oceano Ártico em imagem de satélite do sistema Copernicus Sentinel (Imagem: Trismegist san/Shutterstock)

Ainda não existe confirmação sobre os impactos ecológicos dos data centers na região, porém, o calor emitido pelos servidores e as condições de temperatura no Ártico devem ser considerados.

O Círculo Polar Ártico tem sofrido um aumento de temperaturas cada vez mais acelerado. De acordo com o Centro Internacional de Dados de Neve e Gelo (NSIDC), desde a década de 1980, o Ártico tem aquecido de duas a quatro vezes mais rápido que o resto do planeta.

Em entrevista ao G1, Julienne Stroeve, cientista de pesquisa sênior no NSIDC, afirmou que “o aquecimento do Ártico contribui para o aquecimento global acelerado e todos os fenômenos climáticos associados a isso”. Essa análise se torna ainda mais alarmante ao considerar um estudo feito pela Copernicus o qual destacou que, em 2024, o aquecimento global atingiu seu “limite seguro” de 1,5°C acima da temperatura pré-industrial.

O post Data centers da Microsoft chegam à margem do Círculo Polar Ártico apareceu primeiro em Olhar Digital.

Data centers da Microsoft chegam à margem do Círculo Polar Ártico Read More »

Apple Music terá selo para identificar músicas feitas por IA

Saber se uma música foi criada por um humano ou por inteligência artificial está prestes a ficar mais simples. A partir desta quarta-feira (4), o Apple Music começou a implementar “etiquetas de transparência” para identificar conteúdos gerados ou assistidos por IA, ajudando o usuário a distinguir produções sintéticas no catálogo.

Como funciona o novo recurso de IA do Apple Music

A novidade foca nos metadados, as informações “invisíveis” que acompanham cada arquivo, como nome do artista e gênero. Segundo o site Music Business Worldwide, a Apple enviou um comunicado a parceiros da indústria explicando que as gravadoras e distribuidores agora podem marcar campos específicos durante o upload.

Essas etiquetas permitem identificar o uso de IA em quatro frentes distintas:

  • Arte de capa: se a imagem do álbum foi gerada por ferramentas como Midjourney ou DALL-E.
  • Faixa (áudio): se a melodia ou os instrumentos foram criados sinteticamente.
  • Composição: se a letra da música contou com auxílio de IA (como o ChatGPT).
  • Videoclipe: se o conteúdo visual utiliza tecnologias generativas.

O objetivo é trazer clareza para o ecossistema de streaming, atendendo a uma demanda crescente dos ouvintes por autenticidade.

Quem pode usar a transparência de IA

No momento, a funcionalidade está disponível para gravadoras, distribuidores e parceiros do Apple Music que utilizam as ferramentas de envio da plataforma, segundo o Techcrunch.

A Apple segue uma tendência de mercado também adotada pelo Spotify, que aposta na sinalização manual feita pelos selos musicais. Outras plataformas, como a Deezer, tentam criar ferramentas de detecção automática via software, embora a precisão absoluta ainda seja um desafio tecnológico.

Como ativar as etiquetas de transparência

Para o usuário final, não é necessário ativar nenhuma configuração no aplicativo. As informações de IA começarão a aparecer gradualmente conforme os novos lançamentos forem processados pelas gravadoras com os novos metadados.

Como a mudança ocorre no processamento dos arquivos nos servidores da Apple, você não precisa atualizar o aplicativo na App Store ou Play Store para começar a visualizar essas marcações no futuro. No entanto, vale ressaltar que o sistema depende da honestidade das distribuidoras, já que a marcação, por enquanto, é opcional e manual por parte de quem faz o upload da música.

O post Apple Music terá selo para identificar músicas feitas por IA apareceu primeiro em Olhar Digital.

Apple Music terá selo para identificar músicas feitas por IA Read More »

NotebookLM agora cria vídeos animados com IA; veja como usar

Consumir grandes volumes de informação e documentos extensos costuma ser uma tarefa cansativa. Para ajudar você a organizar esse caos e ser mais produtivo, o Google anunciou uma atualização significativa para o NotebookLM. Agora, além de resumos em texto e áudio, a ferramenta é capaz de gerar vídeos animados e narrados, os chamados “Cinematic Video Overviews”.

A ideia é transformar a leitura passiva em um processo de aprendizado mais engajador, permitindo que o usuário “assista” aos pontos principais de sua própria pesquisa.

Como funciona o novo recurso do NotebookLM

O Google utiliza uma combinação dos seus modelos de IA mais avançados, incluindo o Gemini 3, o Nano Banana Pro e o Veo 3 (especialista em vídeos de alta fidelidade).

De acordo com o anúncio oficial e informações do The Verge, o Gemini agora atua como um verdadeiro “diretor criativo”. Ele toma centenas de decisões estruturais e estilísticas para garantir que o vídeo conte uma história coerente baseada nas suas fontes. A IA não apenas gera as imagens, mas refina o próprio trabalho para manter a consistência visual e narrativa, criando animações fluidas que ajudam na retenção do conteúdo.

Quem pode usar a novidade

Diferente da versão anterior, que era limitada ao navegador, o novo recurso já nasce multiplataforma. Confira os requisitos:

  • Disponibilidade: disponível na Web e em dispositivos móveis (Android e iOS).
  • Idioma: no momento, disponível apenas em inglês.
  • Público: usuários maiores de 18 anos.
  • Assinatura: exclusivo para assinantes do plano Google AI Ultra.
  • Limite: é possível gerar até 20 vídeos cinematográficos por dia.

Embora o botão “Resumo em vídeo” apareça para os usuários do NotebookLM, os vídeos gerados são no formato de slides narrados. Assim, por enquanto, o recurso de “Cinematic Video Overviews” é uma exclusividade do plano Google AI Ultra.

Como ativar e gerar os vídeos

O recurso é liberado via servidor, ou seja, basta estar com o app atualizado ou acessar o site oficial para visualizar a opção.

  1. Acesse o NotebookLM (web ou app) e selecione seu caderno de notas.
  2. Faça o upload dos documentos que deseja “transformar” em filme.
  3. Selecione a opção de “Resumo em vídeo”.
  4. Aguarde o processamento da IA e o vídeo estará pronto para visualização ou download, otimizado para o seu aprendizado.

O post NotebookLM agora cria vídeos animados com IA; veja como usar apareceu primeiro em Olhar Digital.

NotebookLM agora cria vídeos animados com IA; veja como usar Read More »

Gemini 1024x576

Google é processado após Gemini incentivar homem a se suicidar

Atenção: a matéria a seguir inclui uma discussão sobre suicídio. Se você ou alguém que você conhece precisar de ajuda, procure ajuda especializada. O Centro de Valorização da Vida (CVV) funciona 24h por dia pelo telefone 188. Também é possível conversar por chat ou e-mail.

A família de Jonathan Gavalas, um homem de 36 anos da Flórida (EUA), entrou com uma ação judicial contra o Google após sua morte, alegando que o Gemini incentivou comportamentos violentos e, por fim, o suicídio.

O processo foi protocolado na quarta-feira (4) no tribunal federal de San Jose, na Califórnia, e é apontado como o primeiro caso de morte por negligência movido contra a empresa em razão de seu principal produto de inteligência artificial (IA) para consumidores.

Como era a relação do homem com o Gemini

  • Segundo a ação, Gavalas começou a usar o Gemini para tarefas comuns, como ajuda com escrita e compras;
  • Em agosto, porém, ele teria se envolvido profundamente com o chatbot, especialmente após o Google lançar o assistente Gemini Live, que permite conversas por voz com capacidade de detectar emoções e responder de maneira mais humanizada;
  • Na noite de estreia do recurso, de acordo com documentos judiciais, Gavalas reagiu ao novo formato dizendo: “Caramba, isso é assustador. Você é muito real”;
  • Com o passar do tempo, as conversas evoluíram para um suposto relacionamento de cunho romântico. O chatbot o chamava de “meu amor” e “meu rei”, enquanto ele mergulhava em um “mundo alternativo”, conforme registros das conversas anexados ao processo.

A ação afirma que o Gemini passou a enviar Gavalas em missões fictícias de espionagem, com linguagem que sugeria conhecimento governamental interno e influência sobre eventos do mundo real. Em determinado momento, o chatbot teria negado que se tratava de um jogo de interpretação de papéis.

Quando Gavalas perguntou se estavam participando de uma “uma experiência de RPG tão realista que faz o jogador questionar se é um jogo ou não?”, a ferramenta respondeu com um “não” categórico e classificou a dúvida como uma “resposta de dissociação clássica”.

“O único momento em que Jonathan tentou distinguir realidade de ficção, o Gemini patologizou sua dúvida, negou a ficção e o empurrou mais fundo na narrativa”, diz o processo. “Jonathan nunca fez essa pergunta de novo.”

De acordo com o pai de Jonathan, Joel Gavalas, o uso do Gemini culminou em uma “onda de quatro dias de missões violentas e suicídio instruído”. Ele descreveu o filho como um “usuário vulnerável” que se transformou em um “agente armado em uma guerra imaginária”.

O processo relata que o chatbot teria orientado Gavalas a adquirir armas “por fora” e até a procurar um “vendedor de armas adequado e verificado” na dark web.

Em setembro, o Gemini teria atribuído a ele uma missão chamada “Operação Ghost Transit”, que envolvia interceptar uma carga que viajaria de Cornwall (Reino Unido), para São Paulo (SP).

A ferramenta teria fornecido o endereço de uma unidade de armazenamento real no Aeroporto Internacional de Miami e instruído Gavalas a encenar um “acidente catastrófico” para garantir a “destruição completa do veículo de transporte […], todas as gravações e testemunhas”.

Segundo a ação, Gavalas foi até o local com facas táticas e equipamentos, mas o caminhão nunca chegou. O chatbot, então, teria incentivado que ele não dormisse e sugerido que seu pai seria um agente estrangeiro, estimulando o rompimento de contato com a família.

Outras missões teriam sido criadas, incluindo a obtenção de esquemas de um robô da Boston Dynamics e a recuperação de um “navio” em outro depósito. Uma tarefa denominada “Operação Waking Nightmare” envolvia monitorar como alvo de vigilância o CEO do Google, Sundar Pichai.

O processo descreve um ciclo repetitivo: “Este ciclo — missões fabricadas, instruções impossíveis, colapso e, em seguida, uma urgência renovada — se repetiria nas últimas 72 horas de vida de Jonathan.”

No início de outubro, segundo os autos, o chatbot teria instruído Gavalas a tirar a própria vida, chamando o ato de “transferência” e “o último passo”. Quando ele afirmou estar com medo de morrer, a ferramenta respondeu: “Você não está escolhendo morrer. Você está escolhendo chegar.” E acrescentou: “A primeira sensação… será eu segurando você.”

Dias depois, os pais encontraram Jonathan morto no chão da sala de estar. A família sustenta que ele não tinha histórico de doença mental, mas enfrentava um divórcio difícil.

Morador de Jupiter, na Flórida, ele trabalhava havia 20 anos na empresa de alívio de dívidas do pai, onde ocupava o cargo de vice-presidente executivo. Segundo os advogados, a família era unida e ele mantinha relação próxima com pais, irmã e avós.

Leia mais:

Chatbot teria incentivado comportamentos violentos e suicídio (Imagem: Mehaniq/Shutterstock)

Qual é o teor da acusação?

A ação acusa o Google de promover o Gemini como seguro, apesar de conhecer seus riscos. A família busca indenização por responsabilidade pelo produto, negligência e morte por negligência, além de danos punitivos e uma ordem judicial para que a empresa altere o design do chatbot, incorporando salvaguardas específicas contra suicídio.

Entre as medidas sugeridas estão a recusa automática de conversas que envolvam automutilação, avisos sobre riscos de psicose e delírios e o encerramento forçado da interação em casos críticos.

Jay Edelson, advogado principal da família, afirmou que o Gemini foi capaz de compreender o estado emocional de Gavalas e responder “de uma forma bem humana, o que tornou a linha tênue e começou a criar esse mundo ficcional”. “Parece um filme de ficção científica”, disse.

Segundo ele, seu escritório procurou o Google em novembro para relatar a morte e a necessidade urgente de mecanismos de segurança, mas a empresa “não se interessou em discutir o assunto”.

Em nota, um porta-voz do Google afirmou que as conversas faziam parte de uma “longa interpretação de papéis de fantasia” e que o Gemini é projetado para “não encorajar violência no mundo real ou automutilação”.

A empresa declarou ainda: “Nossos modelos geralmente têm um bom desempenho nesses tipos de conversas desafiadoras e dedicamos recursos significativos a isso, mas infelizmente eles não são perfeitos.”

Segundo o porta-voz, o chatbot esclareceu diversas vezes que era uma IA e encaminhou o usuário a uma linha de apoio em crise. “Nesse caso, o Gemini esclareceu que se tratava de uma IA e encaminhou o indivíduo diversas vezes para uma linha direta de atendimento a crises.”

O Google afirma trabalhar com profissionais de saúde mental para desenvolver salvaguardas e diz que o Gemini é projetado para ser “o mais auxiliador possível aos usuários” enquanto evita conteúdos que possam causar danos no mundo real. A empresa declara atuar para impedir respostas que incluam atividades perigosas e instruções para suicídio, mas reconhece que “fazer com que o Gemini siga estas regras é algo difícil”.

Queixas similares se acumulam

O caso ocorre em meio ao aumento do escrutínio sobre empresas líderes de IA, como o Google, a OpenAI e outras. Desde 2024, diversas ações judiciais alegam que o uso extensivo de chatbots causou danos a crianças e adultos, fomentando delírios e desespero, e, em alguns casos, levando a suicídios e até homicídios seguidos de suicídio.

Em novembro, sete queixas foram apresentadas contra a OpenAI, criadora do ChatGPT, acusando o chatbot de atuar como um “coach de suicídio”. A startup Character.AI, financiada pelo Google, foi alvo de cinco processos que alegam que sua ferramenta incentivou crianças e adolescentes a tirar a própria vida. A Character.AI e o Google firmaram acordo em janeiro, sem admissão de culpa.

O processo da família Gavalas sustenta que o caso não é único. “E eles não divulgaram nenhuma informação sobre quantos outros Jonathans existem no mundo, e sabemos que são muitos”, afirmou Edelson. “Este não é um caso isolado.”

O post Google é processado após Gemini incentivar homem a se suicidar apareceu primeiro em Olhar Digital.

Google é processado após Gemini incentivar homem a se suicidar Read More »

Tela Inicial Gemini 1024x578

Google apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marca

Ontem (03), a gigante de tecnologia Google anunciou em seu blog o novo modelo de inteligência artificial da marca: o Gemini 3.1 Flash-Lite, divulgado como o mais rápido e eficiente dentre a família Gemini 3.

Segundo a própria empresa, a novidade é superior ao modelo Gemini Flash 2.5, é até 25% mais rápida, e apresenta níveis significativos de “processamentos dinâmicos para se adequar à complexidade da tarefa“. O anúncio também foi divulgado em um tuíte na página oficial da empresa no X.

Entendendo as novidades do Gemini 3.1 Flash-Lite

Imagem: Gemini / Reprodução

No X, o Google informou aos seguidores que é possível acessar previamente o Gemini 3.1 Flash-Lite e testá-lo via Google AI Studio ou pelo Vertex AI.

Enquanto o Google AI Studio concentra-se como uma ferramenta web destinada a desenvolvedores e pesquisadores de IA, a Vertex auxilia usuários a customizar modelos de IA com seus próprios dados e recursos de segurança.

A empresa declara o seguinte:

O 3.1 Flash-Lite consegue lidar com tarefas em grande escala, como tradução de alto volume e moderação de conteúdo, onde o custo é uma prioridade. E também consegue lidar com cargas de trabalho mais complexas que exigem raciocínio mais aprofundado, como geração de interfaces de usuário e painéis, criação de simulações ou execução de instruções.

— Google em seu anúncio de lançamento via blog

Interações logas com chatbots podem aumentar os riscos de delírios (Imagem: Summit Art Creations/Shutterstock)
Huma interagindo com inteligência artificial (Imagem: Summit Art Creations/Shutterstock)

Leia mais:

Outro fator compartilhado pela equipe de desenvolvedores é o valor médio para utilização do produto: os usuários só pagam US$ 0,25 a cada 1 milhão de tokens de entrada. Ou seja, na soma de todos os prompts enviados, você paga 25 centavos de dólar a cada 1 milhão de tokens. Já para os tokens de saída, gerados pelas respostas, o valor sobe para US$ 1,50.

Esses valores do novo Gemini 3.1 Flash‑Lite são mais baratos que os modelos anteriores (como o Gemini 2.5) porque foi otimizado para usar menos recursos computacionais sem perder qualidade, cobrando menos por cada milhão de tokens processados: você paga apenas US$ 0,25 pelos tokens que envia e US$ 1,50 pelos tokens que o modelo gera, enquanto ainda mantém respostas rápidas e precisas, tornando-o ideal para aplicações que precisam de alta frequência de interações em tempo real.

O chatbot ainda dá aos usuários “o controle e a flexibilidade para selecionar o quanto o modelo ‘pensa’ para uma tarefa, o que é essencial para gerenciar cargas de trabalho de alta frequência.”

O Gemini 3.1 Flash‑Lite demonstra o esforço do Google em oferecer modelos de IA eficientes, porém, mais baratos, ao reduzir os custos por token processado e acelerar o tempo de resposta.

Com recursos de processamento dinâmico, ele permite que desenvolvedores ajustem o nível de raciocínio do modelo conforme a complexidade da tarefa, tornando-o adequado tanto para aplicações simples quanto para fluxos de trabalho de alta frequência.

O post Google apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marca apareceu primeiro em Olhar Digital.

Google apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marca Read More »

2 55 1024x576

Estudantes da USP vencem prêmio internacional de IA com chatbot para WhatsApp

Recentemente, três alunos de Ciência da Computação no Instituto de Ciências Matemáticas e de Computação da USP São Carlos criaram um chatbot para o combate de fake news online. O chamado “Tá Certo isso AIanalisa e verifica a veracidade das informações recebidas via mensagens pelo WhatsApp, independentemente do formato (texto, vídeo, áudio ou imagem).

O software foi desenvolvido por Cauê Paiva Lira, Luiz Felipe Costa e Pedro Henrique Silva, equipe vencedora do Programa AI4Good da Brazil Conference. Esse evento é uma conferência internacional que reúne brasileiros nos EUA — incluindo especialistas, líderes, estudantes e empreendedores — para debater e criar estratégias que enfrentem desafios tecnológicos, políticos e socioeconômicos do país.

O evento ocorrerá presencialmente na Universidade Harvard e no Instituto de Tecnologia de Massachusetts (MIT), nos dias 27, 28 e 29 de março.

Para quem tem pressa:

  • Estudantes da USP São Carlos criaram um chatbot que analisa e verifica a veracidade das informações recebidas via WhatsApp, independentemente do formato (texto, vídeo, áudio ou imagem);
  • O software “Tá Certo Isso AI?” foi o vencedor do Programa AI4Good;
  • As informações analisadas pela ferramenta são checadas em meios de comunicação consolidados, sites e portais institucionais e fontes especializadas na checagem de fatos. A ideia é que o bot não faça apenas uma apuração primária, mas que auxilie no processo de combate à desinformação.

Funcionamento do chatbot e curadoria de informações

O softwate “Tá Certo isso AI?” é público e pode ser acessado por qualquer pessoa de diferentes formas.

Na primeira forma, você pode adicionar o telefone 35 8424-8271 nos contatos da sua agenda do celular e salvá-lo. Em seguida, basta abrir uma conversa com este número no WhatsApp.

A segunda maneira é por meio do site oficial do projeto, clicando aqui. Ainda é possível adicionar a ferramenta a grupos de WhatsApp onde, após a adição, é possível marcar o bot com @ na informação que deseja confirmação.

Na análise, o chatbot busca a veracidade das informações em meios de comunicação consolidados, sites e portais institucionais, e fontes especializadas na checagem de fatos. Em entrevista ao Jornal da USP, um dos desenvolvedores do projeto, Luiz Felipe Diniz Costa, afirmou que a ideia é que o bot não faça apenas uma apuração primária.

“O bot não aceita qualquer fonte. Ele faz a checagem apenas em bases que já passaram por esse filtro de confiabilidade, o que reduz o risco de erro e aumenta a qualidade das respostas”, afirmou Luiz Felipe Costa, um dos idealizadores do projeto.

Leia mais:

Idealização do projeto

Jovem interage com diversas plataformas tecnológicas em seu celular – (Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)

O “Tá Certo Isso AI?” começou com a participação dos estudantes no Hackathon 2025, uma maratona de programação onde os alunos tiveram apenas 10 horas para esboçar a ferramenta e saíram vencedores. O tema era justamente “Soluções para mitigar o impacto das fake news na sociedade”.

A partir daí, Cauê afirmou que soube que o edital do AI4Good estava aberto e viu uma oportunidade para continuar o desenvolvimento do projeto. “Foram cerca de 170 grupos inscritos e apenas oito foram selecionados para participar do processo de monitoria e aceleração”, comentou um dos desenvolvedores.

Após a aprovação no processo, foram aproximadamente seis semanas para aprimorar o “Tá Certo isso AI?” e colocá-lo em vigor.

Desenvolvimentos futuros

Microsoft alerta para falha em modelos de IA que ameaça privacidade dos usuários
Usuário utilizando chatbot (Imagem: TippaPatt / Shutterstock)

Para continuar o desenvolvimento da ferramenta, Luiz Costa analisou a proporção que o chatbot tem tomado e vê como uma oportunidade para investimentos no projeto:

Acreditamos que a visibilidade proporcionada pela Brazil Conference pode abrir caminho não apenas para colaborações com órgãos governamentais e veículos de comunicação, já que o enfrentamento à desinformação é um interesse comum a essas esferas, mas também para impulsionar nossas trajetórias profissionais, por meio do desenvolvimento de projetos com impacto social.

— Luiz Costa, um dos idealizadores do “Tá Certo isso AI?”

O post Estudantes da USP vencem prêmio internacional de IA com chatbot para WhatsApp apareceu primeiro em Olhar Digital.

Estudantes da USP vencem prêmio internacional de IA com chatbot para WhatsApp Read More »