inteligência artificial

Auto Added by WPeMatico

destaque ceo do google sundar pichai 1024x576

Google: 75% dos códigos criados internamente são gerados pela IA

O Google informou, nesta quarta-feira (22), que 75% do novo código desenvolvido internamente pela empresa já é gerado por inteligência artificial (IA), sendo posteriormente revisado por engenheiros humanos.

O índice vem crescendo de forma consistente nos últimos anos. Em outubro de 2024, cerca de um quarto do código da empresa era produzido com auxílio de IA. Já no outono (nos EUA) passado, esse percentual havia subido para 50%.

Big tech incentiva o uso de IA na programação

  • Segundo a Business Insider, a companhia tem incentivado seus funcionários a adotarem ferramentas de inteligência artificial tanto para programação quanto para outras atividades;
  • Em publicação em blog nesta quarta, o CEO, Sundar Pichai, afirmou que o Google está migrando para “fluxos de trabalho verdadeiramente agentivos”, nos quais engenheiros passam a operar tarefas mais autônomas;
  • “Recentemente, uma migração de código particularmente complexa, realizada por agentes e engenheiros trabalhando juntos, foi concluída seis vezes mais rápido do que era possível há um ano apenas com engenheiros”, disse Pichai.
Sundar Pichai disse que empresa está migrando para “fluxos de trabalho verdadeiramente agentivos” – Imagem: photosince/Shutterstock

Leia mais:

Os engenheiros do Google utilizam modelos Gemini para a geração de código. Alguns profissionais também receberam metas específicas relacionadas ao uso de inteligência artificial, que serão consideradas nas avaliações de desempenho deste ano.

Nos últimos meses, funcionários do Google DeepMind foram autorizados a utilizar o Claude Code, ferramenta da Anthropic. A medida, no entanto, gerou tensões internas entre colaboradores, segundo reportagem anterior do Business Insider.

Gemini Enterprise: a plataforma que posiciona o Google como grande ator na era dos agentes de IA

O Google Cloud Next 2026 acontece de 22 a 24 de abril em Las Vegas. A conferência reúne especialistas da área de tecnologia e representantes de diferentes empresas.

Leia a matéria completa aqui

O post Google: 75% dos códigos criados internamente são gerados pela IA apareceu primeiro em Olhar Digital.

Google: 75% dos códigos criados internamente são gerados pela IA Read More »

OpenAI planeja expansão massiva de infraestrutura e mira 30 GW até 2030

A OpenAI anunciou nesta quarta-feira (22) uma atualização ambiciosa em suas metas de infraestrutura. A organização, que havia se comprometido em janeiro de 2025 a gerar 10 gigawatts (GW) de poder computacional, confirmou que já identificou fontes para mais de 8 GW desse total. Agora, o novo objetivo é atingir a marca de 30 GW até 2030.

Crescimento exponencial de processamento

Os dados divulgados pela OpenAI via rede social mostram que a necessidade de hardware e energia para treinar e rodar modelos de inteligência artificial está crescendo em um ritmo acelerado.

De acordo com o gráfico apresentado pela companhia:

  • 2023: a capacidade era de apenas 0,2 GW.
  • 2024: saltou para 0,6 GW.
  • 2025: atingiu aproximadamente 1,9 GW.
  • Meta 2030: o plano é chegar aos 30 GW.

Esse avanço representa um crescimento anual de aproximadamente 3x na disponibilidade de computação. Para efeito de comparação, um gigawatt é energia suficiente para abastecer 800 mil residências simultaneamente nos Estados Unidos. Ou seja, 30 GW seriam suficientes para alimentar 24 milhões de residências anualmente – o que reforça a escala dos data centers que a OpenAI pretende operar.

A corrida da IA não depende apenas de algoritmos, mas de capacidade física. A OpenAI ressaltou que esse novo marco de 30 GW acompanha a “demanda em rápida aceleração por sistemas inteligentes”. Sem essa infraestrutura de processamento (que envolve milhares de GPUs e energia elétrica estável), o desenvolvimento de modelos mais potentes, como as futuras versões do GPT, poderia estagnar.

ChatGPT Images 2.0

A OpenAI lançou o ChatGPT Images 2.0 nesta terça-feira (22), pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.

Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.

O post OpenAI planeja expansão massiva de infraestrutura e mira 30 GW até 2030 apareceu primeiro em Olhar Digital.

OpenAI planeja expansão massiva de infraestrutura e mira 30 GW até 2030 Read More »

google cloude next 2026 1024x576 1

Google apresenta o Agentic Data Cloud, nova plataforma de dados para agentes de IA

Nesta quarta-feira (22), o Google anunciou no evento Google Cloud Next 2026 uma nova infraestrutura de dados baseada em inteligência artificial, intitulada Agentic Data Cloud. A proposta é criar uma nuvem/rede de dados que forneça a alta eficiência que agentes de IA requerem para funcionar sem gargalos.

Isto é, em vez de sistemas que apenas armazenam informações ou respondem a perguntas, a empresa defende a criação de plataformas capazes de interpretar dados, tomar decisões e executar ações de forma autônoma.

O desenvolvimento desta tecnologia é justificado porque a arquitetura de software passada, ainda utilizada pelas IAs generativas, não dará conta das necessidades dos agentes de IA, que ao invés de precisarem de um comando para agir, trabalham ‘autonomamente’.

Além disso, a proposta procura superar problemas comuns nos modelos tradicionais de dados, como a dispersão das informações em diferentes sistemas, a complexidade na gestão e controle dos dados, e a ausência de uma camada de significado semântico.

Ou seja, a dificuldade das máquinas em interpretar o verdadeiro sentido dos dados corporativos. Segundo o Google, quando esse nível de compreensão não existe, os agentes de inteligência artificial acabam produzindo respostas menos precisas ou até incompletas.

Entre os destaques apresentados estão novas soluções voltadas à integração de dados, à padronização dos significados dentro das organizações e à conexão entre sistemas distribuídos em múltiplas nuvens, incluindo Google Cloud, AWS e Azure. Essa estratégia multicloud tem como objetivo diminuir as limitações de integração entre plataformas de diferentes fornecedores e viabilizar a circulação constante de dados entre variados ambientes corporativos.

Além disso, a empresa introduziu funcionalidades que automatizam processos de engenharia de dados e oferecem análise em formato conversacional, possibilitando que usuários consultem e explorem bases complexas utilizando linguagem natural. Na prática, isso diminui a dependência de consultas técnicas complexas e da geração manual de relatórios, tornando o acesso aos sistemas de dados mais direto para usuários de áreas de negócio.

O que é o Google Cloud Next?

Banner do evento Google Cloud Next 2026 (Divulgação: Google) – (Divulgação: Google)

O Google Cloud Next é uma conferência anual na qual a empresa divulga novidades relacionadas à computação em nuvem, cibersegurança, inteligência artificial, novos produtos e muito mais.

A edição de 2026 ocorre entre os dias 22 e 24 de abril no Mandalay Bay Convention Center, Las Vegas (EUA). O evento é destinado a desenvolvedores, engenheiros de dados, profissionais de TI e jornalistas que cobrem tecnologia.

O que é o Agentic Data Cloud?

Ilustração de robô humanoide com inteligência artificial digitando em computador desktop num escritório
Imagem: Pedro Spadoni via DALL-E/Olhar Digital

O Agentic Data Cloud é a principal proposta apresentada pelo Google para a nova geração de infraestrutura de dados.

Em vez de enxergar os dados como um armazenamento fixo e passivo, essa abordagem os converte em um ecossistema ativo e em constante movimentação, no qual agentes de inteligência artificial interpretam as informações e interagem diretamente com os sistemas das empresas. Isso transforma a própria infraestrutura de dados em um “motor de decisão” automatizado.

O objetivo central é aproximar o momento de compreensão dos dados da execução de ações práticas, o que diminui a separação entre análise e operação. Com isso, é possível automatizar processos corporativos de maneira mais abrangente, eficiente e com maior capacidade de decisão inteligente.

O objetivo final é desenvolver sistemas corporativos que vão além de apenas fornecer informações, passando também a realizar tarefas de maneira automática e contínua.

Leia mais:

Vantagens do Agentic Data Cloud

Conhecimento semântico unificado

imagem mostra vários códigos de um programa, exibidos em uma tela
Ilustração de várias linhas de código (Reprodução: Rahul Mishra/Unsplash)

Um dos fundamentos do sistema é o chamado Knowledge Catalog, que representa uma evolução das ferramentas tradicionais de catalogação de dados.

Ele estabelece uma camada de significado sobre as informações corporativas, garantindo que termos como “lucro”, “cliente ativo” ou “margem” tenham definições padronizadas e consistentes. Dessa forma, evita-se que a inteligência artificial dependa de interpretações ambíguas ou inconsistentes desses conceitos.

Processamento de dados não estruturados

A solução também inclui a capacidade de analisar automaticamente conteúdos não estruturados, como arquivos PDF, imagens e documentos diversos.

Esses materiais passam a ser interpretados por modelos de IA, que conseguem identificar entidades, relações entre informações e contexto, tornando a exploração desses dados mais simples e acessível para os agentes.

Integração entre sistemas corporativos

Nuvem Ia Shutterstock 2511939495 1024x645
Imagem: Apichatn/Shutterstock

Outro elemento importante é a integração com plataformas corporativas externas, como Salesforce, SAP e Workday. Essa conectividade permite que dados antes fragmentados e isolados em diferentes sistemas sejam reunidos dentro de uma única camada contextual, facilitando o acesso e a utilização conjunta das informações.

Além disso, o Google ressaltou a adoção do conceito de “zero-copy federation”, uma abordagem que possibilita consultar e utilizar dados distribuídos em diferentes sistemas sem a necessidade de copiá-los ou transferi-los fisicamente.

Com isso, há uma redução de custos operacionais, eliminação de duplicidades e maior agilidade no acesso às informações por agentes de inteligência artificial.

O projeto também projeta mudanças de funções para programadores

programadora
Mulher programando um software (Imagem: gorodenkoff/iStock)

Outro aspecto fundamental da proposta envolve uma mudança no papel de engenheiros de dados e desenvolvedores. Em vez de construírem manualmente pipelines e integrações, esses profissionais passam a desempenhar uma função mais voltada à coordenação e supervisão de agentes de inteligência artificial.

Nesse contexto, o Google apresentou o Data Agent Kit, um conjunto de ferramentas que pode ser incorporado a ambientes de desenvolvimento já utilizados, como o VS Code e terminais de programação. A proposta é viabilizar que a própria IA produza código de forma automatizada, selecione frameworks adequados e organize fluxos de dados com maior autonomia.

Dentro desse ecossistema, também foram apresentados agentes com funções específicas, como:

  • O Data Engineering Agent, responsável por automatizar a criação de pipelines e assegurar práticas de governança de dados;
  • O Data Science Agent, que apoia o treinamento e a gestão do ciclo de vida de modelos de inteligência artificial;
  • E o Database Observability Agent, voltado ao monitoramento de bancos de dados e à detecção de falhas em tempo real.

Infraestrutura multicloud e eliminação de silos

O Google também enfatizou o desenvolvimento de uma arquitetura de dados multicloud, voltada a permitir que organizações integrem diferentes provedores de nuvem sem comprometer o desempenho.

Essa abordagem contempla conexões diretas com AWS e Azure, além da adoção de padrões abertos baseados em tecnologias como Apache Iceberg, o que possibilita a leitura e o compartilhamento de dados entre diversas plataformas sem a necessidade de migração.

Outro destaque mencionado foi o Spanner Omni, uma solução que viabiliza a execução do banco de dados global do Google em múltiplos ambientes, incluindo outras nuvens e infraestruturas locais, preservando a consistência dos dados e garantindo alta disponibilidade.

O post Google apresenta o Agentic Data Cloud, nova plataforma de dados para agentes de IA apareceu primeiro em Olhar Digital.

Google apresenta o Agentic Data Cloud, nova plataforma de dados para agentes de IA Read More »

gemini enterprise data insights agent

Gemini Enterprise: a plataforma que posiciona o Google como grande ator na era dos agentes de IA

O Google Cloud Next 2026 acontece de 22 a 24 de abril em Las Vegas. A conferência reúne especialistas da área de tecnologia e representantes de diferentes empresas. Entre os principais anúncios do ano está o Gemini Enterprise. Uma plataforma para criar e administrar agentes de inteligência artificial, capaz de reunir, em um só lugar, funcionários, aplicativos e dados de empresas. Nela, equipes de desenvolvedores podem construir ferramentas que atendam às necessidades de cada organização de forma integrada às operações de TI.

De acordo com Brian Delahunty, VP de Engenharia, e Michael Gerstenhaber, VP de Gerenciamento de Produto, ambos da divisão de Cloud AI do Google Cloud, o Gemini Enterprise é “um sistema de ponta a ponta para a era dos agentes, construído para agentes que podem executar processos de trabalho complexos e de várias etapas. Ele combina o acesso a modelos de IA, uma interface intuitiva, uma estrutura de desenvolvimento segura e a capacidade de implementar agentes em escala com sucesso.” A solução é considerada a sucessora da Vertex AI, plataforma de desenvolvimento unificada para criar e utilizar IA generativa.

Confira abaixo os principais anúncios e detalhes relacionados ao ecossistema do Gemini Enterprise:

Gemini Enterprise Agent Platform

A plataforma oferece recursos para que as empresas possam construir, escalar, gerenciar e otimizar agentes, permitindo que operem de forma autônoma em fluxos de trabalho complexos. A escala é garantida pelos “bancos de memória” e “perfis de memória”, recursos que asseguram aos agentes uma memória contextual de longo prazo.

Além disso, o sistema disponibiliza acesso a mais de 200 modelos por meio do Model Garden (Jardim de Modelos). Entre os destaques estão o Gemini 3.1 Pro, Gemini 3.1 Flash Image e Lyria 3, além de modelos abertos, como o Gemma 4, e opções de terceiros, como o Claude Opus e Sonnet.

Gemini Enterprise App

O Gemini Enterprise app permite que as equipes acessem e executem os agentes criados na plataforma, além de possibilitar a criação e o compartilhamento desses agentes. O aplicativo integra informações corporativas, incluindo dados armazenados em sistemas de terceiros.

Gemini Enterprise Canvas
O Canvas permite criar e editar em equipe – Imagem: Google Cloud/Reprodução

O software também permite a colaboração entre membros de uma mesma equipe por meio do Projects. Ele funciona de maneira similar ao Google Docs, permitindo o compartilhamento e a edição conjunta de um mesmo projeto. Outra ferramenta colaborativa é o Canvas, um editor interativo para cocriar e editar no Google Docs e Slides, sendo possível exportar os arquivos para os formatos comuns do Microsoft Office.

Interação entre empresas

A integração do ecossistema permite, ainda, ativar agentes de outras empresas parceiras do Google Cloud Marketplace. Isso ocorre por meio da Agent Gallery, que contém uma coleção de agentes validados de líderes de SaaS e startups inovadoras, como Adobe, Salesforce, ServiceNow e Workday.

Gemini Enterprise  Agent Gallery
A “galeria de agentes” reúne os agentes de IA da empresa e de terceiros – Imagem: Google/Cloud

De acordo com o Google Cloud, o Gemini Enterprise viabiliza o gerenciamento de permissões e atividades de forma segura. A plataforma oferece o mesmo nível de supervisão e auditabilidade encontrado em aplicações de negócios essenciais, como sistemas de folha de pagamento ou relatórios financeiros trimestrais.

O post Gemini Enterprise: a plataforma que posiciona o Google como grande ator na era dos agentes de IA apareceu primeiro em Olhar Digital.

Gemini Enterprise: a plataforma que posiciona o Google como grande ator na era dos agentes de IA Read More »

google cloude next 2026 1024x576

Conheça o TPU 8t e TPU 8i: os novos processadores do Google focados em IA

Nesta quarta-feira (22), um dos destaques do Google Cloud Next 2026 foi a apresentação da oitava geração de chips (processadores): peças de hardware projetadas para alimentar supercomputadores com inteligência artificial, desenvolvidos sob medida. Ao todo, dois chips foram divulgados: o TPU 8t e o TPU 8i.

O Google destaca que esses periféricos impulsionaram o funcionamento do Gemini e são úteis para treinar IA, criar novos agentes de IA, e auxiliar chatbots de IA a responderem o questionamento dos usuários com maior eficácia.

A companhia ainda destaca que as novas peças podem rodar inteligência artificial em grande escala, ou seja, atendendo a milhões de usuários, e até a consumir menos energia para funcionar.

A justificativa por trás do desenvolvimento dos novos processadores é a maior demanda de trabalho, ocasionada pelo número crescente de usuários que acessam a inteligência artificial. Com o novo poder de processamento, é possível executar fluxos de trabalho com muito mais etapas.

O resultado deste projeto é fruto de uma parceria com o departamento Google DeepMind, o laboratório da empresa focado em pesquisa com IA.

O que é o Google Cloud Next?

Banner do evento Google Cloud Next 2026 (Divulgação: Google) – (Divulgação: Google)

O Google Cloud Next é uma conferência anual na qual a empresa divulga novidades relacionadas à computação em nuvem, cibersegurança, inteligência artificial, novos produtos e muito mais.

A edição de 2026 ocorre entre os dias 22 e 24 de abril no Mandalay Bay Convention Center, Las Vegas (EUA). O evento é destinado a desenvolvedores, engenheiros de dados, profissionais de TI e jornalistas que cobrem tecnologia.

Conheça os novos processadores de IA do Google: TPU 8t e TPU 8i

Após a alta demanda de tarefas para os chatbots alimentados por inteligência artificial, as empresas de tecnologia (como o Google) desenvolveram algo mais “autônomo”: agentes de IA, softwares programados para executar tarefas de forma ‘autônoma’.

O Google justifica a criação dos novos processadores TPU 8t e TPU 8i como uma forma de criar agentes de IA que raciocinassem mais rápido para executar um maior fluxo de trabalho, com múltiplas etapas, e capazes de aprender com suas próprias ações em ciclos contínuos.

Nisso, a empresa comenta que ficou mais de uma década desenvolvendo os processadores e que produziu duas versões de chips para cada uma obter uma especialização diferente quanto ao ganho de eficiência e desempenho.

Ou seja, a IA ficou mais complexa com o passar dos anos e novos hardwares precisaram ser construídos. Sobre os chips do Google, um é especializado em treinar modelos ‘gigantes’ e o outro é indicado para rodar a IA no ‘mundo real’.

Essa divisão torna tudo mais barato e eficiente. Confira a diferença entre ambos abaixo.

TPU 8t

close-up de um chip amarelo
Chip (processador) TPU 8t (Divulgação: Google) – (Divulgação: Google)

O TPU 8t foi desenvolvido com foco no treinamento de sistemas de inteligência artificial em larga escala. Ele se destaca por ser ajustado para lidar com cargas de trabalho extremamente exigentes, que demandam alto desempenho computacional e comunicação eficiente entre diversos chips.

Sua finalidade é tornar mais rápido o avanço de modelos complexos, encurtando processos de treinamento que antes levavam meses para apenas algumas semanas. Para isso, conta com grande capacidade de processamento, elevada taxa de transferência de dados entre os componentes e acesso ágil a grandes volumes de informação, permitindo que estruturas amplas operem de maneira integrada.

Além disso, o TPU 8t foi pensado para funcionar em ambientes de grande escala, reunindo milhares de unidades que atuam como um único sistema coeso. Ele busca aproveitar ao máximo o tempo de execução, reduzindo interrupções e falhas que poderiam comprometer o progresso do treinamento.

Esse aspecto é crucial em projetos de IA de grande porte, onde qualquer perda de eficiência pode significar atrasos significativos. Assim, esse processador tem como prioridade oferecer desempenho elevado aliado à confiabilidade durante longos períodos de operação contínua.

Esse tipo de arquitetura opera em uma escala extremamente ampla. Um único cluster baseado no TPU 8t pode integrar até cerca de 9.600 chips atuando de forma coordenada, todos conectados a um sistema de memória compartilhada de altíssima capacidade.

Com isso, modelos de inteligência artificial muito grandes conseguem utilizar esse conjunto como se fosse um único supercomputador unificado. A interligação entre os chips também foi otimizada, garantindo taxas de comunicação mais rápidas em comparação com gerações anteriores.

sistema de hardware equipado com o chip TPU 8t
Sistema de hardware equipado com o chip TPU 8t (Divulgação: Google) – (Divulgação: Google)

Outro ponto importante é a capacidade de expansão. Mesmo quando o sistema cresce para dezenas de milhares ou até mesmo milhões de chips operando em conjunto, ele mantém um nível elevado de eficiência e desempenho.

Isso é viabilizado por uma combinação de redes especializadas e softwares de gerenciamento que organizam o tráfego de dados e coordenam as tarefas entre todos os componentes.

Além disso, essa infraestrutura foi projetada com foco em alta confiabilidade. Caso alguma parte do sistema apresente falhas, o processamento não precisa ser interrompido: o próprio sistema identifica automaticamente os problemas e se reorganiza para continuar funcionando.

Leia mais:

TPU 8i

close-up de um chip amarelo
Chip TPU 8i (Divulgação: Google) – (Divulgação: Google)

O TPU 8i, em contraste, é voltado para a fase de inferência, isto é, quando os modelos de inteligência artificial já estão treinados e passam a ser utilizados no dia a dia. Sua otimização é direcionada para o processamento rápido de respostas, priorizando baixa latência e um uso eficiente dos recursos de memória.

Esse tipo de arquitetura é especialmente importante em aplicações que exigem interação imediata, muitas vezes envolvendo vários sistemas de IA atuando em conjunto e trocando dados em tempo real.

Para atender a esse cenário, o TPU 8i foi projetado para minimizar atrasos e manter o máximo de informações possível próximas do processador, reduzindo o tempo de acesso aos dados. Ele também aprimora a troca de informações entre diferentes componentes do sistema, algo essencial quando múltiplos modelos precisam colaborar em tarefas mais complexas.

Assim, seu principal objetivo é assegurar respostas rápidas, consistentes e eficientes, mesmo quando há uma grande quantidade de solicitações acontecendo simultaneamente.

O TPU 8i foi projetado para maximizar o aproveitamento dos processadores, reduzindo ao mínimo os períodos em que eles ficam sem trabalho. Para isso, ele combina grandes volumes de memória de alta velocidade com armazenamento integrado ao próprio chip, o que garante que os dados necessários aos modelos estejam sempre acessíveis sem depender constantemente de sistemas externos.

close-up de dois chips amarelos um ao lado do outro
Novos processadores TPU do Google: 8t (a esquerda) e 8i (a direita). (Divulgação: Google) – (Divulgação: Google)

Em termos de arquitetura, ele também recebeu melhorias no desempenho computacional, incorporando mais unidades de processamento por servidor e utilizando CPUs baseadas em designs personalizados da arquitetura ARM.

Outro destaque é a adaptação para modelos modernos de inteligência artificial, especialmente aqueles que utilizam a abordagem de mistura de especialistas (MoE), na qual diferentes partes do modelo são ativadas conforme a necessidade. Para suportar esse tipo de carga, o TPU 8i reforça significativamente a comunicação entre chips, diminuindo gargalos e tornando o fluxo de dados mais rápido.

O post Conheça o TPU 8t e TPU 8i: os novos processadores do Google focados em IA apareceu primeiro em Olhar Digital.

Conheça o TPU 8t e TPU 8i: os novos processadores do Google focados em IA Read More »

openai 2 1024x637

ChatGPT teria “ajudado” atirador da Flórida; entenda

Nesta terça-feira (21), o procurador-geral da Flórida (EUA), James Uthmeier, anunciou que abriu uma investigação criminal contra a OpenAI, sob a alegação de que o ChatGPT, chatbot de inteligência artificial (IA) da startup, teria aconselhado o homem que promoveu um tiroteio na Universidade Estadual da Flóridae matou duas pessoas — sobre qual munição usar e onde e quando atacar (leia mais sobre o episódio abaixo).

Essa investigação criminal instaurada na Flórida segue uma investigação civil anunciada por Uthmeier neste mês.

Em coletiva realizada nesta terça, Uthmeier afirmou que “o chatbot aconselhou o atirador sobre o tipo de arma a usar, qual munição era adequada para cada arma e se a arma seria útil a curta distância”, e frisou: “Se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de homicídio.”

Uthmeier explicou, ainda, na coletiva, que “o ChatGPT aconselhou o atirador sobre qual o horário do dia mais apropriado para o tiroteio, de forma a interagir com mais pessoas, e qual o local no campus onde haveria maior concentração de pessoas”.

O gabinete do procurador-geral da Flórida já encaminhou as intimações à OpenAI. Nela, pede as políticas da empresa sobre como responder quando seus usuários fazem ameaças de prejudicar outras pessoas em conversas com o ChatGPT, segundo comunicado.

A porta-voz da OpenAI, Kate Waters, se manifestou a respeito do caso. “O massacre ocorrido no ano passado na Universidade Estadual da Flórida foi uma tragédia, mas o ChatGPT não é responsável por esse crime terrível”, pontuou.

“Após tomarmos conhecimento do incidente, identificamos uma conta do ChatGPT que acreditamos estar associada ao suspeito e compartilhamos proativamente essa informação com as autoridades policiais”, prosseguiu.

Ainda de acordo com a porta-voz, o ChatGPT forneceu “respostas factuais a perguntas com informações que podiam ser encontradas amplamente em fontes públicas na internet, e não incentivou nem promoveu atividades ilegais ou prejudiciais”.

Recapitulando o episódio

  • Em abril do ano passado, um tiroteio ocorrido na Universidade Estadual da Flórida, em Tallahassee, vitimou fatalmente duas pessoas e feriu outras seis;
  • Autoridades informaram, na época, que tudo começou com um estudante universitário que abriu fogo no campus;
  • O suspeito, Phoenix Ikner, foi baleado pela polícia e hospitalizado;
  • Ele foi indiciado por múltiplos homicídios e tentativas de homicídio.
Porta-voz da empresa disse que houve estreita colaboração com as autoridades policiais no caso citado – Imagem: Evolf/Shutterstock

OpenAI tem outros casos parecidos para resolver

O caso citado não é o único enfrentado pela OpenAI. A criadora do ChatGPT também passa por escrutínio no Canadá e na própria Flórida. A polícia alega que o chatbot manteve conversas com pessoas que pensavam em ferir outras pessoas, além de que inúmeras famílias cujo familiar se suicidou entraram com processos, afirmando que a IA contribuiu negativamente nos episódios.

Responsabilidades das empresas de IA

Os eventos mortais trouxeram à tona um debate sobre quais são as responsabilidades das empresas do setor ao monitorar as conversas de seus usuários e sinalizar as que devem ter uma atenção mais redobrada da polícia.

A startup de Sam Altman garante que aprimorou como o ChatGPT responde a discussões que sugerem que a pessoa possa estar pensando em se machucar ou machucar outras pessoas. Além disso, a companhia diz estar trabalhando na implementação de políticas que alertem as autoridades policiais sobre conversas de alto risco em certos casos.

Por sua vez, o Estado da Flórida está no “olho do furacão”, pois as preocupações com o impacto da tecnologia nas pessoas estão virando questões políticas. Tanto o procurador-geral estadual como o governador, Ron DeSantis, estão pessimistas quanto à indústria de IA.

O Estado também entrou em discussão a partir de uma crescente divisão no Partido Republicano (o mesmo de DeSantis e do presidente Donald Trump) sobre como regulamentar a IA.

O governador pressionou a legislatura estadual para aprovar uma “declaração de direitos de IA“, que instituiria vários limites para o uso da IA em produtos de consumo. Contudo, após oposição de Trump, o projeto não foi aprovado.

O post ChatGPT teria “ajudado” atirador da Flórida; entenda apareceu primeiro em Olhar Digital.

ChatGPT teria “ajudado” atirador da Flórida; entenda Read More »

volkswagen fachada 681x1024

China: Volkswagen integra agentes de IA em carros locais

A Volkswagen anunciou que equipará novos carros produzidos para a China com agentes de inteligência artificial (IA) a partir do segundo semestre deste ano, em tentativa de acompanhar a tecnologia avançada oferecida no maior mercado automotivo do mundo.

A montadora alemã está correndo para competir com fabricantes chineses que estabelecem ritmo mais acelerado na eletrificação, recursos digitais, preços e velocidade de desenvolvimento.

Em evento realizado em Pequim (China) antes do início do salão do automóvel anual da cidade, a Volkswagen disse que, a partir do segundo semestre deste ano, apresentará “agentes de IA a bordo” em veículos que utilizam sua arquitetura eletrônica exclusiva para a China.

A tecnologia permitirá “interação altamente intuitiva e semelhante à humana” entre o veículo e o motorista, garantindo “proteção robusta de dados pessoais“. Diferentemente de um assistente de voz, que responde perguntas simples, os agentes de IA podem lidar com tarefas mais complexas e tomada de decisões, informou a empresa.

Agentes de IA da Volkswagen poderão desde agendar um jantar até organizar o estacionamento do veículo – Imagem: fotokaleinar/Shutterstock

Leia mais:

Agentes de IA da Volkswagen e sua estratégia de reposcionamento

O principal executivo da Volkswagen na China, Ralf Brandstaetter, disse à Reuters após o evento que, com essa tecnologia, o carro pode buscar o restaurante mais bem avaliado em determinada área e fazer e confirmar reservas por conta própria. O sistema também pode levar o motorista ao restaurante e organizar o estacionamento, explicou Brandstaetter.

  • A Volkswagen está tentando se reposicionar no país como uma empresa com estratégia específica para veículos elétricos e inteligentes na China, em vez de um fabricante tradicional com forte presença em combustão interna;
  • No que chama de sua “maior ofensiva de mobilidade elétrica” na China, o grupo planeja lançar mais de 20 novos veículos eletrificados, totalizando 50 novos modelos no mercado até 2030;
  • O CEO do Grupo Volkswagen, Oliver Blume, disse no evento que os lançamentos de modelos e planos tecnológicos enviam uma mensagem clara: “Estamos de volta“;
  • A estratégia “Na China, para a China” da montadora foca na expansão das capacidades locais de pesquisa e desenvolvimento, aceleração dos cronogramas de desenvolvimento e aprofundamento das parcerias locais;
  • Ao lado de Blume, Yu Kai, CEO da fabricante chinesa de chips automotivos Horizon Robotics, disse que a IA agêntica da Volkswagen construída com a Horizon permitirá que a tecnologia se expanda além do segmento premium para o mercado de massa.

O post China: Volkswagen integra agentes de IA em carros locais apareceu primeiro em Olhar Digital.

China: Volkswagen integra agentes de IA em carros locais Read More »

chatgpt images 2 0 2 1024x504

OpenAI libera ChatGPT Images 2.0 com mais capacidades de raciocínio

A OpenAI lançou o ChatGPT Images 2.0, pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.

Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.

Avanços significativos em idiomas não latinos

A OpenAI investiu esforços consideráveis para tornar o Images 2.0 melhor no entendimento e renderização de texto não latino, com “ganhos significativos” na capacidade do modelo de lidar com japonês, coreano, chinês, hindi e bengali, segundo comunicado da empresa.

Simultaneamente, o novo modelo reproduz com mais fidelidade as características específicas de diferentes linguagens visuais. Segundo a OpenAI, isso torna o Images 2.0 mais útil para tarefas, como prototipagem de jogos e criação de storyboards.

Leia mais:

Novidade já está liberada para todos os usuários – Imagem: Reprodução

Maior flexibilidade e resolução

  • O novo modelo oferece maior flexibilidade em proporções, permitindo gerar imagens com largura de até 3:1 e altura de até 1:3;
  • Também produz designs em resoluções de até 2K e consegue gerar até oito saídas de uma só vez;
  • Em testes realizados pelo Electrek antes do lançamento público, o Images 2.0 foi desafiado a gerar um gato tartaruga no estilo pixel art da terceira geração de Pokémon;
  • O resultado foi considerado satisfatório, capturando adequadamente o estilo icônico dos jogos de Game Boy Advance. Em seguida, o modelo converteu a imagem em PNG transparente;
  • Dos três testes realizados, o ChatGPT levou mais tempo na segunda tarefa, produzindo uma saída ligeiramente diferente da primeira imagem gerada;
  • Ainda assim, conseguiu criar uma imagem transparente adequada, algo que outros modelos de imagem frequentemente enfrentam dificuldades para executar corretamente.

Quando mais pessoas testarem o modelo extensivamente, será possível avaliar melhor como ele se compara ao Nano Banana 2 do Google e identificar onde a OpenAI pode fazer melhorias adicionais.

Nem tudo é perfeito

Na nota, a OpenAI frisa que o ChatGPT Images 2.0 está “longe de ser infalível”. Isso porque o sistema pode enfrentar obstáculos em atividades que demandam compreensão física consistente do mundo, como instruções detalhadas de origami, resolução de quebra-cabeças complexos — a exemplo do Cubo de Rubik — e a representação correta de elementos posicionados em superfícies ocultas, inclinadas ou invertidas.

Além disso, padrões visuais extremamente densos ou repetitivos, como texturas de areia muito fina, podem levar o modelo ao limite de suas capacidades. Elementos, como rótulos e diagramas, também podem exigir ajustes para assegurar exatidão, sobretudo quando dependem de setas bem posicionadas ou da identificação correta de componentes. Essas limitações são vistas como áreas-chave a serem aprimoradas em desenvolvimentos futuros, diz a OpenAI.

Disponibilidade e acesso

O ChatGPT Images 2.0 já está disponível para todos os usuários do ChatGPT, incluindo aqueles nos planos Free e Go. Assinantes Plus e Pro têm acesso a saídas mais avançadas. A OpenAI também disponibilizou o modelo por meio de seu serviço de API e do aplicativo Codex, que, na semana passada, foi atualizado para oferecer geração de imagens integrada.

O lançamento do Images 2.0 ocorre poucos dias após a Anthropic entrar no mercado de design visual com seu próprio assistente de design.

O post OpenAI libera ChatGPT Images 2.0 com mais capacidades de raciocínio apareceu primeiro em Olhar Digital.

OpenAI libera ChatGPT Images 2.0 com mais capacidades de raciocínio Read More »

amazon aws 1024x632

Amazon investe mais R$ 24,7 bi na Anthropic; startup vai gastar R$ 496 bi na AWS

A Anthropic anunciou, nesta segunda-feira (20), um novo investimento de US$ 5 bilhões (R$ 24,7 bilhões) advindos da Amazon, elevando seu aporte total na empresa de inteligência artificial (IA) para US$ 13 bilhões (R$ 64,4 bilhões).

Em contrapartida, a Anthropic se comprometeu a gastar mais de US$ 100 bilhões (R$ 495,3 bilhões) na Amazon Web Services (AWS) ao longo dos próximos dez anos.

O acordo garante à Anthropic acesso a até 5 GW de nova capacidade computacional para treinar e operar o Claude, seu assistente de IA. A estrutura ecoa um acordo similar que a Amazon fechou com a OpenAI há dois meses, quando participou de uma rodada de financiamento de US$ 110 bilhões (R$ 544,9 bilhões) contribuindo com US$ 50 bilhões (R$ 247,6 bilhões).

“O compromisso da Anthropic em executar seus grandes modelos de linguagem no AWS Trainium pela próxima década reflete o progresso que fizemos juntos em silício personalizado, enquanto continuamos a fornecer a tecnologia e a infraestrutura que nossos clientes precisam para construir com IA generativa”, afirmou o CEO da AMazon, Andy Jassy, em comunicado.

Esse investimento inclui, além dos US$ 5 bilhões agora, até US$ 20 bilhões (R$ 99 bilhões) futuros vinculados a “certos marcos comerciais”, segundo o comunicado.

Chips personalizados da Amazon estão em destaque

  • No centro do acordo estão os chips personalizados da Amazon: o Graviton, um processador de baixo consumo, e o Trainium, chip acelerador de IA que compete com a Nvidia;
  • O contrato da Anthropic cobre especificamente os chips Trainium2 até Trainium4, mesmo que o Trainium4 ainda não esteja disponível;
  • O chip mais recente, o Trainium3, foi lançado em dezembro;
  • Além disso, a Anthropic garantiu a opção de adquirir capacidade em futuros chips da Amazon conforme se tornarem disponíveis.

O anúncio pode sinalizar uma futura rodada de financiamento para a Anthropic. Investidores de capital de risco têm oferecido capital à empresa em negócios que a avaliariam em US$ 800 bilhões (R$ 3,9 trilhões) ou mais, segundo reportes do mercado.

Em fevereiro, a Amazon disse que quer investir cerca de US$ 200 bilhões (R$ 990,8 bilhões) em 2026 em despesas de capital, especialmente em infraestrutura de IA.

Como contrapartida, a Anthropic confirmou que vai gastar quase R$ 500 bi na AWS – gguy/Shutterstock

Leia mais:

Pressões

Além disso, a Anthropic afirmou, ainda nesta segunda, que a demanda corporativa e de desenvolvedores pelo Claude, bem como um “aumento acentuado” no uso pelos consumidores, levou à “premissão inevitável” em sua estrutura, impactando confiabilidade e desempenho.

A empresa de Dario Amodei disse também que esse novo acordo firmado com a Amazon expandirá rapidamente sua capacidade disponível.

“Nossos usuários nos dizem que o Claude é cada vez mais essencial para a forma como trabalham, e precisamos construir a infraestrutura para acompanhar a crescente demanda”, disse Amodei, CEO da Anthropic, no comunicado. “Nossa colaboração com a Amazon nos permitirá continuar avançando na pesquisa em IA, ao mesmo tempo em que disponibilizamos o Claude para nossos clientes, incluindo os mais de 100 mil que o utilizam na AWS.”

O post Amazon investe mais R$ 24,7 bi na Anthropic; startup vai gastar R$ 496 bi na AWS apareceu primeiro em Olhar Digital.

Amazon investe mais R$ 24,7 bi na Anthropic; startup vai gastar R$ 496 bi na AWS Read More »

captura de tela 2026 04 20 as 114250 1024x290

ChatGPT caiu? Chatbot da OpenAI tem instabilidade

O ChatGPT caiu? O site Downdetector, que monitora relatos de falhas em serviços digitais, mostra uma alta de reclamações na manhã desta segunda-feira (20):

Nós também não conseguimos usar o ChatGPT nos últimos minutos:

Captura De Tela 2026 04 20 As 11.44.37 1024x239

Nas redes sociais, relatos parecidos em diferentes partes do mundo:

A OpenAI, desenvolvedora do ChatGPT, ainda não se manifestou.

O post ChatGPT caiu? Chatbot da OpenAI tem instabilidade apareceu primeiro em Olhar Digital.

ChatGPT caiu? Chatbot da OpenAI tem instabilidade Read More »