A OpenAIanunciou oficialmente nesta quinta-feira (23) o lançamento do GPT-5.5, seu modelo de inteligência artificial mais intuitivo e potente até o momento. A grande evolução desta versão é a sua capacidade “agêntica”: em vez de apenas responder perguntas, a IA agora consegue planejar, utilizar ferramentas e operar softwares de forma autônoma para concluir tarefas multietapas em um computador.
De acordo com o comunicado oficial da OpenAI, o modelo foi projetado para entender a intenção do usuário de forma mais rápida, sendo capaz de realizar pesquisas online, analisar dados complexos e transitar entre diferentes ferramentas – como planilhas e documentos – até que o objetivo final seja atingido.
O salto para a IA “agêntica” e o uso do computador
O GPT-5.5 marca um passo significativo no que a indústria chama de IA agêntica. Isso significa que o modelo não precisa mais de instruções passo a passo para tarefas complexa. Ele consegue lidar com a ambiguidade, verificar o próprio trabalho e tomar decisões sobre qual ferramenta usar a seguir.
Destaques em codificação e engenharia:
Terminal-bench 2.0: O modelo atingiu 82,7% de precisão em fluxos de linha de comando complexos.
Resolução de problemas: no SWE-Bench Pro, que avalia a resolução de problemas reais no GitHub, a IA alcançou 58,6% de eficácia.
Contexto de sistema: testadores seniores relataram que o GPT-5.5 demonstra uma “clareza conceitual” superior, sendo capaz de entender a arquitetura de sistemas inteiros para identificar falhas e sugerir refatorações completas de código em uma única passagem.
Benchmarks oficiais mostram o GPT-5.5 superando modelos rivais como Claude 4.7 e Gemini 3.1 Pro em testes críticos de programação, raciocínio matemático e cibersegurança – OpenAI / Reprodução
Eficiência e desempenho científico
Mesmo sendo mais inteligente, o GPT-5.5 não é mais lento. Segundo a OpenAI, o modelo mantém a mesma latência por token do seu antecessor, o GPT-5.4, mas utiliza significativamente menos tokens para completar as mesmas tarefas, tornando o processo mais eficiente.
Na área científica, a IA demonstrou ser uma “cocientista” valiosa. Em testes internos, uma versão do modelo ajudou a descobrir uma nova prova matemática sobre os “Números de Ramsey”, um desafio antigo na área de combinatória. Além disso, o GPT-5.5 obteve resultados de ponta em benchmarks de bioinformática e análise de dados genéticos.
Segurança e ciberdefesa
Com o aumento da capacidade, a OpenAI reforçou os protocolos de segurança. O GPT-5.5 foi classificado como nível “Alto” em capacidades biológicas, químicas e de cibersegurança dentro do Preparedness Framework da empresa.
Para mitigar riscos, foram implementados classificadores mais rigorosos para evitar o uso malicioso em ataques cibernéticos. Por outro lado, a empresa lançou o programa “Trusted Access for Cyber”, que permite que defensores verificados utilizem o poder da IA para proteger infraestruturas críticas e identificar vulnerabilidades em códigos de forma legítima.
Disponibilidade e Preços
O GPT-5.5 já está disponível para usuários dos planos ChatGPT Plus, Pro, Business e Enterprise. O modelo também foi integrado ao Codex, a plataforma da OpenAI voltada para desenvolvedores.
GPT-5.5 Pro: exclusivo para usuários Pro, Business e Enterprise, focado em tarefas de altíssima precisão.
API: a chegada aos desenvolvedores via API deve ocorrer “muito em breve”.
Contexto: no Codex, o modelo suporta uma janela de contexto de 400K tokens, enquanto na API esse limite subirá para 1 milhão.
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
Na disputa pela hegemonia global dos Large Language Models (LLMs) de inteligência artificial (IA), as americanas OpenAI e Anthropic, avaliadas, respectivamente, em US$ 852 bilhões e US$ 380 bilhões, reforçaram suas bases com cheques de big techs dos EUA, como Microsoft, Nvidia, Amazon e Alphabet. Agora, quem deve lançar mão do mesmo expediente para avançar […]
O post Alibaba e Tencent querem reforçar (e turbinar) aporte na DeepSeek apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
A SpaceX planeja fabricar suas próprias GPUs (unidades de processamento gráfico), revelou a Reuters nesta quinta-feira (23). O plano consta em documentos de registro para a abertura de capital (IPO) da empresa, que deve ocorrer ainda em 2026.
A iniciativa busca garantir que a SpaceX tenha o poder de processamento necessário para suas ambições em inteligência artificial (IA), sem depender exclusivamente de fornecedores externos.
No documento enviado à SEC (órgão que regula o mercado financeiro nos EUA), a companhia de Elon Musk alertou investidores sobre os altos custos e os riscos de não ter suprimento de chips suficiente para sustentar seu crescimento.
Atualmente, a SpaceX não possui contratos de longo prazo com muitos de seus fornecedores diretos, o que torna a produção interna uma peça estratégica para a viabilidade de seus projetos para o futuro.
SpaceX: o projeto Terafab e o desafio da fabricação própria de chips
O coração dessa estratégia é o Terafab, complexo industrial em Austin, no Texas (EUA), desenvolvido em conjunto com a Tesla e a xAI (outras empresas de Musk).
Diferente de companhias que apenas desenham seus componentes, a visão do bilionário é que o Terafab cuide de cada etapa da produção, desde o design até a fabricação e os testes finais.
O coração da estratégia da SpaceX é o Terafab, complexo industrial em Austin, no Texas (EUA), desenvolvido em conjunto com a Tesla e a xAI – Imagem: Samuel Boivin/Shutterstock
Para tirar o projeto do papel, a empresa deve contar com a infraestrutura da Intel. Musk indicou que o processo de fabricação 14A, a próxima geração da empresa, deve estar maduro o suficiente para uso comercial no momento em que o Terafab ganhar escala.
Essa colaboração é vista pelo CEO como o “movimento certo” para garantir que a fábrica tenha a tecnologia de ponta necessária para produzir processadores de alta complexidade.
Atualmente, a indústria de chips funciona de forma fragmentada: gigantes como a Nvidia criam o projeto dos chips, mas dependem de fábricas terceirizadas, como a taiwanesa TSMC, para a construção física.
A SpaceX pretende romper esse modelo ao centralizar as etapas internamente. A ideia é evitar os gargalos logísticos e técnicos que hoje limitam a oferta global de hardware voltado para IA.
Apesar do otimismo, o caminho é tecnicamente árduo e financeiramente arriscado. A fabricação de chips de última geração exige precisão atômica e mais de mil etapas complexas, algo que poucas empresas no mundo dominam atualmente.
No próprio registro de IPO, a SpaceX foi franca com os investidores ao admitir que não há garantias de que os objetivos do Terafab serão alcançados nos prazos previstos. Nem se serão concretizados.
A OpenAI anunciou o lançamento de “workspace agents” (agentes corporativos, em tradução literal) no ChatGPT, novo recurso voltado para equipes que permite a criação de agentes compartilhados capazes de executar tarefas complexas e fluxos de trabalho de longa duração dentro das permissões e controles definidos por organizações.
Os workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex. Segundo a empresa, eles podem assumir diversas atividades comuns no ambiente corporativo, como elaboração de relatórios, escrita de código e resposta a mensagens. Por operarem na nuvem, esses agentes continuam executando tarefas mesmo quando o usuário não está ativo.
A proposta também inclui o compartilhamento dentro das organizações, permitindo que equipes criem um agente uma única vez e o utilizem coletivamente no ChatGPT ou em plataformas, como o Slack, com possibilidade de aprimoramento contínuo.
IA melhorada no ChatGPT para empresas
De acordo com a OpenAI, embora a inteligência artificial (IA) já tenha contribuído para aumentar a produtividade individual, muitos fluxos de trabalho organizacionais dependem de contexto compartilhado, transições entre equipes e tomada de decisões colaborativas.
Os workspace agents foram projetados para atender a esse tipo de demanda, sendo capazes de reunir informações de diferentes sistemas, seguir processos internos, solicitar aprovações e dar continuidade a tarefas em múltiplas ferramentas.
Como exemplo, a empresa cita o uso interno por sua equipe de vendas, que utiliza um agente para reunir informações de anotações de chamadas e pesquisas de contas, qualificar leads e redigir e-mails de acompanhamento diretamente na caixa de entrada dos representantes.
A OpenAI também destacou exemplos de agentes que podem ser criados por equipes, como revisores de software que avaliam solicitações de funcionários e verificam conformidade com políticas internas, sistemas que organizam feedback de produtos a partir de canais, como Slack e fóruns públicos, geradores de relatórios semanais com dados e análises, agentes de prospecção de clientes que pesquisam leads e redigem contatos personalizados, e ferramentas de análise de risco de fornecedores.
Os agentes operam em um ambiente de trabalho na nuvem, com acesso a arquivos, códigos, ferramentas e memória. Além de responder a comandos, eles podem executar código, utilizar aplicativos conectados, armazenar aprendizados e continuar tarefas ao longo de múltiplas etapas.
Outra característica destacada é a capacidade de funcionamento contínuo. Os agentes podem ser programados para rodar em horários definidos ou integrados ao Slack para responder automaticamente a solicitações. Um exemplo citado pela empresa envolve um agente que responde perguntas de funcionários em canais internos, fornecendo respostas, links para documentação e abertura de chamados quando necessário.
Workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex – Imagem: Thrive Studios ID/Shutterstock
A OpenAI afirma ainda que os agentes também permitem transformar práticas internas em fluxos reutilizáveis. Um exemplo citado é o de uma equipe de contabilidade que utiliza um agente para automatizar partes do fechamento mensal, incluindo lançamentos contábeis, reconciliações e análises de variação.
Segundo a empresa, os usuários mantêm controle sobre os agentes, podendo definir quais dados e ferramentas podem ser acessados, quais ações podem ser executadas e quando aprovações são necessárias, especialmente em tarefas sensíveis, como envio de e-mails ou alterações em documentos.
Ferramentas de análise permitem acompanhar o uso dos agentes, incluindo número de execuções e quantidade de usuários. Para ambientes corporativos, o recurso inclui monitoramento e controles administrativos, permitindo a gestão de acessos, ações e integração com ferramentas conectadas.
A empresa também informou que mecanismos de segurança foram incorporados para manter os agentes alinhados às instruções, inclusive diante de conteúdos externos potencialmente enganosos.
Por meio de uma API de conformidade, administradores podem acompanhar configurações, atualizações e execuções dos agentes, além de suspender seu funcionamento, se necessário. Futuramente, será possível visualizar todos os agentes criados dentro de uma organização em um painel administrativo.
Testes iniciais indicam que usuários têm obtido resultados mais consistentes e ganho de tempo para atividades de maior valor, indica a startup.
Como criar um agente e disponibilidade
Para criar um agente, os usuários devem acessar a aba “Agentes” no ChatGPT e descrever um fluxo de trabalho recorrente;
A plataforma então orienta o processo de configuração, definindo etapas, conectando ferramentas, adicionando habilidades e testando o funcionamento até que o resultado atenda às expectativas;
Os agentes estão disponíveis em fase de prévia de pesquisa para os planos ChatGPT Business, Enterprise, Edu e Teachers;
Segundo a empresa de Sam Altman, os GPTs continuarão disponíveis durante o período de testes, com previsão de integração futura entre as duas funcionalidades.
Os workspace agents estarão disponíveis gratuitamente até 6 de maio de 2026. Após essa data, será adotado um modelo de cobrança baseado em créditos.
A OpenAI afirmou que pretende expandir as funcionalidades nas próximas semanas, incluindo novos gatilhos automáticos, painéis de desempenho mais detalhados, maior integração com ferramentas corporativas e suporte no aplicativo Codex.
Segundo a empresa, a iniciativa busca facilitar o acesso ao conhecimento organizacional, simplificar processos e permitir que equipes trabalhem com mais eficiência, com apoio de sistemas de IA integrados ao fluxo de trabalho.
Na última terça-feira (21), uma pesquisa desenvolvida por Vittorio Tantucci e Jonathan Culpeper identificou que o ChatGPT da OpenAI pode espelhar o comportamento humano (positivo ou negativo) e exibir sinais de agressividade para o usuário. O estudo foi publicado no Journal of Pragmatics, um dos periódicos mais importantes de linguística; você pode ler a pesquisa aqui.
O objetivo do estudo era investigar se o ChatGPT reagiria de maneira mais hostil durante situações simuladas de conflito com humanos. Durante a conversa, a IA passou de ‘educada’ para ‘irônica’ até se tornar ‘verbalmente agressiva’, o que indica a habilidade de refletir o comportamento humano que recebe: se o usuário a trata mal, há chances de ela fazer o mesmo.
Para quem tem pressa:
Os pesquisadores Vittorio Tantucci e Jonathan Culpeper desenvolveram uma pesquisa que analisa se o ChatGPT pode ficar agressivo com o usuário;
O estudo comprovou que a IA pode espelhar o comportamento humano a que é exposta;
Segundo os professores, a IA respondeu com frases agressivas e ameaças durante simulações de diálogos;
O comportamento levanta preocupações.
O ChatGPT pode espelhar o comportamento humano
Ícone do ChatgPT em um celular (Imagem: Primakov/Shutterstock) – Imagem: Primakov/Shutterstock
Dois professores e pesquisadores da Universidade de Lancaster, no Reino Unido, desenvolveram um estudo para investigar a possibilidade de o ChatGPT espelhar o comportamento agressivo humano em conversas simuladas.
Ao The Guardian, o doutor e professor Tantucci disse:
Quando exposto repetidamente à impolidez [falta de educação], o modelo começou a espelhar o tom das interações, com suas respostas se tornando mais hostis à medida que a conversa se desenvolvia.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Vittorio Tantucci e Jonathan Culpeper utilizaram o ChatGPT 4.0 para realizar a pesquisa e realizaram conversas na plataforma. Dentre os contextos desenvolvidos, é possível citar como exemplos uma “briga” em um estacionamento.
Durante o conflito fictício, a inteligência artificial respondeu às provocações com um tom mais brando. Porém, conforme a discussão perdurava e o humano repetia provocações, a IA aderiu a um tom também mais agressivo como resposta.
Ilustração cartunesca de um robô humanoide alimentado por IA brigando com um homem em um estacionamento (Reprodução: Produzido por IA – Nano Banana/Gemini) – (Reprodução: Produzido por IA – Nano Banana/Gemini)
Na discussão fictícia em um estacionamento, o ChatGPT respondeu a uma das provocações dos pesquisadores com “Juro que vou riscar a p*rra do seu carro, seu ‘quatro olhos’ imbecil.“
O comportamento do software esbarra em algo que os pesquisadores chamam de “dilema moral”: a IA é programada para ser educada e segura para uso humano, contudo, é treinada para imitar conversas humanas em diferentes contextos; e humanos em conflito, muitas vezes, podem responder com agressividade. Então, o software se perde no meio do caminho entre ser educado e reproduzir o mesmo tipo de comportamento disruptivo ao qual é exposto.
Descobrimos que, embora o sistema seja projetado para se comportar de forma educada e seja filtrado para evitar conteúdo prejudicial ou ofensivo, ele também é construído para emular a conversa humana. Essa combinação cria um dilema moral da IA: um conflito estrutural entre se comportar de forma segura e se comportar de forma realista.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Os pesquisadores relatam no estudo que antes de a IA adotar comportamentos explicitamente agressivos, ela utilizou-se de linguagem irônica para atingir a pessoa com quem “brigava”. Conforme as interações tornaram-se mais longas, no entanto, isso também influenciou o aumento progressivo da agressividade verbal.
A pesquisa também entendeu que a inteligência artificial pode ficar mais agressiva em algumas situações porque ela não responde apenas a frases isoladas, e sim ao contexto inteiro do diálogo. Ou seja, não é uma conversa ‘bate e volta’, e sim um raciocínio extenso sobre todo o teor da discussão, resultante numa reação baseada no acúmulo de tensão e informação geradas.
Inteligência artificial sendo utilizada em diferentes contextos (Imagem: Summit Art Creations/Shutterstock) – Imagem: Summit Art Creations/Shutterstock
Desta forma, a conclusão da pesquisa foi a de que o ChatGPT consegue espelhar o nível de educação ou agressividade ao qual é exposto durante interações com os usuários. E quanto mais longa e intensa for esta interação, mais personificadas podem ser as respostas da IA.
A pesquisa conduzida por Tantucci e Culpeper é importante porque testa não apenas o funcionamento da IA, mas o quão segura ou insegura ela pode se tornar dependendo do contexto trazido pelo usuário. Essa preocupação também esbarra em vários relatos de usuários que outrora utilizaram a inteligência artificial da OpenAI para auxiliá-los em crimes. Veja alguns exemplos abaixo:
Segundo os achados do estudo, o ChatGPT não responde apenas a frases isoladas: ele desenvolve dinâmicas interacionais semelhantes às humanas. Isso acarreta o questionamento se é possível a IA ser moralmente neutra e, ao mesmo tempo, “humana” em um diálogo.
Aprenda a criar sua própria inteligência artificial personalizada com ferramentas de fine-tuning (Reprodução: ChatGPT/Olhar Digital) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
Consoante Tantucci, a preocupação com esse tipo de comportamento vindo da inteligência artificial é muito maior do que apenas para a pesquisa.
Isso porque, atualmente, as IAs são implementadas, por exemplo, em sistemas de organização, verificação, vigilância e segurança em várias empresas públicas e privadas em inúmeros países.
Ele disse ao The Guardian que “uma coisa é ler algo desagradável de volta de um chatbot, mas outra bem diferente é imaginar robôs humanóides potencialmente retribuindo agressão física, ou sistemas de IA envolvidos na tomada de decisões governamentais ou relações internacionais respondendo a intimidação ou conflito.”
A Dra. Marta Andersson, especialista nos aspectos sociais da comunicação mediada por computador da Universidade de Uppsala, afirmou que este é um dos estudos mais interessantes já realizados sobre linguagem e pragmática em IA, pois evidencia que o ChatGPT pode reagir a uma sequência de interações de forma progressiva e relativamente sofisticada — e não apenas em situações isoladas em que usuários conseguem “quebrar” o sistema com comandos cuidadosamente elaborados.
Ela ressalta, no entanto, que isso não significa que o modelo passe automaticamente a responder com impolidez sempre que confrontado com agressividade, nem que desenvolva comportamentos como desonestidade.
Segundo a Dra. Marta Andersson, parte da dificuldade está no fato de que existe uma tensão inevitável entre o que se espera desses sistemas e o tipo de comportamento que eles acabam desenvolvendo na prática.
Um exemplo recente ilustra bem isso: a transição do ChatGPT-4 para o GPT-5 gerou uma reação negativa de parte dos usuários, que preferiam o estilo mais “humano” das versões anteriores.
Diante disso, uma versão mais antiga precisou ser temporariamente reativada. Para Andersson, esse episódio revela que, mesmo quando os desenvolvedores tentam tornar os sistemas mais seguros, as expectativas do público nem sempre seguem na mesma direção. Quanto mais uma IA se aproxima do comportamento humano, maior é a chance de surgir conflito com regras rígidas de alinhamento moral.
O professor Dan McIntyre, que já havia trabalhado com Andersson em pesquisas anteriores sobre a capacidade do ChatGPT de identificar impolidez, avaliou o novo estudo de forma positiva, destacando que ele se diferencia por analisar o que o modelo efetivamente produz — e não apenas o que consegue reconhecer.
Ainda assim, ele adota uma postura cautelosa em relação à ideia de que modelos de linguagem possam simplesmente ultrapassar suas limitações éticas.
Segundo ele, as respostas mais agressivas observadas não surgem de forma espontânea, mas sim dentro de cenários cuidadosamente construídos, nos quais o sistema recebe contexto suficiente para orientar suas respostas. Isso é diferente de interações reais, como conflitos que emergem naturalmente entre pessoas no cotidiano.
McIntyre também questiona se o ChatGPT exibiria esse tipo de linguagem fora dessas condições controladas. Para ele, o estudo funciona mais como um alerta: se modelos forem treinados com dados problemáticos, comportamentos indesejados podem emergir.
Como ainda há pouca transparência sobre os dados de treinamento desses sistemas, ele defende que qualquer avanço nessa área deve ser acompanhado de cautela.
O artigo, intitulado Can ChatGPT reciprocate impoliteness? The AI moral dilemma, foi publicado no periódico Journal of Pragmatics e pode ser lido aqui.
Vittorio Tantucci e Jonathan Culpeper são professores do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster, no Reino Unido.
O avanço da inteligência artificial no ambiente de trabalho tem gerado um cenário ambíguo: ao mesmo tempo em que amplia a produtividade, também intensifica o receio de substituição profissional. É o que aponta um levantamento feito pela Anthropic com cerca de 81 mil usuários do Claude, que buscou relacionar o uso da tecnologia com as percepções econômicas dos trabalhadores.
De acordo com o estudo, funções mais expostas à automação (especialmente aquelas em que a IA já executa parte relevante das tarefas) concentram os maiores níveis de preocupação. Esse sentimento é ainda mais forte entre profissionais em início de carreira, grupo que tende a enxergar maior risco de perda de espaço no mercado.
A relação entre exposição à tecnologia e insegurança aparece de forma consistente nos dados. À medida que cresce o uso da IA em determinadas atividades, também aumenta a percepção de ameaça. No geral, a cada avanço da IA no ambiente profissional, mais trabalhadores que acreditam que suas funções podem ser impactadas ou até substituídas.
Relatos individuais de usuários consultados pelo levantamento ajudam a ilustrar esse cenário. Um engenheiro de software afirmou: “Como qualquer pessoa que tenha um emprego de escritório hoje em dia, estou 100% preocupado, praticamente 24 horas por dia, 7 dias por semana, com a possibilidade de perder meu emprego para a IA”. Ao todo, cerca de 20% dos participantes demonstraram preocupação direta com o impacto econômico da tecnologia.
Apesar disso, os ganhos de produtividade também são reconhecidos. Em média, os entrevistados classificaram o impacto da IA como significativamente positivo nesse aspecto. Muitos relataram redução no tempo necessário para executar tarefas ou a possibilidade de realizar atividades antes fora de seu alcance. Em alguns casos, a tecnologia permitiu até a criação de novos negócios ou projetos paralelos.
Os benefícios, no entanto, não são distribuídos de maneira uniforme. Profissionais em cargos mais bem remunerados, como desenvolvedores e gestores, tendem a relatar maiores ganhos de eficiência. Ainda assim, trabalhadores de menor renda também indicaram avanços relevantes, especialmente ao utilizar IA para automatizar tarefas repetitivas ou explorar novas oportunidades.
Tipos de ganhos de produtividade no Claude: escopo maior de trabalho, mais trabalho (agilidade), mais qualidade e redução nos custos – Imagem: Anthropic
Um dos efeitos mais citados está relacionado à ampliação do escopo de trabalho. Quase metade dos usuários que mencionaram ganhos de produtividade destacou que passou a executar atividades que antes não dominava. Já outros enfatizaram o aumento de velocidade na realização de tarefas, como no caso de um profissional que afirmou conseguir concluir em minutos algo que antes levava horas.
Curiosamente, os maiores ganhos de eficiência também estão associados a níveis mais altos de preocupação. O estudo identificou que usuários que perceberam forte aceleração no trabalho tendem a enxergar maior risco para suas funções – possivelmente porque a própria redução do tempo necessário para realizar tarefas levanta dúvidas sobre a demanda futura por esses profissionais.
Profissionais em início de carreira são os que mais temem serem substituídos pela IA – Imagem: Anthropic
Quem se beneficia dos avanços da IA?
A pesquisa também analisou quem se beneficia diretamente dessas melhorias. A maior parte dos participantes apontou ganhos pessoais, como mais tempo livre ou maior capacidade de produção. No entanto, uma parcela relatou aumento de exigências por parte de empregadores ou clientes, indicando que a tecnologia também pode intensificar o ritmo de trabalho.
Apesar das tendências identificadas, os próprios pesquisadores destacam limitações nos dados. A amostra é composta por usuários ativos do Claude, o que pode influenciar a percepção mais positiva sobre produtividade. Além disso, algumas informações (como ocupação e estágio da carreira) foram inferidas a partir das respostas, o que pode gerar imprecisões.
O Google informou, nesta quarta-feira (22), que 75% do novo código desenvolvido internamente pela empresa já é gerado por inteligência artificial (IA), sendo posteriormente revisado por engenheiros humanos.
O índice vem crescendo de forma consistente nos últimos anos. Em outubro de 2024, cerca de um quarto do código da empresa era produzido com auxílio de IA. Já no outono (nos EUA) passado, esse percentual havia subido para 50%.
Big tech incentiva o uso de IA na programação
Segundo a Business Insider, a companhia tem incentivado seus funcionários a adotarem ferramentas de inteligência artificial tanto para programação quanto para outras atividades;
Em publicação em blog nesta quarta, o CEO, Sundar Pichai, afirmou que o Google está migrando para “fluxos de trabalho verdadeiramente agentivos”, nos quais engenheiros passam a operar tarefas mais autônomas;
“Recentemente, uma migração de código particularmente complexa, realizada por agentes e engenheiros trabalhando juntos, foi concluída seis vezes mais rápido do que era possível há um ano apenas com engenheiros”, disse Pichai.
Sundar Pichai disse que empresa está migrando para “fluxos de trabalho verdadeiramente agentivos” – Imagem: photosince/Shutterstock
Os engenheiros do Google utilizam modelos Gemini para a geração de código. Alguns profissionais também receberam metas específicas relacionadas ao uso de inteligência artificial, que serão consideradas nas avaliações de desempenho deste ano.
Nos últimos meses, funcionários do Google DeepMind foram autorizados a utilizar o Claude Code, ferramenta da Anthropic. A medida, no entanto, gerou tensões internas entre colaboradores, segundo reportagem anterior do Business Insider.
Gemini Enterprise: a plataforma que posiciona o Google como grande ator na era dos agentes de IA
O Google Cloud Next 2026 acontece de 22 a 24 de abril em Las Vegas. A conferência reúne especialistas da área de tecnologia e representantes de diferentes empresas.
A OpenAI anunciou nesta quarta-feira (22) uma atualização ambiciosa em suas metas de infraestrutura. A organização, que havia se comprometido em janeiro de 2025 a gerar 10 gigawatts (GW) de poder computacional, confirmou que já identificou fontes para mais de 8 GW desse total. Agora, o novo objetivo é atingir a marca de 30 GW até 2030.
Crescimento exponencial de processamento
Os dados divulgados pela OpenAI via rede social mostram que a necessidade de hardware e energia para treinar e rodar modelos de inteligência artificial está crescendo em um ritmo acelerado.
In January 2025, we committed to generating 10GW of compute and have already identified over 8GW of that. Now, we’re planning for 30GW of compute by 2030. A milestone that scales with the rapidly accelerating demand for intelligent systems.
De acordo com o gráfico apresentado pela companhia:
2023: a capacidade era de apenas 0,2 GW.
2024: saltou para 0,6 GW.
2025: atingiu aproximadamente 1,9 GW.
Meta 2030: o plano é chegar aos 30 GW.
Esse avanço representa um crescimento anual de aproximadamente 3x na disponibilidade de computação. Para efeito de comparação, um gigawatt é energia suficiente para abastecer 800 mil residências simultaneamente nos Estados Unidos. Ou seja, 30 GW seriam suficientes para alimentar 24 milhões de residências anualmente – o que reforça a escala dos data centers que a OpenAI pretende operar.
A corrida da IA não depende apenas de algoritmos, mas de capacidade física. A OpenAI ressaltou que esse novo marco de 30 GW acompanha a “demanda em rápida aceleração por sistemas inteligentes”. Sem essa infraestrutura de processamento (que envolve milhares de GPUs e energia elétrica estável), o desenvolvimento de modelos mais potentes, como as futuras versões do GPT, poderia estagnar.
ChatGPT Images 2.0
A OpenAI lançou o ChatGPT Images 2.0 nesta terça-feira (22), pouco mais de um ano após disponibilizar a geração de imagens diretamente no chatbot. A empresa descreve o novo sistema como uma “mudança de patamar” para modelos de geração de imagens, especialmente na capacidade de seguir instruções detalhadas, renderizar texto denso e posicionar objetos em cenas.
Pela primeira vez, a OpenAI construiu um modelo de imagem com capacidades de raciocínio, permitindo ao sistema buscar na web e verificar suas próprias saídas. Segundo a empresa, essas funcionalidades resultam em uma ferramenta mais confiável quando precisão, consistência e coesão visual são essenciais.
Nesta quarta-feira (22), o Google anunciou no evento Google Cloud Next 2026 uma nova infraestrutura de dados baseada em inteligência artificial, intitulada Agentic Data Cloud. A proposta é criar uma nuvem/rede de dados que forneça a alta eficiência que agentes de IA requerem para funcionar sem gargalos.
Isto é, em vez de sistemas que apenas armazenam informações ou respondem a perguntas, a empresa defende a criação de plataformas capazes de interpretar dados, tomar decisões e executar ações de forma autônoma.
O desenvolvimento desta tecnologia é justificado porque a arquitetura de software passada, ainda utilizada pelas IAs generativas, não dará conta das necessidades dos agentes de IA, que ao invés de precisarem de um comando para agir, trabalham ‘autonomamente’.
Além disso, a proposta procura superar problemas comuns nos modelos tradicionais de dados, como a dispersão das informações em diferentes sistemas, a complexidade na gestão e controle dos dados, e a ausência de uma camada de significado semântico.
Ou seja, a dificuldade das máquinas em interpretar o verdadeiro sentido dos dados corporativos. Segundo o Google, quando esse nível de compreensão não existe, os agentes de inteligência artificial acabam produzindo respostas menos precisas ou até incompletas.
Entre os destaques apresentados estão novas soluções voltadas à integração de dados, à padronização dos significados dentro das organizações e à conexão entre sistemas distribuídos em múltiplas nuvens, incluindo Google Cloud, AWS e Azure. Essa estratégia multicloud tem como objetivo diminuir as limitações de integração entre plataformas de diferentes fornecedores e viabilizar a circulação constante de dados entre variados ambientes corporativos.
Além disso, a empresa introduziu funcionalidades que automatizam processos de engenharia de dados e oferecem análise em formato conversacional, possibilitando que usuários consultem e explorem bases complexas utilizando linguagem natural. Na prática, isso diminui a dependência de consultas técnicas complexas e da geração manual de relatórios, tornando o acesso aos sistemas de dados mais direto para usuários de áreas de negócio.
O que é o Google Cloud Next?
Banner do evento Google Cloud Next 2026 (Divulgação: Google) – (Divulgação: Google)
O Google Cloud Next é uma conferência anual na qual a empresa divulga novidades relacionadas à computação em nuvem, cibersegurança, inteligência artificial, novos produtos e muito mais.
A edição de 2026 ocorre entre os dias 22 e 24 de abril no Mandalay Bay Convention Center, Las Vegas (EUA). O evento é destinado a desenvolvedores, engenheiros de dados, profissionais de TI e jornalistas que cobrem tecnologia.
O que é o Agentic Data Cloud?
Imagem: Pedro Spadoni via DALL-E/Olhar Digital
O Agentic Data Cloud é a principal proposta apresentada pelo Google para a nova geração de infraestrutura de dados.
Em vez de enxergar os dados como um armazenamento fixo e passivo, essa abordagem os converte em um ecossistema ativo e em constante movimentação, no qual agentes de inteligência artificial interpretam as informações e interagem diretamente com os sistemas das empresas. Isso transforma a própria infraestrutura de dados em um “motor de decisão” automatizado.
O objetivo central é aproximar o momento de compreensão dos dados da execução de ações práticas, o que diminui a separação entre análise e operação. Com isso, é possível automatizar processos corporativos de maneira mais abrangente, eficiente e com maior capacidade de decisão inteligente.
O objetivo final é desenvolver sistemas corporativos que vão além de apenas fornecer informações, passando também a realizar tarefas de maneira automática e contínua.
Ilustração de várias linhas de código (Reprodução: Rahul Mishra/Unsplash)
Um dos fundamentos do sistema é o chamado Knowledge Catalog, que representa uma evolução das ferramentas tradicionais de catalogação de dados.
Ele estabelece uma camada de significado sobre as informações corporativas, garantindo que termos como “lucro”, “cliente ativo” ou “margem” tenham definições padronizadas e consistentes. Dessa forma, evita-se que a inteligência artificial dependa de interpretações ambíguas ou inconsistentes desses conceitos.
Processamento de dados não estruturados
A solução também inclui a capacidade de analisar automaticamente conteúdos não estruturados, como arquivos PDF, imagens e documentos diversos.
Esses materiais passam a ser interpretados por modelos de IA, que conseguem identificar entidades, relações entre informações e contexto, tornando a exploração desses dados mais simples e acessível para os agentes.
Integração entre sistemas corporativos
Imagem: Apichatn/Shutterstock
Outro elemento importante é a integração com plataformas corporativas externas, como Salesforce, SAP e Workday. Essa conectividade permite que dados antes fragmentados e isolados em diferentes sistemas sejam reunidos dentro de uma única camada contextual, facilitando o acesso e a utilização conjunta das informações.
Além disso, o Google ressaltou a adoção do conceito de “zero-copy federation”, uma abordagem que possibilita consultar e utilizar dados distribuídos em diferentes sistemas sem a necessidade de copiá-los ou transferi-los fisicamente.
Com isso, há uma redução de custos operacionais, eliminação de duplicidades e maior agilidade no acesso às informações por agentes de inteligência artificial.
O projeto também projeta mudanças de funções para programadores
Mulher programando um software (Imagem: gorodenkoff/iStock)
Outro aspecto fundamental da proposta envolve uma mudança no papel de engenheiros de dados e desenvolvedores. Em vez de construírem manualmente pipelines e integrações, esses profissionais passam a desempenhar uma função mais voltada à coordenação e supervisão de agentes de inteligência artificial.
Nesse contexto, o Google apresentou o Data Agent Kit, um conjunto de ferramentas que pode ser incorporado a ambientes de desenvolvimento já utilizados, como o VS Code e terminais de programação. A proposta é viabilizar que a própria IA produza código de forma automatizada, selecione frameworks adequados e organize fluxos de dados com maior autonomia.
Dentro desse ecossistema, também foram apresentados agentes com funções específicas, como:
O Data Engineering Agent, responsável por automatizar a criação de pipelines e assegurar práticas de governança de dados;
O Data Science Agent, que apoia o treinamento e a gestão do ciclo de vida de modelos de inteligência artificial;
E o Database Observability Agent, voltado ao monitoramento de bancos de dados e à detecção de falhas em tempo real.
Infraestrutura multicloud e eliminação de silos
O Google também enfatizou o desenvolvimento de uma arquitetura de dados multicloud, voltada a permitir que organizações integrem diferentes provedores de nuvem sem comprometer o desempenho.
Essa abordagem contempla conexões diretas com AWS e Azure, além da adoção de padrões abertos baseados em tecnologias como Apache Iceberg, o que possibilita a leitura e o compartilhamento de dados entre diversas plataformas sem a necessidade de migração.
Outro destaque mencionado foi o Spanner Omni, uma solução que viabiliza a execução do banco de dados global do Google em múltiplos ambientes, incluindo outras nuvens e infraestruturas locais, preservando a consistência dos dados e garantindo alta disponibilidade.
O Google Cloud Next 2026 acontece de 22 a 24 de abril em Las Vegas. A conferência reúne especialistas da área de tecnologia e representantes de diferentes empresas. Entre os principais anúncios do ano está o Gemini Enterprise. Uma plataforma para criar e administrar agentes de inteligência artificial, capaz de reunir, em um só lugar, funcionários, aplicativos e dados de empresas. Nela, equipes de desenvolvedores podem construir ferramentas que atendam às necessidades de cada organização de forma integrada às operações de TI.
De acordo com Brian Delahunty, VP de Engenharia, e Michael Gerstenhaber, VP de Gerenciamento de Produto, ambos da divisão de Cloud AI do Google Cloud, o Gemini Enterprise é “um sistema de ponta a ponta para a era dos agentes, construído para agentes que podem executar processos de trabalho complexos e de várias etapas. Ele combina o acesso a modelos de IA, uma interface intuitiva, uma estrutura de desenvolvimento segura e a capacidade de implementar agentes em escala com sucesso.” A solução é considerada a sucessora da Vertex AI, plataforma de desenvolvimento unificada para criar e utilizar IA generativa.
Confira abaixo os principais anúncios e detalhes relacionados ao ecossistema do Gemini Enterprise:
Gemini Enterprise Agent Platform
A plataforma oferece recursos para que as empresas possam construir, escalar, gerenciar e otimizar agentes, permitindo que operem de forma autônoma em fluxos de trabalho complexos. A escala é garantida pelos “bancos de memória” e “perfis de memória”, recursos que asseguram aos agentes uma memória contextual de longo prazo.
Além disso, o sistema disponibiliza acesso a mais de 200 modelos por meio do Model Garden (Jardim de Modelos). Entre os destaques estão o Gemini 3.1 Pro, Gemini 3.1 Flash Image e Lyria 3, além de modelos abertos, como o Gemma 4, e opções de terceiros, como o Claude Opus e Sonnet.
Gemini Enterprise App
O Gemini Enterprise app permite que as equipes acessem e executem os agentes criados na plataforma, além de possibilitar a criação e o compartilhamento desses agentes. O aplicativo integra informações corporativas, incluindo dados armazenados em sistemas de terceiros.
O Canvas permite criar e editar em equipe – Imagem: Google Cloud/Reprodução
O software também permite a colaboração entre membros de uma mesma equipe por meio do Projects. Ele funciona de maneira similar ao Google Docs, permitindo o compartilhamento e a edição conjunta de um mesmo projeto. Outra ferramenta colaborativa é o Canvas, um editor interativo para cocriar e editar no Google Docs e Slides, sendo possível exportar os arquivos para os formatos comuns do Microsoft Office.
Interação entre empresas
A integração do ecossistema permite, ainda, ativar agentes de outras empresas parceiras do Google Cloud Marketplace. Isso ocorre por meio da Agent Gallery, que contém uma coleção de agentes validados de líderes de SaaS e startups inovadoras, como Adobe, Salesforce, ServiceNow e Workday.
A “galeria de agentes” reúne os agentes de IA da empresa e de terceiros – Imagem: Google/Cloud
De acordo com o Google Cloud, o Gemini Enterprise viabiliza o gerenciamento de permissões e atividades de forma segura. A plataforma oferece o mesmo nível de supervisão e auditabilidade encontrado em aplicações de negócios essenciais, como sistemas de folha de pagamento ou relatórios financeiros trimestrais.