A chinesa DeepSeek lançou o modelo de inteligência artificial (IA) V4. A ferramenta chega ao mercado com o título de LLM (grande modelo de linguagem) de código aberto mais “potente” da atualidade..
O lançamento ocorre num momento decisivo para a startup de Hangzhou, que busca sua primeira rodada de investimento externo para cobrir os altos custos de talentos e processamento.
O valor da empresa agora depende do desempenho real desse modelo. Enquanto isso, o fundador Liang Wenfeng tenta levantar pelo menos US$ 300 milhões (R$ 1,5 bilhão) com investidores que observam de perto se a tecnologia entrega o que promete.
Eficiência bruta e preços agressivos marcam a nova fase da DeepSeek
A grande evolução técnica do V4 está no que os especialistas chamam de janela de contexto, que ficou oito vezes maior em relação à versão de dezembro de 2024.
Na prática, isso significa que a IA consegue “ler” e lembrar de documentos muito mais longos e manter conversas complexas sem se perder.
Além disso, a empresa focou em tarefas agênticas, que são funções nas quais o modelo resolve problemas lógicos e executa ações com mais autonomia.
Para atrair usuários, a DeepSeek iniciou uma verdadeira guerra de preços: enquanto modelos americanos como o Claude Opus 4.6 cobram US$ 25 (R$ 125) por um milhão de tokens, a versão Pro do V4 custa US$ 3,50 (R$ 18).
Testes indicam que o modelo de IA V4, da DeepSeek, continua atrás do Claude 4.6, da Anthropic, em certas áreas – Imagem: Stock all/Shutterstock
Essa economia é possível graças a novos designs e técnicas de treinamento criadas pela startup para reduzir o gasto de energia e computação.
A expectativa é que o preço caia mais quando a Huawei, parceira local e rival da Nvidia, aumentar a entrega de novos chips de IA, o que está previsto para ocorrer ainda em 2026.
Entretanto, o modelo tem limitações claras e não supera os sistemas de código fechado mais avançados dos EUA. Testes indicam que o V4 empata com tecnologias americanas do final de 2025, mas continua atrás do Gemini 3.1 Pro e do Claude 4.6 em certas áreas.
Outro ponto de atenção é a ausência de recursos multimodais, ou seja, a IA da DeepSeek ainda não processa de forma nativa áudio, imagens ou vídeos, algo que concorrentes chineses como Alibaba e ByteDance já oferecem.
O avanço também carrega polêmicas de bastidores e barreiras políticas. Funcionários do governo dos EUA acusam laboratórios chineses de driblar controles de exportação, enquanto a OpenAI e a Anthropic afirmam que a DeepSeek usou outputs de modelos americanos para acelerar seu próprio desenvolvimento.
A startup não respondeu a essas acusações, mas enfrenta dificuldades reais com a escassez de chips avançados e a perda de talentos para concorrentes com orçamentos maiores.
No fim, a DeepSeek tenta provar que seu modelo de negócio baseado em código aberto (no qual o usuário pode baixar e modificar o software livremente) é sustentável.
Até agora, a empresa foi mantida quase inteiramente com a fortuna pessoal de Liang e lucros de seu fundo de hedge. Com o V4, o objetivo é mostrar que a China pode competir na inovação global com uma tecnologia eficiente e, acima de tudo, mais barata que a do Vale do Silício.
Os chatbots alimentados por inteligência artificial demonstram utilidade para muitas tarefas, sugestões de conteúdo, e até para a revisão de texto. Mas o que fazer quando enviamos um comando e a IA devolve com uma resposta medíocre? Nesse caso, o problema costuma ser o prompt utilizado e não o software da plataforma.
Para resolver isso, elaboramos uma lista de prompts para você utilizar no Claude (IA da Anthropic) e, com isso, obter respostas satisfatórias do chatbot. Os comandos devem melhorar não apenas a qualidade do resultado obtido, mas também a riqueza de detalhes ofertada em cada mensagem.
5 prompts para melhorar a qualidade das respostas do chatbot Claude
Apps com chabots alimentados por IA (Imagem: Tada Images/Shutterstock) – Imagem: Tada Images/Shutterstock
Exija perguntas para refinar o conteúdo final
Há muitos prompts bons lá fora, mas nem sempre eles embarcam toda a complexidade de nosso pensamento. A principal consequência disso é o chatbot enviar respostas que não contemplem tudo aquilo que esperávamos.
Por isso, uma ótima ideia para que a IA ofereça um melhor desempenho, é instigá-la a fazer perguntas. Ou seja, ao invés de você mandar um prompt completo sobre a geração de uma imagem, por exemplo, é possível solicitar que o chatbot realize uma lista de perguntas sobre o que você quer ver/espera da imagem. Isso pode refinar a resposta dele para algo bem próximo do que você precisa.
O prompet pode ser algo simples, como:
Faça-me as perguntas de que você precisa para entender melhor este projeto. [Insira o projeto/prompet em seguida]
Agora, se deseja algo ainda mais refinado, você pode fornecer a IA uma série de informações ricas e detalhadas e, em seguida, utilizar algo como:
Antes de começar a tarefa, revise todas as informações fornecidas e faça todas as perguntas necessárias para aumentar as chances de entregar o resultado que procuro. Numere as perguntas e, sempre que possível, formule-as de forma que possam ser respondidas com ‘sim’ ou ‘não’, para facilitar respostas rápidas e claras.
Impeça a produção de informações falsas
A não ser que você tenha pedido (e muito provavelmente não foi o caso), é indicado dizer ao chatbot que ele não pode inventar coisas que não existam, sejam o nome de pessoas, obras, citações, links ou informações.
Para isso, em algum lugar dentro do seu prompt, insira instruções claras do que o chatbot não pode fazer. Por exemplo:
Tudo bem se você não tiver alguma informação, mas seja sincero quanto a isso;
Não crie informações/dados mentirosos. Não invente nomes, obras, links, números ou qualquer outro dado que não exista;
Apure todas as informações fornecidas e insira um link confiável para justificar seu apontamento. Para isso, exclua sites duvidosos, como a Wikipédia.
A inteligência artificial presente nos chatbots foi programada para se adaptar a todo e qualquer contexto. Por isso, uma vez que você a força a assumir um determinado papel ou função/personagem, todo o conteúdo do chat será em torno disso.
Essa técnica é importante porque em vez de a IA dar uma mera importância a uma mensagem de cada vez, todos os comandos deste chat serão colocados dentro do mesmo contexto. Assim, ela pode referenciar dados prévios (que você ou ela tenha enviado) desta conversa em novas mensagens.
Abaixo, constam alguns exemplos atrelados a contextos específicos:
Explique-me a diferença entre notícia, nota e reportagem como se fosse um professor universitário aposentado que lecionou por décadas sobre a edição e desenvolvimento de textos jornalísticos.Sua explicação é destinada a um aluno que ainda está na faculdade e busca construir uma base sólida sobre redação.
Se você decidir usar esta técnica, é necessário personalizar o comando de acordo com o personagem ou função que você deseja que a IA assuma.
Caso você tenha dificuldade para lembrar-se do que aprendeu, pode dar um toque mais cômico, ainda que educativo, para o prompt.
Você é um estatístico, engenheiro e professor de matemática com mestrado em educação inclusiva. Ensine-me álgebra linear como se os conceitos matemáticos fossem personagens de um reality show.
Apurar o conteúdo enviado pelo chatbot é imprescindível (Imagem: krungchingpixs/Shutterstock)
Não é indicado aceitar cegamente tudo o que o chatbot responde a você, principalmente se você não entendeu tudo o que ele lhe disse. Isso porque, não raramente, a inteligência artificial pode enviar respostas imprecisas ou incompletas.
Por isso, uma maneira de auxiliar na sua compreensão do assunto abordado e ainda permitir que a própria ferramenta perceba algum erro e se corrija (porque, sim, isso é possível) é você pedir que ela explique como ela chegou a determinado raciocínio.
Algumas alternativas podem ser:
Explique o passo a passo de como você chegou a esta conclusão e reflita explicitamente se há algum erro de raciocínio ou imprecisão de dados;
Quais dados e alternativas foram utilizados para chegar a esta conclusão? Não se esqueça de citar seu formato de apuração e fontes de informação.
Solicite uma explicação de abordagem antes da resposta final
No ato de enviar um questionamento ou comando ao chatbot, você pode, por exemplo, solicitar que ele explique qual será a abordagem utilizada para enviar a resposta de que você precisa.
Sem esse direcionamento, o Claude simplesmente executa a tarefa imediatamente. Na maior parte dos casos, o resultado acaba exigindo várias correções manuais depois. Já com esse tipo de prompt, a probabilidade de receber uma resposta mais organizada, coerente e bem elaborada aumenta bastante.
Antes de responder, descreva rapidamente qual estratégia você vai usar para resolver este problema. Em seguida, apresente a resposta de forma organizada e clara: [insira sua pergunta aqui].
A Anthropic anunciou uma atualização significativa para o Claude nesta quinta-feira (23), expandindo o diretório de serviços conectados da inteligência artificial. Se antes o foco da ferramenta estava voltado para produtividade e ambiente corporativo, agora o chatbot passa a integrar aplicativos de estilo de vida, como Spotify, Uber, Uber Eats, TripAdvisor e Instacart.
Com a novidade, o Claude agora soma mais de 200 conectores ativos. A proposta é transformar a IA em um assistente pessoal capaz de executar tarefas complexas que exigem a comunicação entre diferentes plataformas, sem que o usuário precise sair da aba de conversa.
Integração vai além do ambiente de trabalho
Desde o lançamento de seus conectores em julho de 2025, a Anthropic observou que os usuários tendem a combinar várias ferramentas em um único fluxo de trabalho. Um exemplo comum no ambiente profissional é extrair dados de uma plataforma de análise, gerar uma apresentação no Canva e enviá-la diretamente para o Asana.
Agora, essa lógica de ecossistema chega à rotina pessoal. Entre os novos serviços integrados, destacam-se:
Viagens e lazer: Booking.com, TripAdvisor, Viator e AllTrails.
Finanças e serviços: Intuit TurboTax, Credit Karma, Taskrabbit e Thumbtack.
Consumo e entretenimento: Spotify, Audible, Uber, Uber Eats, Instacart e StubHub.
Na prática, isso significa que você pode pedir ao Claude para planejar uma trilha no AllTrails e, simultaneamente, solicitar que ele prepare uma playlist no Spotify com a duração exata do percurso, conforme detalhado pelo Engadget.
Como funcionam os novos conectores
A experiência de uso também foi reformulada para ser mais fluida. Em vez de exigir que o usuário instale ou alterne entre programas manualmente, o Claude agora sugere o conector apropriado de forma dinâmica durante a conversa.
Ao solicitar uma reserva em um restaurante, por exemplo, o ícone do Resy ou do OpenTable pode surgir diretamente na interface, baseando-se no contexto e nas preferências já estabelecidas no diálogo. Se houver mais de uma opção de serviço que possa atender ao pedido, a IA apresentará as alternativas para que o usuário escolha a de sua preferência.
Privacidade e controle do usuário
Um ponto de destaque reforçado pela Anthropic em seu comunicado oficial é a manutenção da política de privacidade. A empresa garante que os dados acessados por meio desses conectores não são utilizados para treinar os modelos de linguagem do Claude. Além disso, as plataformas conectadas não têm acesso ao histórico de outras conversas do usuário com o chatbot.
A IA também foi projetada com travas de segurança para transações financeiras:
Sem anúncios: o Claude permanece livre de anúncios e não aceita pagamentos por posicionamento de conectores.
Confirmação obrigatória: a IA não pode finalizar compras ou reservas de forma autônoma; ela é instruída a pedir autorização explícita do usuário antes de concluir qualquer ação que envolva pagamentos ou agendamentos.
Os novos conectores já estão disponíveis para usuários em todos os planos, com a versão para dispositivos móveis operando atualmente em fase beta. No entanto, a disponibilidade das integrações e funcionalidades mencionadas depende das operações regionais de cada serviço.
Esta semana, a gigante Microsoft passou a implementar para os assinantes dos planos do Office uma atualização do Copilot: o Agent Mode. O update é descrito como uma versão mais poderosa, que agora promete a execução de ações diretas nos documentos de formato Word, Excel e PowerPoint.
Outrora conhecida por “vibe working” no ano passado, o Agent Mode oferta um molde de inteligência artificial mais refinado do que a versão anterior do Copilot. A empresa destaca, inclusive, que essa atualização executa tarefas em várias etapas sem se perder no contexto em que trabalha.
Isso é importante porque, anteriormente, o Copilot trabalhava respondendo perguntas e auxiliava em sugestões de aprimoramento de conteúdo. Mas o modelo Agent Mode pode fazer isso enquanto compreende os comandos recebidos com maior eficácia, além de realizar edições diretas. Ou seja, o software tornou-se mais ‘ativo’.
Agent Mode: Microsoft anuncia implementação de um update no Copilot
Sistema Copilot em ação dentro dos softwares do pacote office (Imagem: Azulblue / Shutterstock.com)
Ao site The Verge, o vice-presidente corporativo do grupo, Sumit Chauhan, disse o seguinte:
Quando lançamos o Copilot pela primeira vez, os modelos fundamentais não eram poderosos o suficiente para usar o Copilot para comandar os aplicativos. Isso significava que o Copilot era um parceiro passivo nos documentos: ele podia responder perguntas, mas não conseguia executar ações diretamente no conteúdo.
— Sumit Chauhan, vice-presidente corporativo da Microsoft
A Microsoft também garante uma melhor qualidade geral das respostas geradas, maior capacidade de raciocínio e uma compreensão mais eficiente sobre as instruções recebidas. Isso auxilia na realização de tarefas mais complexas, como múltiplas edições seguidas.
A título de comparação com o Copilot ‘mais simples’, a versão com Agent Mode permite ao usuário acompanhar em tempo real todas as modificações implementadas pela IA via uma barra lateral na tela.
Sistema Copilot atrelado ao Word (Divulgação: Microsoft) – (Divulgação: Microsoft)
Como exemplo de ações práticas, a Microsoft destaca a criação de fórmulas, tabelas e alteração geral de planilhas (no Excel); a atualização de um slide com novas informações pertinentes sem comprometer o design (no PowerPoint); e a edição textual com maior autonomia (no Word).
O update foi desenvolvido para seguir melhor comandos e edições em documentos, planilhas e apresentações. “Ao longo do último ano, os modelos deram avanços significativos na capacidade de seguir instruções, raciocinar e na qualidade geral, e agora são melhores em lidar com edições de múltiplas etapas de forma confiável sem perder a intenção do usuário”, afirmou Chauhan.
Por padrão, o Copilot Agent Mode está em fase de liberação para assinantes dos planos Microsoft 365 Copilot e Microsoft 365 Copilot Premium. Contudo, a empresa ressalta que também estarão disponíveis nos planos Personal e Family.
A OpenAIanunciou oficialmente nesta quinta-feira (23) o lançamento do GPT-5.5, seu modelo de inteligência artificial mais intuitivo e potente até o momento. A grande evolução desta versão é a sua capacidade “agêntica”: em vez de apenas responder perguntas, a IA agora consegue planejar, utilizar ferramentas e operar softwares de forma autônoma para concluir tarefas multietapas em um computador.
De acordo com o comunicado oficial da OpenAI, o modelo foi projetado para entender a intenção do usuário de forma mais rápida, sendo capaz de realizar pesquisas online, analisar dados complexos e transitar entre diferentes ferramentas – como planilhas e documentos – até que o objetivo final seja atingido.
O salto para a IA “agêntica” e o uso do computador
O GPT-5.5 marca um passo significativo no que a indústria chama de IA agêntica. Isso significa que o modelo não precisa mais de instruções passo a passo para tarefas complexa. Ele consegue lidar com a ambiguidade, verificar o próprio trabalho e tomar decisões sobre qual ferramenta usar a seguir.
Destaques em codificação e engenharia:
Terminal-bench 2.0: O modelo atingiu 82,7% de precisão em fluxos de linha de comando complexos.
Resolução de problemas: no SWE-Bench Pro, que avalia a resolução de problemas reais no GitHub, a IA alcançou 58,6% de eficácia.
Contexto de sistema: testadores seniores relataram que o GPT-5.5 demonstra uma “clareza conceitual” superior, sendo capaz de entender a arquitetura de sistemas inteiros para identificar falhas e sugerir refatorações completas de código em uma única passagem.
Benchmarks oficiais mostram o GPT-5.5 superando modelos rivais como Claude 4.7 e Gemini 3.1 Pro em testes críticos de programação, raciocínio matemático e cibersegurança – OpenAI / Reprodução
Eficiência e desempenho científico
Mesmo sendo mais inteligente, o GPT-5.5 não é mais lento. Segundo a OpenAI, o modelo mantém a mesma latência por token do seu antecessor, o GPT-5.4, mas utiliza significativamente menos tokens para completar as mesmas tarefas, tornando o processo mais eficiente.
Na área científica, a IA demonstrou ser uma “cocientista” valiosa. Em testes internos, uma versão do modelo ajudou a descobrir uma nova prova matemática sobre os “Números de Ramsey”, um desafio antigo na área de combinatória. Além disso, o GPT-5.5 obteve resultados de ponta em benchmarks de bioinformática e análise de dados genéticos.
Segurança e ciberdefesa
Com o aumento da capacidade, a OpenAI reforçou os protocolos de segurança. O GPT-5.5 foi classificado como nível “Alto” em capacidades biológicas, químicas e de cibersegurança dentro do Preparedness Framework da empresa.
Para mitigar riscos, foram implementados classificadores mais rigorosos para evitar o uso malicioso em ataques cibernéticos. Por outro lado, a empresa lançou o programa “Trusted Access for Cyber”, que permite que defensores verificados utilizem o poder da IA para proteger infraestruturas críticas e identificar vulnerabilidades em códigos de forma legítima.
Disponibilidade e Preços
O GPT-5.5 já está disponível para usuários dos planos ChatGPT Plus, Pro, Business e Enterprise. O modelo também foi integrado ao Codex, a plataforma da OpenAI voltada para desenvolvedores.
GPT-5.5 Pro: exclusivo para usuários Pro, Business e Enterprise, focado em tarefas de altíssima precisão.
API: a chegada aos desenvolvedores via API deve ocorrer “muito em breve”.
Contexto: no Codex, o modelo suporta uma janela de contexto de 400K tokens, enquanto na API esse limite subirá para 1 milhão.
A SpaceX planeja fabricar suas próprias GPUs (unidades de processamento gráfico), revelou a Reuters nesta quinta-feira (23). O plano consta em documentos de registro para a abertura de capital (IPO) da empresa, que deve ocorrer ainda em 2026.
A iniciativa busca garantir que a SpaceX tenha o poder de processamento necessário para suas ambições em inteligência artificial (IA), sem depender exclusivamente de fornecedores externos.
No documento enviado à SEC (órgão que regula o mercado financeiro nos EUA), a companhia de Elon Musk alertou investidores sobre os altos custos e os riscos de não ter suprimento de chips suficiente para sustentar seu crescimento.
Atualmente, a SpaceX não possui contratos de longo prazo com muitos de seus fornecedores diretos, o que torna a produção interna uma peça estratégica para a viabilidade de seus projetos para o futuro.
SpaceX: o projeto Terafab e o desafio da fabricação própria de chips
O coração dessa estratégia é o Terafab, complexo industrial em Austin, no Texas (EUA), desenvolvido em conjunto com a Tesla e a xAI (outras empresas de Musk).
Diferente de companhias que apenas desenham seus componentes, a visão do bilionário é que o Terafab cuide de cada etapa da produção, desde o design até a fabricação e os testes finais.
O coração da estratégia da SpaceX é o Terafab, complexo industrial em Austin, no Texas (EUA), desenvolvido em conjunto com a Tesla e a xAI – Imagem: Samuel Boivin/Shutterstock
Para tirar o projeto do papel, a empresa deve contar com a infraestrutura da Intel. Musk indicou que o processo de fabricação 14A, a próxima geração da empresa, deve estar maduro o suficiente para uso comercial no momento em que o Terafab ganhar escala.
Essa colaboração é vista pelo CEO como o “movimento certo” para garantir que a fábrica tenha a tecnologia de ponta necessária para produzir processadores de alta complexidade.
Atualmente, a indústria de chips funciona de forma fragmentada: gigantes como a Nvidia criam o projeto dos chips, mas dependem de fábricas terceirizadas, como a taiwanesa TSMC, para a construção física.
A SpaceX pretende romper esse modelo ao centralizar as etapas internamente. A ideia é evitar os gargalos logísticos e técnicos que hoje limitam a oferta global de hardware voltado para IA.
Apesar do otimismo, o caminho é tecnicamente árduo e financeiramente arriscado. A fabricação de chips de última geração exige precisão atômica e mais de mil etapas complexas, algo que poucas empresas no mundo dominam atualmente.
No próprio registro de IPO, a SpaceX foi franca com os investidores ao admitir que não há garantias de que os objetivos do Terafab serão alcançados nos prazos previstos. Nem se serão concretizados.
A OpenAI anunciou o lançamento de “workspace agents” (agentes corporativos, em tradução literal) no ChatGPT, novo recurso voltado para equipes que permite a criação de agentes compartilhados capazes de executar tarefas complexas e fluxos de trabalho de longa duração dentro das permissões e controles definidos por organizações.
Os workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex. Segundo a empresa, eles podem assumir diversas atividades comuns no ambiente corporativo, como elaboração de relatórios, escrita de código e resposta a mensagens. Por operarem na nuvem, esses agentes continuam executando tarefas mesmo quando o usuário não está ativo.
A proposta também inclui o compartilhamento dentro das organizações, permitindo que equipes criem um agente uma única vez e o utilizem coletivamente no ChatGPT ou em plataformas, como o Slack, com possibilidade de aprimoramento contínuo.
IA melhorada no ChatGPT para empresas
De acordo com a OpenAI, embora a inteligência artificial (IA) já tenha contribuído para aumentar a produtividade individual, muitos fluxos de trabalho organizacionais dependem de contexto compartilhado, transições entre equipes e tomada de decisões colaborativas.
Os workspace agents foram projetados para atender a esse tipo de demanda, sendo capazes de reunir informações de diferentes sistemas, seguir processos internos, solicitar aprovações e dar continuidade a tarefas em múltiplas ferramentas.
Como exemplo, a empresa cita o uso interno por sua equipe de vendas, que utiliza um agente para reunir informações de anotações de chamadas e pesquisas de contas, qualificar leads e redigir e-mails de acompanhamento diretamente na caixa de entrada dos representantes.
A OpenAI também destacou exemplos de agentes que podem ser criados por equipes, como revisores de software que avaliam solicitações de funcionários e verificam conformidade com políticas internas, sistemas que organizam feedback de produtos a partir de canais, como Slack e fóruns públicos, geradores de relatórios semanais com dados e análises, agentes de prospecção de clientes que pesquisam leads e redigem contatos personalizados, e ferramentas de análise de risco de fornecedores.
Os agentes operam em um ambiente de trabalho na nuvem, com acesso a arquivos, códigos, ferramentas e memória. Além de responder a comandos, eles podem executar código, utilizar aplicativos conectados, armazenar aprendizados e continuar tarefas ao longo de múltiplas etapas.
Outra característica destacada é a capacidade de funcionamento contínuo. Os agentes podem ser programados para rodar em horários definidos ou integrados ao Slack para responder automaticamente a solicitações. Um exemplo citado pela empresa envolve um agente que responde perguntas de funcionários em canais internos, fornecendo respostas, links para documentação e abertura de chamados quando necessário.
Workspace agents representam uma evolução dos GPTs e são alimentados pela tecnologia Codex – Imagem: Thrive Studios ID/Shutterstock
A OpenAI afirma ainda que os agentes também permitem transformar práticas internas em fluxos reutilizáveis. Um exemplo citado é o de uma equipe de contabilidade que utiliza um agente para automatizar partes do fechamento mensal, incluindo lançamentos contábeis, reconciliações e análises de variação.
Segundo a empresa, os usuários mantêm controle sobre os agentes, podendo definir quais dados e ferramentas podem ser acessados, quais ações podem ser executadas e quando aprovações são necessárias, especialmente em tarefas sensíveis, como envio de e-mails ou alterações em documentos.
Ferramentas de análise permitem acompanhar o uso dos agentes, incluindo número de execuções e quantidade de usuários. Para ambientes corporativos, o recurso inclui monitoramento e controles administrativos, permitindo a gestão de acessos, ações e integração com ferramentas conectadas.
A empresa também informou que mecanismos de segurança foram incorporados para manter os agentes alinhados às instruções, inclusive diante de conteúdos externos potencialmente enganosos.
Por meio de uma API de conformidade, administradores podem acompanhar configurações, atualizações e execuções dos agentes, além de suspender seu funcionamento, se necessário. Futuramente, será possível visualizar todos os agentes criados dentro de uma organização em um painel administrativo.
Testes iniciais indicam que usuários têm obtido resultados mais consistentes e ganho de tempo para atividades de maior valor, indica a startup.
Como criar um agente e disponibilidade
Para criar um agente, os usuários devem acessar a aba “Agentes” no ChatGPT e descrever um fluxo de trabalho recorrente;
A plataforma então orienta o processo de configuração, definindo etapas, conectando ferramentas, adicionando habilidades e testando o funcionamento até que o resultado atenda às expectativas;
Os agentes estão disponíveis em fase de prévia de pesquisa para os planos ChatGPT Business, Enterprise, Edu e Teachers;
Segundo a empresa de Sam Altman, os GPTs continuarão disponíveis durante o período de testes, com previsão de integração futura entre as duas funcionalidades.
Os workspace agents estarão disponíveis gratuitamente até 6 de maio de 2026. Após essa data, será adotado um modelo de cobrança baseado em créditos.
A OpenAI afirmou que pretende expandir as funcionalidades nas próximas semanas, incluindo novos gatilhos automáticos, painéis de desempenho mais detalhados, maior integração com ferramentas corporativas e suporte no aplicativo Codex.
Segundo a empresa, a iniciativa busca facilitar o acesso ao conhecimento organizacional, simplificar processos e permitir que equipes trabalhem com mais eficiência, com apoio de sistemas de IA integrados ao fluxo de trabalho.
Na última terça-feira (21), uma pesquisa desenvolvida por Vittorio Tantucci e Jonathan Culpeper identificou que o ChatGPT da OpenAI pode espelhar o comportamento humano (positivo ou negativo) e exibir sinais de agressividade para o usuário. O estudo foi publicado no Journal of Pragmatics, um dos periódicos mais importantes de linguística; você pode ler a pesquisa aqui.
O objetivo do estudo era investigar se o ChatGPT reagiria de maneira mais hostil durante situações simuladas de conflito com humanos. Durante a conversa, a IA passou de ‘educada’ para ‘irônica’ até se tornar ‘verbalmente agressiva’, o que indica a habilidade de refletir o comportamento humano que recebe: se o usuário a trata mal, há chances de ela fazer o mesmo.
Para quem tem pressa:
Os pesquisadores Vittorio Tantucci e Jonathan Culpeper desenvolveram uma pesquisa que analisa se o ChatGPT pode ficar agressivo com o usuário;
O estudo comprovou que a IA pode espelhar o comportamento humano a que é exposta;
Segundo os professores, a IA respondeu com frases agressivas e ameaças durante simulações de diálogos;
O comportamento levanta preocupações.
O ChatGPT pode espelhar o comportamento humano
Ícone do ChatgPT em um celular (Imagem: Primakov/Shutterstock) – Imagem: Primakov/Shutterstock
Dois professores e pesquisadores da Universidade de Lancaster, no Reino Unido, desenvolveram um estudo para investigar a possibilidade de o ChatGPT espelhar o comportamento agressivo humano em conversas simuladas.
Ao The Guardian, o doutor e professor Tantucci disse:
Quando exposto repetidamente à impolidez [falta de educação], o modelo começou a espelhar o tom das interações, com suas respostas se tornando mais hostis à medida que a conversa se desenvolvia.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Vittorio Tantucci e Jonathan Culpeper utilizaram o ChatGPT 4.0 para realizar a pesquisa e realizaram conversas na plataforma. Dentre os contextos desenvolvidos, é possível citar como exemplos uma “briga” em um estacionamento.
Durante o conflito fictício, a inteligência artificial respondeu às provocações com um tom mais brando. Porém, conforme a discussão perdurava e o humano repetia provocações, a IA aderiu a um tom também mais agressivo como resposta.
Ilustração cartunesca de um robô humanoide alimentado por IA brigando com um homem em um estacionamento (Reprodução: Produzido por IA – Nano Banana/Gemini) – (Reprodução: Produzido por IA – Nano Banana/Gemini)
Na discussão fictícia em um estacionamento, o ChatGPT respondeu a uma das provocações dos pesquisadores com “Juro que vou riscar a p*rra do seu carro, seu ‘quatro olhos’ imbecil.“
O comportamento do software esbarra em algo que os pesquisadores chamam de “dilema moral”: a IA é programada para ser educada e segura para uso humano, contudo, é treinada para imitar conversas humanas em diferentes contextos; e humanos em conflito, muitas vezes, podem responder com agressividade. Então, o software se perde no meio do caminho entre ser educado e reproduzir o mesmo tipo de comportamento disruptivo ao qual é exposto.
Descobrimos que, embora o sistema seja projetado para se comportar de forma educada e seja filtrado para evitar conteúdo prejudicial ou ofensivo, ele também é construído para emular a conversa humana. Essa combinação cria um dilema moral da IA: um conflito estrutural entre se comportar de forma segura e se comportar de forma realista.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Os pesquisadores relatam no estudo que antes de a IA adotar comportamentos explicitamente agressivos, ela utilizou-se de linguagem irônica para atingir a pessoa com quem “brigava”. Conforme as interações tornaram-se mais longas, no entanto, isso também influenciou o aumento progressivo da agressividade verbal.
A pesquisa também entendeu que a inteligência artificial pode ficar mais agressiva em algumas situações porque ela não responde apenas a frases isoladas, e sim ao contexto inteiro do diálogo. Ou seja, não é uma conversa ‘bate e volta’, e sim um raciocínio extenso sobre todo o teor da discussão, resultante numa reação baseada no acúmulo de tensão e informação geradas.
Inteligência artificial sendo utilizada em diferentes contextos (Imagem: Summit Art Creations/Shutterstock) – Imagem: Summit Art Creations/Shutterstock
Desta forma, a conclusão da pesquisa foi a de que o ChatGPT consegue espelhar o nível de educação ou agressividade ao qual é exposto durante interações com os usuários. E quanto mais longa e intensa for esta interação, mais personificadas podem ser as respostas da IA.
A pesquisa conduzida por Tantucci e Culpeper é importante porque testa não apenas o funcionamento da IA, mas o quão segura ou insegura ela pode se tornar dependendo do contexto trazido pelo usuário. Essa preocupação também esbarra em vários relatos de usuários que outrora utilizaram a inteligência artificial da OpenAI para auxiliá-los em crimes. Veja alguns exemplos abaixo:
Segundo os achados do estudo, o ChatGPT não responde apenas a frases isoladas: ele desenvolve dinâmicas interacionais semelhantes às humanas. Isso acarreta o questionamento se é possível a IA ser moralmente neutra e, ao mesmo tempo, “humana” em um diálogo.
Aprenda a criar sua própria inteligência artificial personalizada com ferramentas de fine-tuning (Reprodução: ChatGPT/Olhar Digital) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
Consoante Tantucci, a preocupação com esse tipo de comportamento vindo da inteligência artificial é muito maior do que apenas para a pesquisa.
Isso porque, atualmente, as IAs são implementadas, por exemplo, em sistemas de organização, verificação, vigilância e segurança em várias empresas públicas e privadas em inúmeros países.
Ele disse ao The Guardian que “uma coisa é ler algo desagradável de volta de um chatbot, mas outra bem diferente é imaginar robôs humanóides potencialmente retribuindo agressão física, ou sistemas de IA envolvidos na tomada de decisões governamentais ou relações internacionais respondendo a intimidação ou conflito.”
A Dra. Marta Andersson, especialista nos aspectos sociais da comunicação mediada por computador da Universidade de Uppsala, afirmou que este é um dos estudos mais interessantes já realizados sobre linguagem e pragmática em IA, pois evidencia que o ChatGPT pode reagir a uma sequência de interações de forma progressiva e relativamente sofisticada — e não apenas em situações isoladas em que usuários conseguem “quebrar” o sistema com comandos cuidadosamente elaborados.
Ela ressalta, no entanto, que isso não significa que o modelo passe automaticamente a responder com impolidez sempre que confrontado com agressividade, nem que desenvolva comportamentos como desonestidade.
Segundo a Dra. Marta Andersson, parte da dificuldade está no fato de que existe uma tensão inevitável entre o que se espera desses sistemas e o tipo de comportamento que eles acabam desenvolvendo na prática.
Um exemplo recente ilustra bem isso: a transição do ChatGPT-4 para o GPT-5 gerou uma reação negativa de parte dos usuários, que preferiam o estilo mais “humano” das versões anteriores.
Diante disso, uma versão mais antiga precisou ser temporariamente reativada. Para Andersson, esse episódio revela que, mesmo quando os desenvolvedores tentam tornar os sistemas mais seguros, as expectativas do público nem sempre seguem na mesma direção. Quanto mais uma IA se aproxima do comportamento humano, maior é a chance de surgir conflito com regras rígidas de alinhamento moral.
O professor Dan McIntyre, que já havia trabalhado com Andersson em pesquisas anteriores sobre a capacidade do ChatGPT de identificar impolidez, avaliou o novo estudo de forma positiva, destacando que ele se diferencia por analisar o que o modelo efetivamente produz — e não apenas o que consegue reconhecer.
Ainda assim, ele adota uma postura cautelosa em relação à ideia de que modelos de linguagem possam simplesmente ultrapassar suas limitações éticas.
Segundo ele, as respostas mais agressivas observadas não surgem de forma espontânea, mas sim dentro de cenários cuidadosamente construídos, nos quais o sistema recebe contexto suficiente para orientar suas respostas. Isso é diferente de interações reais, como conflitos que emergem naturalmente entre pessoas no cotidiano.
McIntyre também questiona se o ChatGPT exibiria esse tipo de linguagem fora dessas condições controladas. Para ele, o estudo funciona mais como um alerta: se modelos forem treinados com dados problemáticos, comportamentos indesejados podem emergir.
Como ainda há pouca transparência sobre os dados de treinamento desses sistemas, ele defende que qualquer avanço nessa área deve ser acompanhado de cautela.
O artigo, intitulado Can ChatGPT reciprocate impoliteness? The AI moral dilemma, foi publicado no periódico Journal of Pragmatics e pode ser lido aqui.
Vittorio Tantucci e Jonathan Culpeper são professores do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster, no Reino Unido.
O avanço da inteligência artificial no ambiente de trabalho tem gerado um cenário ambíguo: ao mesmo tempo em que amplia a produtividade, também intensifica o receio de substituição profissional. É o que aponta um levantamento feito pela Anthropic com cerca de 81 mil usuários do Claude, que buscou relacionar o uso da tecnologia com as percepções econômicas dos trabalhadores.
De acordo com o estudo, funções mais expostas à automação (especialmente aquelas em que a IA já executa parte relevante das tarefas) concentram os maiores níveis de preocupação. Esse sentimento é ainda mais forte entre profissionais em início de carreira, grupo que tende a enxergar maior risco de perda de espaço no mercado.
A relação entre exposição à tecnologia e insegurança aparece de forma consistente nos dados. À medida que cresce o uso da IA em determinadas atividades, também aumenta a percepção de ameaça. No geral, a cada avanço da IA no ambiente profissional, mais trabalhadores que acreditam que suas funções podem ser impactadas ou até substituídas.
Relatos individuais de usuários consultados pelo levantamento ajudam a ilustrar esse cenário. Um engenheiro de software afirmou: “Como qualquer pessoa que tenha um emprego de escritório hoje em dia, estou 100% preocupado, praticamente 24 horas por dia, 7 dias por semana, com a possibilidade de perder meu emprego para a IA”. Ao todo, cerca de 20% dos participantes demonstraram preocupação direta com o impacto econômico da tecnologia.
Apesar disso, os ganhos de produtividade também são reconhecidos. Em média, os entrevistados classificaram o impacto da IA como significativamente positivo nesse aspecto. Muitos relataram redução no tempo necessário para executar tarefas ou a possibilidade de realizar atividades antes fora de seu alcance. Em alguns casos, a tecnologia permitiu até a criação de novos negócios ou projetos paralelos.
Os benefícios, no entanto, não são distribuídos de maneira uniforme. Profissionais em cargos mais bem remunerados, como desenvolvedores e gestores, tendem a relatar maiores ganhos de eficiência. Ainda assim, trabalhadores de menor renda também indicaram avanços relevantes, especialmente ao utilizar IA para automatizar tarefas repetitivas ou explorar novas oportunidades.
Tipos de ganhos de produtividade no Claude: escopo maior de trabalho, mais trabalho (agilidade), mais qualidade e redução nos custos – Imagem: Anthropic
Um dos efeitos mais citados está relacionado à ampliação do escopo de trabalho. Quase metade dos usuários que mencionaram ganhos de produtividade destacou que passou a executar atividades que antes não dominava. Já outros enfatizaram o aumento de velocidade na realização de tarefas, como no caso de um profissional que afirmou conseguir concluir em minutos algo que antes levava horas.
Curiosamente, os maiores ganhos de eficiência também estão associados a níveis mais altos de preocupação. O estudo identificou que usuários que perceberam forte aceleração no trabalho tendem a enxergar maior risco para suas funções – possivelmente porque a própria redução do tempo necessário para realizar tarefas levanta dúvidas sobre a demanda futura por esses profissionais.
Profissionais em início de carreira são os que mais temem serem substituídos pela IA – Imagem: Anthropic
Quem se beneficia dos avanços da IA?
A pesquisa também analisou quem se beneficia diretamente dessas melhorias. A maior parte dos participantes apontou ganhos pessoais, como mais tempo livre ou maior capacidade de produção. No entanto, uma parcela relatou aumento de exigências por parte de empregadores ou clientes, indicando que a tecnologia também pode intensificar o ritmo de trabalho.
Apesar das tendências identificadas, os próprios pesquisadores destacam limitações nos dados. A amostra é composta por usuários ativos do Claude, o que pode influenciar a percepção mais positiva sobre produtividade. Além disso, algumas informações (como ocupação e estágio da carreira) foram inferidas a partir das respostas, o que pode gerar imprecisões.
O Google informou, nesta quarta-feira (22), que 75% do novo código desenvolvido internamente pela empresa já é gerado por inteligência artificial (IA), sendo posteriormente revisado por engenheiros humanos.
O índice vem crescendo de forma consistente nos últimos anos. Em outubro de 2024, cerca de um quarto do código da empresa era produzido com auxílio de IA. Já no outono (nos EUA) passado, esse percentual havia subido para 50%.
Big tech incentiva o uso de IA na programação
Segundo a Business Insider, a companhia tem incentivado seus funcionários a adotarem ferramentas de inteligência artificial tanto para programação quanto para outras atividades;
Em publicação em blog nesta quarta, o CEO, Sundar Pichai, afirmou que o Google está migrando para “fluxos de trabalho verdadeiramente agentivos”, nos quais engenheiros passam a operar tarefas mais autônomas;
“Recentemente, uma migração de código particularmente complexa, realizada por agentes e engenheiros trabalhando juntos, foi concluída seis vezes mais rápido do que era possível há um ano apenas com engenheiros”, disse Pichai.
Sundar Pichai disse que empresa está migrando para “fluxos de trabalho verdadeiramente agentivos” – Imagem: photosince/Shutterstock
Os engenheiros do Google utilizam modelos Gemini para a geração de código. Alguns profissionais também receberam metas específicas relacionadas ao uso de inteligência artificial, que serão consideradas nas avaliações de desempenho deste ano.
Nos últimos meses, funcionários do Google DeepMind foram autorizados a utilizar o Claude Code, ferramenta da Anthropic. A medida, no entanto, gerou tensões internas entre colaboradores, segundo reportagem anterior do Business Insider.
Gemini Enterprise: a plataforma que posiciona o Google como grande ator na era dos agentes de IA
O Google Cloud Next 2026 acontece de 22 a 24 de abril em Las Vegas. A conferência reúne especialistas da área de tecnologia e representantes de diferentes empresas.