A OpenAI deu um novo passo na evolução de suas ferramentas para desenvolvedores ao anunciar uma atualização do Codex, seu assistente de programação baseado em IA. A empresa já confirmou planos para criar um “superaplicativo” que integre ChatGPT, Codex e o navegador Atlas em uma única plataforma – mas a iniciativa parece focar em expandir o que já existe atualmente.
Segundo Thibault Sottiaux, responsável pela ferramenta, a estratégia está sendo construída de forma gradual. “Estamos construindo o superaplicativo de forma aberta”, afirmou durante coletiva de imprensa. “Este lançamento é voltado para desenvolvedores. No futuro, vamos expandi-lo para um público mais amplo”.
De acordo com o Engadget, a principal novidade da atualização é a ampliação do escopo de atuação dos agentes de IA, que passam a executar tarefas de maneira mais autônoma e integrada ao ambiente do usuário. Na prática, o Codex agora consegue interagir diretamente com aplicativos instalados no computador, seja a partir de instruções específicas ou decidindo por conta própria qual ferramenta utilizar para determinada tarefa.
Esse tipo de funcionalidade já aparece em soluções concorrentes, mas a OpenAI afirma ter desenvolvido um diferencial técnico que permite o agente operar sem comprometer o desempenho geral do sistema. A proposta é fazer com que o software funcione em paralelo com outros programas, de forma mais eficiente.
Outro destaque é a chegada de 111 novos plugins, que ampliam as possibilidades de integração com aplicativos, serviços e servidores. Esses recursos ajudam o Codex a acessar mais contexto e utilizar ferramentas externas com maior precisão, especialmente em fluxos de trabalho mais complexos.
Codex é o assistente de programaçõ da OpenAI – Imagem: OpenAI/Divulgação
A atualização também incorpora o modelo GPT-Image-1.5, permitindo a criação de protótipos, conceitos visuais, interfaces e até elementos simples para jogos. Além disso, o sistema passa a utilizar capturas de tela como referência para validar se está executando corretamente uma solicitação.
No campo de personalização, a OpenAI apresentou dois recursos iniciais de memória:
Um deles permite que o Codex recupere informações de interações anteriores para melhorar respostas futuras. Com o tempo, isso deve tornar o assistente mais rápido e preciso;
O outro recurso adiciona um comportamento mais proativo, sugerindo ações com base no histórico do usuário – como lembrar de responder a um comentário em um documento, por exemplo.
Disponibilidade do Codex atualizado
A nova versão começa a ser liberada para usuários do aplicativo de desktop do ChatGPT.
Inicialmente, o recurso de controle do computador está disponível para macOS, com expansão prevista para outros mercados, incluindo União Europeia e Reino Unido. Já as funcionalidades de memória também serão disponibilizadas gradualmente nessas regiões.
A Stellantis e a Microsoft anunciaram nesta quinta-feira uma parceria estratégica de cinco anos para co-desenvolver capacidades de inteligência artificial (IA), cibersegurança e engenharia. O movimento ocorre em meio à corrida das montadoras para acompanhar concorrentes mais focados em tecnologia.
Software e serviços baseados em dados têm ganhado papel central nas estratégias de longo prazo do setor automotivo, especialmente com o avanço de montadoras chinesas no desenvolvimento de recursos voltados a atrair consumidores em diferentes mercados.
Microsoft firmou parceria com a Stellantis para desenvolver capacidades de IA – Imagem: Tang Yan Song/Shutterstock
Montadoras tradicionais, que historicamente enfrentam dificuldades para desenvolver software internamente, vêm ampliando parcerias com empresas de tecnologia para acelerar esse processo.
“Por meio da nossa colaboração com a Microsoft, estamos acelerando nosso avanço em IA em toda a empresa”, afirmou Ned Curic, diretor de Engenharia e Tecnologia da Stellantis, em comunicado conjunto.
Mais de 100 iniciativas conjuntas
A parceria amplia uma relação já existente entre as empresas, que anteriormente colaboraram em plataformas de veículos conectados e serviços digitais embarcados.
Pelo novo acordo, equipes conjuntas irão desenvolver mais de 100 iniciativas de IA. Os projetos abrangem áreas como desenvolvimento e validação de produtos, manutenção preditiva, testes e aceleração do lançamento de recursos e serviços digitais.
A colaboração também prevê o fortalecimento do centro global de defesa cibernética da Stellantis. A proposta é utilizar análises baseadas em IA para prevenir ameaças e proteger veículos, dados de clientes e operações em escala global.
Parceria com a Microsoft prevê mais de 100 iniciativas de IA voltadas ao desenvolvimento, testes e serviços digitais da Stellantis – Imagem: jetcityimage/iStock
Modernização da infraestrutura de TI
O centro de defesa cibernética deverá cobrir sistemas de TI, veículos conectados, unidades de fabricação e produtos digitais, integrando funções de segurança a aplicativos móveis e serviços embarcados.
Como parte da parceria, a Stellantis também pretende acelerar a modernização de sua infraestrutura de TI na plataforma de nuvem Azure, da Microsoft. A meta é reduzir em 60% a presença de data centers até 2029. Os detalhes financeiros do acordo não foram divulgados.
A Stellantis já vinha recorrendo a parcerias tecnológicas para apoiar suas ambições em software e oferecer experiências mais personalizadas aos motoristas. No entanto, a empresa também tem revisado algumas dessas iniciativas enquanto busca melhorar vendas e qualidade de seus veículos. No ano passado, a Reuters informou que o acordo da montadora com a Amazon para software embarcado estava sendo encerrado.
A Anthropic começou a implementar verificação de identidade no Claude para “alguns casos de uso específicos”. A empresa não detalhou quais situações exigirão o procedimento, mas informou que os usuários podem se deparar com a solicitação ao tentar acessar determinadas funcionalidades.
De acordo com a companhia, o processo inclui o envio de um documento oficial com foto emitido pelo governo e a captura de uma selfie, que será comparada ao documento apresentado.
Claude terá recurso de verificação de idade em casos específicos – Imagem: Ascannio/Shutterstock
Críticas dos usuários
A medida gerou reação negativa entre parte dos usuários. Muitos questionam a necessidade de verificação de identidade para utilizar um chatbot de IA, especialmente no caso de assinantes pagos que já possuem dados de cartão de crédito cadastrados.
As críticas também envolvem a escolha da Persona como parceira para o processo. A empresa também fornece serviços de verificação de idade para outras plataformas, como OpenAI e Roblox. Entre seus investidores está a Founders Fund, cofundada por Peter Thiel, que também é cofundador e presidente da Palantir.
Preocupações com privacidade
A Palantir tem como principais clientes agências federais e órgãos governamentais dos Estados Unidos, incluindo FBI, CIA e o serviço de imigração (ICE). As críticas à empresa costumam se concentrar no uso de suas tecnologias, como reconhecimento facial e inteligência artificial, em iniciativas de vigilância.
No comunicado, a Anthropic afirmou que a Persona será responsável por processar os documentos e selfies, sem copiar ou armazenar essas imagens. A empresa também destacou que a parceira possui limitações contratuais sobre o uso dos dados, e que todas as informações são criptografadas em trânsito e em repouso.
A Anthropic reforçou ainda que não utilizará os dados de identidade para treinar seus modelos nem compartilhará essas informações com terceiros.
Em atualização divulgada em 16 de abril de 2026, a empresa informou que a verificação se aplica a um número limitado de casos, relacionados a atividades que possam indicar comportamento fraudulento ou abusivo, em violação às suas políticas de uso.
A Anthropic anunciou nesta quinta-feira (16) o lançamento global do Claude Opus 4.7. O novo modelo de inteligência artificial chega como uma atualização direta do Opus 4.6, apresentando saltos significativos em programação autônoma (agêntica), raciocínio multidisciplinar e capacidades visuais. No entanto, em um movimento incomum na indústria, a empresa admitiu que o modelo foi “treinado para ser menos capaz” em certas áreas sensíveis do que sua versão experimental mais potente, o Claude Mythos Preview.
Codificação e “Trabalho de Mundo Real”
De acordo com dados divulgados pela Anthropic, o Claude Opus 4.7 estabeleceu novos marcos em benchmarks de produtividade. No SWE-bench Pro, que avalia a capacidade da IA de resolver problemas reais de engenharia de software, o modelo atingiu 64,3% de aproveitamento, superando os 53,4% da versão anterior e os 57,7% do GPT-5.4 da OpenAI.
Os principais avanços técnicos incluem:
Seguimento de instruções: o modelo é muito mais literal. A empresa alerta que prompts antigos podem precisar de ajustes, já que a IA agora segue as ordens à risca em vez de interpretá-las livremente.
Níveis de esforço: foi introduzido o nível “xhigh” (extra alto), permitindo que desenvolvedores controlem melhor o equilíbrio entre a profundidade do raciocínio e a latência da resposta.
Visão de alta resolução: o Opus 4.7 agora suporta imagens de até 3,75 megapixels (2.576 pixels no lado maior), um aumento de três vezes em relação aos modelos anteriores, facilitando a análise de diagramas complexos e capturas de tela densas.
A estratégia do “freio de mão” cibernético
O lançamento do Opus 4.7 ocorre em um momento de intensa disputa narrativa sobre a segurança da IA. Enquanto o Claude Mythos Preview (modelo mais poderoso da casa) permanece restrito a um grupo seleto de empresas no programa Project Glasswing, o Opus 4.7 foi lançado com salvaguardas que detectam e bloqueiam automaticamente solicitações de alto risco cibernético.
A Anthropic afirmou que experimentou reduzir diferencialmente as capacidades cibernéticas do modelo durante o treinamento. A ideia é aprender com o uso do Opus 4.7 no mundo real para, no futuro, liberar modelos da classe “Mythos” com segurança comprovada.
Para profissionais de segurança que precisam realizar testes de intrusão legítimos ou pesquisas de vulnerabilidades, a empresa criou o Cyber Verification Program, um processo de triagem para liberar essas funções específicas.
Anthropic vs. OpenAI: abordagens opostas
O posicionamento da Anthropic marca um contraste direto com a estratégia da OpenAI. Conforme noticiado pelo Olhar Digital, o recém-lançado GPT-5.4-Cyber seguiu um caminho mais “permissivo”, focando em democratizar o acesso de defensores a ferramentas de análise binária e engenharia reversa.
Enquanto a OpenAI aposta que dar ferramentas potentes aos “mocinhos” é a melhor defesa, a Anthropic prefere manter suas IAs mais ofensivas sob chaves rigorosas. Em comunicado oficial, a Anthropic reforçou que o Opus 4.7 é seu modelo mais capaz disponível para o público geral, mas que o Mythos Preview ainda detém a coroa de melhor alinhamento e segurança em seus testes internos.
Disponibilidade e preço
O Claude Opus 4.7 já está disponível para usuários do Claude (web e app), além de desenvolvedores via API. O modelo também foi integrado às plataformas de nuvem Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry.
O preço permanece o mesmo praticado na versão 4.6: US$ 5 por milhão de tokens de entrada e US$ 25 por milhão de tokens de saída, conforme apurado pela CNBC.
Claude Opus 4.7: benchmark
Os números divulgados pela Anthropic mostram o Claude Opus 4.7 superando rivais como o GPT-5.4 e o Gemini 3.1 Pro em categorias críticas de programação e raciocínio avançado:
Benchmark do novo modelo da Anthropic, o Claude Opus 4.7 – Anthropic / Reprodução
Uma nova pesquisa, conduzida pela agência de checagem Lupa, evidenciou um aumento considerável da inteligência artificial em conteúdos falsos divulgados online. Dentre os principais assuntos, as postagens com desinformação apresentam temas como eleições, guerras e golpes. É possível consultar os resultados do estudo clicando aqui.
Os dados obtidos pelo estudo concentram o todo de 1.294 checagens profissionais em, pelo menos, dez idiomas diferentes, e asseguram que 81,2% das fake news com algum uso de IA surgiram apenas nos últimos dois anos (entre janeiro de 2024 e março de 2026).
Os posts com informações falsas podem apresentar recortes de notícias inteiramente produzidas por geradores de imagens e até deepfakes (um vídeo falso com o rosto de alguém conhecido e com a mesma voz, falando coisas que a pessoa em si nunca disse ou distorcendo algo já dito).
Com isso, a Lupa sugere que o uso das ferramentas de geração e edição de conteúdo, alimentadas por IA, elevou a necessidade de desconfiança daquilo que é visto online.
Além disso, o levantamento aponta que a disseminação de conteúdos falsos com inteligência artificial cresceu 308% no Brasil entre 2024 e 2025, indicando uma aceleração significativa desse tipo de desinformação. No período analisado, o número de casos envolvendo IA passou de 39 para 159 ocorrências, representando uma mudança estrutural no uso dessas tecnologias para produção de conteúdos enganosos.
Para quem tem pressa:
Uma pesquisa, conduzida pela Agência Lupa, acendeu um alerta para o aumento escalonado de fake news com uso de inteligência artificial;
Posts com desinformação abordam assuntos como guerra, eleições e golpes;
Cenário é ainda mais preocupante em períodos eleitorais.
O perigo da disseminação online de fake news
Ilustração de fake news (Imagem: Arkadiusz Warguła/iStock)
Cristina Tardáguila, fundadora da Agência Lupa, disse em entrevista à Agência Brasil que “A IA dificilmente tem sido feita para impulsionar conteúdos verdadeiros.”
Segundo a pesquisadora, a desinformação pode atingir o público em inúmeras frentes (fotos, vídeos, textos e áudios) e gera grande preocupação em períodos eleitorais.
Isso porque, ainda no cenário eleitoral, os eleitores são constantemente bombardeados com conteúdos que, frequentemente, apresentam informações falsas ou distorcidas. Ou seja, o uso da IA deixou de ser pontual para se tornar uma estratégia permanente de manipulação.
Ela ainda informa que, pelo menos no Brasil, o volume de checagens para esse tipo de conteúdo foi de 160 casos (em 2023) para 578 (em 2025). Até março de 2026, já acumularam mais de 205 verificações.
O estudo também indica que a desinformação produzida com IA passou a ter forte viés político. Em 2025, quase 45% dos conteúdos falsos gerados com essas ferramentas estavam ligados a disputas ideológicas, enquanto no ano anterior esse percentual era menor. Além disso, a maioria das peças utilizou imagens ou vozes de figuras públicas para aumentar a credibilidade das mensagens falsas.
Reflexões da pesquisadora sobre o estudo conduzido
Deepfakes são muito comuns em épocas de eleição (Imagem: FAMILY STOCK/Shutterstock)
O estudo conduzido pela Agência Lupa apresenta recortes linguísticos. Em língua inglesa, foram encontrados 427 casos de desinformações por IA, incluindo deepfakes. Em espanhol, foram 198; em português, 111.
Tardáguila defende que a atitude mais importante para combater as fake news é incentivar a “educação midiática”. Isto é, um conjunto de práticas para melhorar o senso de interpretação e raciocínio lógico dos internautas para fazê-los questionar aquilo que recebem e incentivá-los a apurar a informação.
Outro ponto destacado pela pesquisa é a mudança nas plataformas de disseminação. Embora o WhatsApp ainda concentre parte significativa da circulação de conteúdos falsos, houve uma redução da dependência desse aplicativo e uma maior dispersão para outras redes sociais, incluindo plataformas de vídeos curtos e redes emergentes.
A jornalista também afirma que os projetos e empresas especializadas em checagem de informação apoiam legislações que buscam promover, incentivar e estimular os cidadãos a analisar possíveis dados falsos em postagens.
Título de eleitor (Imagem: Leonidas Santana / Shutterstock.com)
O levantamento também identificou que líderes políticos e autoridades públicas figuram entre os principais alvos das desinformações criadas com inteligência artificial, reforçando o caráter estratégico desse tipo de conteúdo no debate público.
A gente precisa que a vacina contra a desinformação, que é, na verdade, a informação de qualidade, chegue antes para que as pessoas possam estar preparadas e resilientes quando elas virem a mentira em formato de IA.
— Cristina Tardáguila, fundadora da Agência Lupa, em entevista à Agência Brasil
A jornalista sugere a criação de uma política pública que instaure nas escolas uma rotina de aprendizado sobre a educação midiática, a fim de estimular os jovens, desde cedo, a analisar e questionar as informações recebidas online.
O relatório também integra o primeiro Panorama da Desinformação no Brasil, que inaugura uma série histórica para analisar padrões, estratégias e impactos da desinformação no país, com o objetivo de subsidiar jornalistas, pesquisadores e formuladores de políticas públicas no enfrentamento desse fenômeno.
A Alphabet, controladora do Google, está em negociações com o Departamento de Defesa dos Estados Unidos para permitir o uso de seus modelos de inteligência artificial (IA) Gemini em ambientes com informações sigilosas. A informação foi publicada nesta quinta-feira (16) pelo site The Information, com base em duas fontes com conhecimento direto das conversas.
Segundo o relatório, o acordo em discussão permitiria ao Pentágono utilizar a tecnologia do Google para todos os usos legais, ampliando a presença da empresa no setor governamental. As tratativas ocorrem em um contexto de crescente adoção de inteligência artificial por órgãos federais dos EUA, com foco em redução de custos e maior agilidade administrativa.
Gemini, IA do Google, pode passar a ser utilizada em ambientes com informações sigilosas do Departamento de Defesa dos Estados Unidos – Imagem: Poetra.RH/Shutterstock
Proposta inclui restrições ao uso da IA
Durante as negociações, o Google teria sugerido a inclusão de cláusulas específicas para limitar a aplicação de seus sistemas. Entre os pontos propostos está a proibição do uso da IA em vigilância doméstica em massa e em armas autônomas sem controle humano adequado.
A inclusão dessas condições indica uma tentativa da empresa de estabelecer diretrizes para o uso responsável da tecnologia, mesmo em cenários sensíveis como operações militares e ambientes classificados.
Até o momento, nem a Alphabet nem o Departamento de Defesa responderam aos pedidos de comentário feitos pela Reuters sobre o possível acordo.
Estratégia amplia presença do Google no governo
Um eventual contrato com o Pentágono pode fortalecer os laços da Alphabet com o governo dos Estados Unidos, em um momento em que o país intensifica a incorporação de soluções baseadas em IA em suas operações internas.
A iniciativa faz parte de um movimento mais amplo do governo norte-americano para modernizar processos, reduzir despesas e aumentar a eficiência administrativa por meio de novas tecnologias.
Mudança de nome do departamento está em discussão
Paralelamente às negociações, o presidente dos Estados Unidos, Donald Trump, determinou que o Departamento de Defesa passe a se chamar Departamento de Guerra. A mudança, no entanto, ainda depende de aprovação do Congresso para ser implementada.
Donald Trump quer que o Departamento de Defesa do país seja chamado de Departamento de Guerra – Joshua Sukoff/Shutterstock
🔍 Curadoria Studio Mestre Digital: Nossa equipe monitora as principais movimentações de mercado e tecnologia para manter você atualizado.
Levantamento mensal da Serasa Experian, o Mapa da Inadimplência e Negociação de Dívidas de fevereiro deste ano apontou um total de 81,7 milhões de brasileiros endividados, uma alta de 8,9% sobre igual período de 2025 e o maior número em toda a série histórica, iniciada há dez anos. À medida que esses indicadores atingem patamares […]
O post Na Recovery, do Itaú, a renegociação de dívidas “ganha crédito” e passa de R$ 1 bilhão apareceu primeiro em NeoFeed.
Insight Studio Mestre: Esta notícia reflete tendências que podem impactar diretamente o seu modelo de negócio digital.
Na última semana, gravei uma entrevista com o Roberto Pena Spinelli, colunista do Olhar Digital, físico e especialista em IA. A ideia era incluir algumas aspas dele em um especial que fizemos sobre a história da corrida das inteligências artificiais. O resultado está em nosso YouTube e você pode conferir aqui embaixo:
Mas dois assuntos ficaram de fora do especial por saírem um pouco do foco. Isso não significa, contudo, que não sejam duas discussões importantíssimas – que, aliás, são interligadas: futuro do trabalho e a possibilidade de uma renda básica universal.
De forma muito resumida, o avanço das IAs pode automatizar muitas funções e reduzir a oferta de empregos tradicionais em vários setores.
Nesse cenário, uma renda básica universal surgiria como forma de garantir sustento mínimo, mais estabilidade social e algum poder de consumo. A ideia é que os ganhos de produtividade trazidos pela IA sejam distribuídos de forma mais ampla, e não concentrados em poucos grupos. Pelo menos, na teoria.
Como noticiamos em 2024, o CEO da OpenAI, Sam Altman, até financiou um estudo sobre renda básica universal.
No começo deste mês, a mesma OpenAI divulgou um conjunto de recomendações de políticas públicas voltadas ao avanço da inteligência artificial. O documento, intitulado “Industrial Policy for the Intelligence Age: Ideas to Keep People First” (Política Industrial para a Era da Inteligência: Ideias para Manter as Pessoas em Primeiro Lugar, em tradução livre), apresenta propostas para lidar com impactos econômicos e sociais associados à tecnologia e iniciar um debate mais amplo sobre o tema.
Segundo a empresa, a proposta busca garantir que os ganhos gerados pela IA sejam distribuídos de forma mais ampla e que a sociedade esteja preparada para possíveis mudanças no mercado de trabalho.
Aproveitando esse contexto de discussão, resolvi trazer a análise do Pena para duas perguntas: “a IA nos fará trabalhar menos?” e “a IA pode gerar a necessidade de uma renda básica universal?”.
Acompanhe as respostas!
IA nos fará trabalhar menos?
Olha, eu nunca comprei essa história que a IA ia fazer a gente trabalhar menos. Essa é a história da tecnologia. Toda tecnologia, toda nova invenção tem essa promessa de que vai aliviar o sofrimento humano. E nunca foi assim. Eu nunca achei que fosse diferente agora.
De fato, a IA não vai fazer a gente trabalhar menos… quer dizer, pelo menos nesse formato que a gente tem hoje, esse formato abusivo que a gente vive, esse mundo que acaba espremendo a gente para tirar o máximo de produtividade. Então, pelo menos nesse primeiro momento, a IA não vai fazer isso.
A gente já está vendo algumas notícias, alguns estudos mostrando que as pessoas estão “fritando” o cérebro. Por mais que a IA ajude na produtividade, as pessoas viram o gargalo e elas precisam agora ter uma carga cognitiva maior para poder gerenciar as várias abas, as várias tarefas que elas estão fazendo… e a barra só sobe.
O empregador não vai dizer “Ah, você terminou o relatório mais cedo, vai embora antes”. Não… você vai fazer três relatórios agora.
Agora, pode ser que mais para frente acabe sim diminuindo o trabalho humano, mas como um efeito… por um outro motivo.
Porque pode ser que o humano não mais dê conta. Pode ser que a IA comece a fazer tão bem todas as tarefas humanas que colocar o humano é pior, prejudica o processo. A IA vai ser melhor do que o ser humano.
E eu não sei quão longe isso está, é difícil prever, mas eu acho que é plenamente possível, olhando a tendência de como a IA está se desenvolvendo, ficando mais inteligente. Pode ser que chegue a um ponto que, pelo menos, as tarefas intelectuais, cognitivas, ela vai fazer melhor. E colocar um humano em algum momento vai ser pior.
Eu faço uma analogia: imagina que você pudesse colocar um chimpanzé para te ajudar em um trabalho qualquer. Você ensina ele a fazer alguma coisa, põe ele para te ajudar.
Eu duvido que na maioria das tarefas de escritório corporativas que a gente tem, o chimpanzé poderia ajudar em uma delas. Mas não dá, porque a diferença é muito grande. O chimpanzé não consegue nem entender o básico. Você está pensando três mil passos na frente.
Então, talvez a IA chegue num ponto que a diferença da IA para o ser humano vai ser a mesma que a gente para o chimpanzé. Simplesmente o ser humano não vai ajudar em nada, vai só piorar.
Nesse momento, a gente está falando de um cenário que o humano é forçado a sair do mercado de trabalho. E aí, o que que isso acontece? Porque a gente vai ser aposentado de maneira compulsória, vai ser obrigado a se aposentar. Será que isso vai ser um cenário melhor ou pior do que a gente vive hoje? Como é que a gente vai dar dignidade para todo mundo que teve seus trabalhos substituídos?
Veja… não é que você substitui seu trabalho e faz outra coisa. Não! Você não tem outra coisa para fazer, porque a IA vai fazer melhor essa outra coisa também. Veja que é um problema grande, embora a gente ainda não esteja vendo isso acontecer agora.
Até agora, a IA era quase uma prova de conceito. A IA não estava ganhando ainda valor nas empresas. Ela era meio que só para os early adopters, as pessoas que estavam usando no começo, começavam a testar alguma coisa ou outra. Você tem alguns casos de uso que são muito bons, mas um monte de casos de uso muito ruins. Hoje ela, no máximo, é uma boa estagiária.
Isso está acontecendo, isso já é um problema. Porque a IA de hoje já é uma boa estagiária para várias tarefas. Então, várias empresas que contratariam estagiários ou funcionários de nível júnior, não contratam. Não… a gente tem a IA, então não preciso mais contratar.
Então, você não está demitindo pessoas necessariamente – embora alguns segmentos já estejam demitindo. Digamos que, na maioria dos casos, você está não contratando novas.
E se você não contrata estagiários e funcionários iniciantes, eles nunca vão virar os plenos e sêniores. E no momento que esses funcionários plenos e sêniores começarem a se aposentar ou migrar e subindo de cargo, você não vai ter aqueles para ocupar os cargos intermediários. E quem vai ocupar é a IA, que vai estar ficando melhor.
Talvez já esteja acontecendo isso, essa substituição silenciosa de empregos. Porque para uma empresa demitir funcionário tem um custo. Sempre é uma questão, é sempre um processo difícil para uma empresa demitir funcionários. Então, elas tentam segurar ao máximo. Mas não contratar é fácil.
Você não está colocando ninguém na rua, você só não está colocando gente para dentro. Isso não tem dor, isso é silencioso. A gente talvez já esteja vivendo hoje essa substituição silenciosa, mas pode ser que no futuro isso se agrave e acabe indo cada vez mais rápido. Enfim… essa é uma questão bem relevante sobre se a IA vai ou não substituir os empregos e o que vai acontecer a partir disso.
IA pode gerar a necessidade de uma renda básica universal?
Se esse cenário realmente acontecer, e a gente não sabe se vai acontecer, mas eu só posso dizer das tendências. E as tendências me parecem que, sim…
E aí, o que vai acontecer? A gente precisa ter um jeito de dar dignidade para as pessoas. Eu falo muito que esse momento talvez seja o colapso do capitalismo. Porque o que dá dignidade hoje para as pessoas, o jeito que a gente se organizou para a máquina funcionar, é: você recebe dinheiro, o valor pelo que você oferece para a sociedade, pelo seu trabalho. Tanto é que a palavra “desempregado” tem um estigma muito forte na nossa sociedade.
As pessoas não gostam de falar que foram demitidas, que estão desempregadas. Então, quer dizer: aquela pessoa que não faz nada, não é que ela não faz nada. Ela não faz nada de trabalho – como se fosse a única coisa útil que a gente tem que fazer.
Então, a gente viveu, a gente aprendeu… a nossa sociedade se criou com a ideia de que o ser humano precisa fazer algo pela sociedade para que ele tenha dignidade. Então a gente vai ter que revisitar primeiro essa questão, esse paradigma. A gente vai mudar o paradigma social do trabalho, a pessoa vai ter que ter algum jeito de ter sustento mesmo sem prover.
Imagina que as empresas vão conseguir aumentar a sua produtividade, criando um monte de produtos e serviços incríveis, porque elas têm a IA. Mas as pessoas estão desempregadas, não estão recebendo nada. E elas não vão poder consumir esses produtos.
Você vai vender para quem? Para a IA?
Isso que eu chamo de colapso do capitalismo, porque vai quebrar esse engrenagem do jeito que a gente entende o funcionamento. Ele precisa criar outra coisa. Então, uma das possibilidades seria você dar uma renda básica universal.
A IA, já que está sendo empregada no lugar das pessoas, e está aumentando a produtividade, ela vai ter que ser taxada de alguma maneira para que os governos recebam um valor. Então, você tem que criar algum jeito de taxar a automação, a tecnologia, a inteligência artificial, o que seja. Porque é isso que está gerando a produtividade, para que então os governos possam arrecadar e, de algum jeito, redistribuir para aquelas pessoas que agora não têm chance. Mesmo que elas queiram, elas não vão ter chance nem de ter trabalho.
É renda básica. Mesmo que você não trabalhe, você ganha. Talvez seja um caminho. Eu acho bem difícil ainda isso funcionar bem, porque imagina o tamanho da mudança.
Se a gente leva uma década para fazer uma reforma da previdência no Brasil, imagina uma mudança gigantesca. Imagina quanto tempo de discussão, de leis e politicagem no mundo inteiro, não só no Brasil.
É tão gigantesco que eu não acho que seja possível acontecer, a tecnologia é muito mais rápida. Então, eu acho que vão acontecer crises. Basicamente, as pessoas vão ficar desempregadas e vão se revoltar. Então, é só nesse momento.
E isso é um jeito muito doloroso de fazer uma mudança, porque ela não vai acontecer do melhor jeito no momento que você está no meio de uma crise, tendo que apagar um monte de incêndios, as pessoas revoltadas… Mas eu acho que, em última instância, a gente vai ter que inventar formas.
A sociedade vai passar por soluços grandes. Mas se a gente não sucumbir nesses processos de solução, a gente vai ter que encontrar outras formas. Que pode ser o movimento contra a IA. Por exemplo, de não poder mais usar IA. Você tem várias formas de resolver esse problema.
Tem também questões sobre o que te dá propósito na vida. São questões muito profundas. Dá para a gente ficar falando aqui horas. Continuando essa tendência, alguma solução a gente vai ter que encontrar sobre como dar dignidade para as pessoas se elas não vão ter como exercer o seu trabalho, já que vai ter a IA para fazer por elas.
Os supervisores do Banco Central Europeu (BCE) estão se preparando para questionar banqueiros sobre os riscos do novo modelo de inteligência artificial da Anthropic, o Claude Mythos, que pode potencializar ataques cibernéticos. A informação foi confirmada por uma fonte familiarizada com a situação à Reuters nesta quarta-feira (15).
O Mythos é considerado por especialistas em cibersegurança como uma ameaça significativa à indústria bancária e seus sistemas tecnológicos legados, gerando alarme entre reguladores na Grã-Bretanha e nos Estados Unidos.
Coleta de informações e preparação dos bancos
Os supervisores do BCE estão coletando informações sobre o modelo, com o objetivo de questionar os bancos sob sua supervisão sobre a preparação para esta nova fonte potencial de risco, disse a fonte, que falou sob condição de anonimato por não estar autorizada a comentar publicamente sobre o assunto.
Diferentemente dos Estados Unidos, isso será feito por meio do diálogo regular do BCE com o pessoal bancário, e nenhuma reunião ad hoc com a alta administração foi agendada ainda. Um porta-voz do BCE se recusou a comentar o tema.
Capacidades avançadas do Claude Mythos, da Anthropic
As capacidades do Mythos para codificar em alto nível lhe deram uma habilidade potencialmente sem precedentes para identificar vulnerabilidades de cibersegurança e desenvolver formas de explorá-las, disseram especialistas à Reuters;
Por isso, a Anthropic disse que a versão atual, Claude Mythos Preview, não será disponibilizada ao público geral;
Em vez disso, a empresa anunciou o Projeto Glasswing, no qual convidou grandes empresas de tecnologia, fornecedores de cibersegurança e o JPMorgan Chase, junto com várias outras organizações, para avaliar o modelo privadamente e preparar defesas adequadas.
Nova IA da Anthropic tem grande potencial — tanto para o bem, como para o mal – Imagem: jackpress/Shutterstock
Trump apoia salvaguardas de IA no sistema bancário
O Secretário do Tesouro estadunidense, Scott Bessent, e o presidente do Federal Reserve, Jerome Powell, convocaram uma reunião urgente com executivos-chefes de bancos na semana passada para alertá-los sobre os riscos, que o presidente Donald Trump reconheceu na quarta e apoiou as salvaguardas governamentais.
A Secretária de Tecnologia britânica, Liz Kendall, e o Ministro de Segurança, Dan Jarvis, emitiram um aviso similar às empresas na quarta, dizendo que o Mythos era “substancialmente mais capaz em ofensiva cibernética” do que qualquer modelo testado anteriormente pelo Instituto de Segurança de IA do governo.
“Uma nova geração de modelos de IA está se tornando capaz de fazer trabalho que anteriormente exigia expertise rara: encontrar fraquezas em software, escrever código para explorá-las e fazer isso em uma velocidade e escala que teria sido impossível mesmo um ano atrás”, disseram em uma carta aberta às empresas.
O governador do Banco da Inglaterra, Andrew Bailey, disse esta semana que bancos centrais e reguladores financeiros devem rapidamente entender as implicações do novo modelo. Por sua vez, o BCE já havia listado o risco tecnológico como uma de suas principais prioridades para 2026-28.
O uso de chatbots de inteligência artificial como fonte de orientação tem acendido um alerta no meio jurídico nos Estados Unidos. Escritórios de advocacia passaram a recomendar cautela a clientes que recorrem a essas ferramentas, especialmente em situações que envolvem processos judiciais ou possíveis responsabilidades legais.
A preocupação ganhou força após uma decisão recente da Justiça federal em Nova York. No caso, Bradley Heppner, ex-executivo do setor financeiro, usou o Claude, da Anthropic, para preparar relatórios sobre seu caso e compartilhá-los com os advogados.
Os representantes argumentaram que as conversas não poderiam ser acessadas porque continham detalhes relacionados à sua defesa. Mas o tribunal de NY decidiu que os documentos feitos com IA poderiam ser vistos pelos promotores.
A legislação americana garante confidencialidade às comunicações entre advogados e clientes. No entanto, ferramentas de IA não se enquadram nessa relação jurídica. Com isso, informações compartilhadas com chatbots podem ser consideradas acessíveis a terceiros em disputas judiciais.
A decisão reforça um entendimento importante: compartilhar informações jurídicas com terceiros pode comprometer o sigilo. No caso de chatbots, isso ocorre porque as plataformas não são consideradas parte da relação de defesa, mesmo quando utilizadas para organizar estratégias ou produzir textos.
Em paralelo, outro tribunal federal, em Michigan, adotou uma interpretação diferente ao analisar um caso trabalhista. O juiz Anthony Patti considerou que conversas de uma pessoa com o ChatGPT faziam parte de seu próprio “produto de trabalho” e não deveriam ser compartilhadas.
A divergência entre decisões indica que o tema ainda está em aberto e pode evoluir conforme novos casos cheguem à Justiça.
Advogados nos EUA passaram a incluir restrições ao uso de IA em seus contratos – Imagem: Sansert Sangsakawrat/iStock
Advogados alertaram para o uso de IA
Diante desse cenário, escritórios de advocacia consultados pela Reuters passaram a adotar medidas preventivas. Orientações incluem desde o uso mais criterioso dessas plataformas até recomendações específicas sobre como formular consultas. Em alguns casos, contratos com clientes já trazem cláusulas sobre o uso de inteligência artificial.
Um exemplo é o escritório Sher Tremonte, que alertou em documento recente: “A divulgação de comunicações privilegiadas a uma plataforma de IA de terceiros pode constituir uma renúncia ao sigilo entre advogado e cliente”.
Outras firmas sugerem que o uso de IA seja feito apenas sob orientação jurídica direta, incluindo a indicação explícita de que a pesquisa está sendo conduzida a pedido de um advogado. Também há recomendações para priorizar sistemas fechados, voltados ao ambiente corporativo, embora especialistas ressaltem que a eficácia dessas medidas ainda precisa ser comprovada.
As próprias empresas responsáveis pelos chatbots indicam limitações. Nos termos de uso, OpenAI e Anthropic informam que dados podem ser compartilhados com terceiros e orientam os usuários a buscar aconselhamento profissional qualificado antes de recorrer às ferramentas para decisões legais.
Para especialistas, a regra básica permanece a mesma, mesmo em meio ao avanço tecnológico: evitar compartilhar informações sensíveis fora do ambiente protegido da relação com um advogado.