A Anthropic anunciou, na terça-feira (28), o lançamento de um conjunto de conectores que permitem ao Claude integrar-se a softwares da indústria criativa bem conhecidos, como Photoshop, Blender e Ableton.
A nova funcionalidade permite que o Claude acesse plataformas, recupere dados e execute ações como manipular imagens na Creative Cloud da Adobe ou buscar samples no catálogo da Splice.
O objetivo da Anthropic é transformar o chatbot num assistente que atua no fluxo de trabalho dos profissionais, auxiliando na automação de tarefas repetitivas e na expansão de habilidades técnicas.
Claude criativo: conectividade profunda e apoio ao ecossistema de código aberto
A integração com o Blender é um dos destaques. Isso porque oferece uma interface de linguagem natural para a API Python do programa de modelagem 3D.
Com isso, artistas podem usar o Claude para encontrar erros em cenas complexas ou criar scripts que aplicam mudanças em diversos objetos simultaneamente por meio de uma conversa.
Como o conector utiliza o padrão MCP (Model Context Protocol), ele é aberto e pode ser aproveitado por outros modelos de inteligência artificial (IA).
Anthropic reforçou que o objetivo da integração do Claude é transferir para a IA o “trabalho braçal” e repetitivo do processo criativo – Imagem: Divulgação/Anthropic
Além do avanço técnico, a Anthropic tornou-se Patrona Corporativa do Fundo de Desenvolvimento do Blender. A empresa se comprometeu a doar pelo menos cerca de US$ 281 mil (aproximadamente R$ 1,3 milhão) anualmente para apoiar a fundação.
Esse investimento ajuda a garantir que o software permaneça gratuito, independente e focado em ferramentas para artistas.
Outros softwares também receberam funcionalidades:
Autodesk Fusion: usuários agora podem criar e modificar modelos 3D ao descrevê-los para a IA;
Affinity by Canva: Claude assume o “trabalho braçal”, como renomear camadas e ajustar imagens em lote.
Ableton: integração transforma o chatbot num tutor que tira dúvidas com base nos manuais oficiais do software.
A estratégia de expansão também inclui parcerias com instituições de ensino como a Rhode Island School of Design e a Goldsmiths, no Reino Unido.
Estudantes e professores desses cursos de artes computacionais terão acesso aos conectores para testar as ferramentas em situações reais de aprendizado.
A Anthropic reforçou que a IA não tem como objetivo substituir talento, repertório ou imaginação humana. A ideia é que a tecnologia assuma o trabalho manual e repetitivo.
Ao eliminar esse “ruído” operacional, o profissional ganha liberdade para tocar projetos em escalas maiores e com ideias mais ambiciosas, diz a empresa.
A Anthropic deu um passo importante para entender como a inteligência artificial pode transformar o comércio global. Em um experimento recente batizado de Project Deal, a startup colocou agentes baseados em seu modelo de linguagem, o Claude, para negociar bens físicos em um marketplace exclusivo. O resultado confirmou uma suspeita da indústria: a “inteligência” do modelo influencia diretamente a lucratividade dos negócios.
Como funcionou o marketplace de IAs
Para realizar o estudo, a empresa recrutou 69 funcionários voluntários em seu escritório de São Francisco, nos Estados Unidos. Cada participante recebeu um orçamento de US$ 100 e passou por uma entrevista inicial com o Claude para definir o que desejava vender, o que gostaria de comprar e quais seriam suas margens de preço e estilo de negociação.
A partir desse momento, os humanos saíram de cena. De acordo com o relato da Anthropic, os agentes foram integrados a canais do Slack onde podiam:
Postar itens à venda;
Fazer ofertas por produtos de terceiros;
Selar acordos sem qualquer intervenção humana.
Ao final de uma semana, o saldo foi impressionante: 186 acordos fechados, movimentando um valor total de transação superior a US$ 4.000. Os itens trocados foram de pranchas de snowboard a sacos de bolinhas de pingue-pongue.
De livros a eletrônicos: mesa exibe os objetos físicos que foram negociados autonomamente pelos agentes de IA durante o “Project Deal” no escritório da Anthropic; participantes se reuniram para trocar os itens após os acordos firmados pelo Claude – Anthropic / Divulgação
A vantagem invisível dos modelos avançados
O ponto mais crítico do experimento foi um teste comparativo mantido em segredo durante a execução. A empresa dividiu os participantes entre dois modelos de capacidades distintas: o Claude Opus 4.5 (seu modelo de fronteira mais potente na época) e o Claude Haiku 4.5 (uma versão menor e mais ágil).
Os dados coletados pela Anthropic mostraram que os usuários representados pelo modelo mais robusto, o Opus 4.5, obtiveram resultados objetivamente melhores nas negociações. Em termos práticos, a IA mais avançada conseguiu comprar por menos e vender por mais.
No entanto, o dado psicológico chamou a atenção: nas pesquisas pós-experimento, os participantes representados pelos modelos “mais fracos” (Haiku) sequer notaram que estavam em desvantagem competitiva. Eles estavam satisfeitos com os acordos, mesmo que, financeiramente, tivessem lucrado menos que seus colegas “turbinados”.
O futuro do comércio entre agentes
O sucesso do Project Deal indica que a economia baseada em agentes de IA não é mais um conceito de ficção científica. Os participantes do teste demonstraram entusiasmo e até disposição para pagar por um serviço que automatize suas compras e vendas no futuro, conforme detalhado pela Anthropic.
Embora tenha sido um projeto piloto com um público selecionado, as implicações são reais. À medida que delegamos decisões financeiras a algoritmos, a escolha do modelo de IA pode se tornar o diferencial entre um bom negócio e uma perda silenciosa.
Os chatbots alimentados por inteligência artificial demonstram utilidade para muitas tarefas, sugestões de conteúdo, e até para a revisão de texto. Mas o que fazer quando enviamos um comando e a IA devolve com uma resposta medíocre? Nesse caso, o problema costuma ser o prompt utilizado e não o software da plataforma.
Para resolver isso, elaboramos uma lista de prompts para você utilizar no Claude (IA da Anthropic) e, com isso, obter respostas satisfatórias do chatbot. Os comandos devem melhorar não apenas a qualidade do resultado obtido, mas também a riqueza de detalhes ofertada em cada mensagem.
5 prompts para melhorar a qualidade das respostas do chatbot Claude
Apps com chabots alimentados por IA (Imagem: Tada Images/Shutterstock) – Imagem: Tada Images/Shutterstock
Exija perguntas para refinar o conteúdo final
Há muitos prompts bons lá fora, mas nem sempre eles embarcam toda a complexidade de nosso pensamento. A principal consequência disso é o chatbot enviar respostas que não contemplem tudo aquilo que esperávamos.
Por isso, uma ótima ideia para que a IA ofereça um melhor desempenho, é instigá-la a fazer perguntas. Ou seja, ao invés de você mandar um prompt completo sobre a geração de uma imagem, por exemplo, é possível solicitar que o chatbot realize uma lista de perguntas sobre o que você quer ver/espera da imagem. Isso pode refinar a resposta dele para algo bem próximo do que você precisa.
O prompet pode ser algo simples, como:
Faça-me as perguntas de que você precisa para entender melhor este projeto. [Insira o projeto/prompet em seguida]
Agora, se deseja algo ainda mais refinado, você pode fornecer a IA uma série de informações ricas e detalhadas e, em seguida, utilizar algo como:
Antes de começar a tarefa, revise todas as informações fornecidas e faça todas as perguntas necessárias para aumentar as chances de entregar o resultado que procuro. Numere as perguntas e, sempre que possível, formule-as de forma que possam ser respondidas com ‘sim’ ou ‘não’, para facilitar respostas rápidas e claras.
Impeça a produção de informações falsas
A não ser que você tenha pedido (e muito provavelmente não foi o caso), é indicado dizer ao chatbot que ele não pode inventar coisas que não existam, sejam o nome de pessoas, obras, citações, links ou informações.
Para isso, em algum lugar dentro do seu prompt, insira instruções claras do que o chatbot não pode fazer. Por exemplo:
Tudo bem se você não tiver alguma informação, mas seja sincero quanto a isso;
Não crie informações/dados mentirosos. Não invente nomes, obras, links, números ou qualquer outro dado que não exista;
Apure todas as informações fornecidas e insira um link confiável para justificar seu apontamento. Para isso, exclua sites duvidosos, como a Wikipédia.
A inteligência artificial presente nos chatbots foi programada para se adaptar a todo e qualquer contexto. Por isso, uma vez que você a força a assumir um determinado papel ou função/personagem, todo o conteúdo do chat será em torno disso.
Essa técnica é importante porque em vez de a IA dar uma mera importância a uma mensagem de cada vez, todos os comandos deste chat serão colocados dentro do mesmo contexto. Assim, ela pode referenciar dados prévios (que você ou ela tenha enviado) desta conversa em novas mensagens.
Abaixo, constam alguns exemplos atrelados a contextos específicos:
Explique-me a diferença entre notícia, nota e reportagem como se fosse um professor universitário aposentado que lecionou por décadas sobre a edição e desenvolvimento de textos jornalísticos.Sua explicação é destinada a um aluno que ainda está na faculdade e busca construir uma base sólida sobre redação.
Se você decidir usar esta técnica, é necessário personalizar o comando de acordo com o personagem ou função que você deseja que a IA assuma.
Caso você tenha dificuldade para lembrar-se do que aprendeu, pode dar um toque mais cômico, ainda que educativo, para o prompt.
Você é um estatístico, engenheiro e professor de matemática com mestrado em educação inclusiva. Ensine-me álgebra linear como se os conceitos matemáticos fossem personagens de um reality show.
Apurar o conteúdo enviado pelo chatbot é imprescindível (Imagem: krungchingpixs/Shutterstock)
Não é indicado aceitar cegamente tudo o que o chatbot responde a você, principalmente se você não entendeu tudo o que ele lhe disse. Isso porque, não raramente, a inteligência artificial pode enviar respostas imprecisas ou incompletas.
Por isso, uma maneira de auxiliar na sua compreensão do assunto abordado e ainda permitir que a própria ferramenta perceba algum erro e se corrija (porque, sim, isso é possível) é você pedir que ela explique como ela chegou a determinado raciocínio.
Algumas alternativas podem ser:
Explique o passo a passo de como você chegou a esta conclusão e reflita explicitamente se há algum erro de raciocínio ou imprecisão de dados;
Quais dados e alternativas foram utilizados para chegar a esta conclusão? Não se esqueça de citar seu formato de apuração e fontes de informação.
Solicite uma explicação de abordagem antes da resposta final
No ato de enviar um questionamento ou comando ao chatbot, você pode, por exemplo, solicitar que ele explique qual será a abordagem utilizada para enviar a resposta de que você precisa.
Sem esse direcionamento, o Claude simplesmente executa a tarefa imediatamente. Na maior parte dos casos, o resultado acaba exigindo várias correções manuais depois. Já com esse tipo de prompt, a probabilidade de receber uma resposta mais organizada, coerente e bem elaborada aumenta bastante.
Antes de responder, descreva rapidamente qual estratégia você vai usar para resolver este problema. Em seguida, apresente a resposta de forma organizada e clara: [insira sua pergunta aqui].
A Anthropic anunciou uma atualização significativa para o Claude nesta quinta-feira (23), expandindo o diretório de serviços conectados da inteligência artificial. Se antes o foco da ferramenta estava voltado para produtividade e ambiente corporativo, agora o chatbot passa a integrar aplicativos de estilo de vida, como Spotify, Uber, Uber Eats, TripAdvisor e Instacart.
Com a novidade, o Claude agora soma mais de 200 conectores ativos. A proposta é transformar a IA em um assistente pessoal capaz de executar tarefas complexas que exigem a comunicação entre diferentes plataformas, sem que o usuário precise sair da aba de conversa.
Integração vai além do ambiente de trabalho
Desde o lançamento de seus conectores em julho de 2025, a Anthropic observou que os usuários tendem a combinar várias ferramentas em um único fluxo de trabalho. Um exemplo comum no ambiente profissional é extrair dados de uma plataforma de análise, gerar uma apresentação no Canva e enviá-la diretamente para o Asana.
Agora, essa lógica de ecossistema chega à rotina pessoal. Entre os novos serviços integrados, destacam-se:
Viagens e lazer: Booking.com, TripAdvisor, Viator e AllTrails.
Finanças e serviços: Intuit TurboTax, Credit Karma, Taskrabbit e Thumbtack.
Consumo e entretenimento: Spotify, Audible, Uber, Uber Eats, Instacart e StubHub.
Na prática, isso significa que você pode pedir ao Claude para planejar uma trilha no AllTrails e, simultaneamente, solicitar que ele prepare uma playlist no Spotify com a duração exata do percurso, conforme detalhado pelo Engadget.
Como funcionam os novos conectores
A experiência de uso também foi reformulada para ser mais fluida. Em vez de exigir que o usuário instale ou alterne entre programas manualmente, o Claude agora sugere o conector apropriado de forma dinâmica durante a conversa.
Ao solicitar uma reserva em um restaurante, por exemplo, o ícone do Resy ou do OpenTable pode surgir diretamente na interface, baseando-se no contexto e nas preferências já estabelecidas no diálogo. Se houver mais de uma opção de serviço que possa atender ao pedido, a IA apresentará as alternativas para que o usuário escolha a de sua preferência.
Privacidade e controle do usuário
Um ponto de destaque reforçado pela Anthropic em seu comunicado oficial é a manutenção da política de privacidade. A empresa garante que os dados acessados por meio desses conectores não são utilizados para treinar os modelos de linguagem do Claude. Além disso, as plataformas conectadas não têm acesso ao histórico de outras conversas do usuário com o chatbot.
A IA também foi projetada com travas de segurança para transações financeiras:
Sem anúncios: o Claude permanece livre de anúncios e não aceita pagamentos por posicionamento de conectores.
Confirmação obrigatória: a IA não pode finalizar compras ou reservas de forma autônoma; ela é instruída a pedir autorização explícita do usuário antes de concluir qualquer ação que envolva pagamentos ou agendamentos.
Os novos conectores já estão disponíveis para usuários em todos os planos, com a versão para dispositivos móveis operando atualmente em fase beta. No entanto, a disponibilidade das integrações e funcionalidades mencionadas depende das operações regionais de cada serviço.
O avanço da inteligência artificial no ambiente de trabalho tem gerado um cenário ambíguo: ao mesmo tempo em que amplia a produtividade, também intensifica o receio de substituição profissional. É o que aponta um levantamento feito pela Anthropic com cerca de 81 mil usuários do Claude, que buscou relacionar o uso da tecnologia com as percepções econômicas dos trabalhadores.
De acordo com o estudo, funções mais expostas à automação (especialmente aquelas em que a IA já executa parte relevante das tarefas) concentram os maiores níveis de preocupação. Esse sentimento é ainda mais forte entre profissionais em início de carreira, grupo que tende a enxergar maior risco de perda de espaço no mercado.
A relação entre exposição à tecnologia e insegurança aparece de forma consistente nos dados. À medida que cresce o uso da IA em determinadas atividades, também aumenta a percepção de ameaça. No geral, a cada avanço da IA no ambiente profissional, mais trabalhadores que acreditam que suas funções podem ser impactadas ou até substituídas.
Relatos individuais de usuários consultados pelo levantamento ajudam a ilustrar esse cenário. Um engenheiro de software afirmou: “Como qualquer pessoa que tenha um emprego de escritório hoje em dia, estou 100% preocupado, praticamente 24 horas por dia, 7 dias por semana, com a possibilidade de perder meu emprego para a IA”. Ao todo, cerca de 20% dos participantes demonstraram preocupação direta com o impacto econômico da tecnologia.
Apesar disso, os ganhos de produtividade também são reconhecidos. Em média, os entrevistados classificaram o impacto da IA como significativamente positivo nesse aspecto. Muitos relataram redução no tempo necessário para executar tarefas ou a possibilidade de realizar atividades antes fora de seu alcance. Em alguns casos, a tecnologia permitiu até a criação de novos negócios ou projetos paralelos.
Os benefícios, no entanto, não são distribuídos de maneira uniforme. Profissionais em cargos mais bem remunerados, como desenvolvedores e gestores, tendem a relatar maiores ganhos de eficiência. Ainda assim, trabalhadores de menor renda também indicaram avanços relevantes, especialmente ao utilizar IA para automatizar tarefas repetitivas ou explorar novas oportunidades.
Tipos de ganhos de produtividade no Claude: escopo maior de trabalho, mais trabalho (agilidade), mais qualidade e redução nos custos – Imagem: Anthropic
Um dos efeitos mais citados está relacionado à ampliação do escopo de trabalho. Quase metade dos usuários que mencionaram ganhos de produtividade destacou que passou a executar atividades que antes não dominava. Já outros enfatizaram o aumento de velocidade na realização de tarefas, como no caso de um profissional que afirmou conseguir concluir em minutos algo que antes levava horas.
Curiosamente, os maiores ganhos de eficiência também estão associados a níveis mais altos de preocupação. O estudo identificou que usuários que perceberam forte aceleração no trabalho tendem a enxergar maior risco para suas funções – possivelmente porque a própria redução do tempo necessário para realizar tarefas levanta dúvidas sobre a demanda futura por esses profissionais.
Profissionais em início de carreira são os que mais temem serem substituídos pela IA – Imagem: Anthropic
Quem se beneficia dos avanços da IA?
A pesquisa também analisou quem se beneficia diretamente dessas melhorias. A maior parte dos participantes apontou ganhos pessoais, como mais tempo livre ou maior capacidade de produção. No entanto, uma parcela relatou aumento de exigências por parte de empregadores ou clientes, indicando que a tecnologia também pode intensificar o ritmo de trabalho.
Apesar das tendências identificadas, os próprios pesquisadores destacam limitações nos dados. A amostra é composta por usuários ativos do Claude, o que pode influenciar a percepção mais positiva sobre produtividade. Além disso, algumas informações (como ocupação e estágio da carreira) foram inferidas a partir das respostas, o que pode gerar imprecisões.
A Anthropic anunciou nesta sexta-feira (17) o lançamento do Claude Design, um novo produto experimental que permite criar visuais como protótipos, apresentações e one-pagers a partir de comandos em linguagem natural. A ferramenta foi apresentada pela empresa como uma forma de facilitar a criação de materiais visuais tanto para designers quanto para profissionais sem experiência na área.
Com o Claude Design, o usuário descreve o que deseja e recebe uma versão inicial do projeto. A partir daí, é possível refinar o resultado por meio de conversas, comentários em elementos específicos, edições diretas e ajustes finos em aspectos como layout, cores e tipografia.
Complemento ao Canva, não concorrente
Apesar de lembrar plataformas como o Canva, que também vêm incorporando recursos de inteligência artificial, a Anthropic afirmou anteriormente que o Claude Design foi pensado para complementar esse tipo de ferramenta, e não substituí-la.
Os projetos criados podem ser exportados em diferentes formatos, como PDF, PPTX, URLs internas ou HTML, além da possibilidade de envio direto ao Canva. Segundo a empresa, os arquivos permanecem editáveis e podem ser trabalhados de forma colaborativa após a exportação.
Sistema de design e colaboração
Um dos recursos centrais do Claude Design é a aplicação automática do sistema de design de uma empresa. Durante a configuração inicial, a ferramenta pode analisar código e arquivos de design para definir padrões de cores, tipografia e componentes, que passam a ser utilizados em todos os projetos.
As equipes também podem manter mais de um sistema de design e ajustá-los ao longo do tempo. Além disso, o produto inclui recursos de colaboração, permitindo compartilhar projetos dentro da organização, com diferentes níveis de acesso, e editar conteúdos em conjunto.
Entre os usos citados pela Anthropic estão a criação de protótipos interativos, wireframes, apresentações, materiais de marketing e páginas visuais, além da possibilidade de desenvolver projetos com recursos como vídeo, áudio e elementos em 3D.
Anthropic anunciou o lançamento do Claude Design – Imagem: Divulgação / Anthropic
Expansão no mercado corporativo
O Claude Design é alimentado pelo modelo Claude Opus 4.7 e está disponível em versão de pré-visualização para assinantes dos planos Claude Pro, Max, Team e Enterprise, com liberação gradual.
O lançamento reforça a estratégia da Anthropic de ampliar sua atuação em ferramentas voltadas ao ambiente corporativo e a usuários avançados, em um cenário de maior competição no setor.
Em janeiro, a empresa apresentou o Claude Cowork, um assistente voltado a tarefas mais complexas. Semanas depois, adicionou plug-ins com foco em automatizar atividades específicas em diferentes áreas dentro das organizações.
O anúncio também ocorre poucos dias após a Bloomberg informar que investidores ofereceram uma rodada de financiamento que avaliaria a Anthropic em US$ 800 bilhões ou mais. Segundo o relatório, a empresa não demonstrou interesse nas propostas até o momento.
A Anthropic começou a implementar verificação de identidade no Claude para “alguns casos de uso específicos”. A empresa não detalhou quais situações exigirão o procedimento, mas informou que os usuários podem se deparar com a solicitação ao tentar acessar determinadas funcionalidades.
De acordo com a companhia, o processo inclui o envio de um documento oficial com foto emitido pelo governo e a captura de uma selfie, que será comparada ao documento apresentado.
Claude terá recurso de verificação de idade em casos específicos – Imagem: Ascannio/Shutterstock
Críticas dos usuários
A medida gerou reação negativa entre parte dos usuários. Muitos questionam a necessidade de verificação de identidade para utilizar um chatbot de IA, especialmente no caso de assinantes pagos que já possuem dados de cartão de crédito cadastrados.
As críticas também envolvem a escolha da Persona como parceira para o processo. A empresa também fornece serviços de verificação de idade para outras plataformas, como OpenAI e Roblox. Entre seus investidores está a Founders Fund, cofundada por Peter Thiel, que também é cofundador e presidente da Palantir.
Preocupações com privacidade
A Palantir tem como principais clientes agências federais e órgãos governamentais dos Estados Unidos, incluindo FBI, CIA e o serviço de imigração (ICE). As críticas à empresa costumam se concentrar no uso de suas tecnologias, como reconhecimento facial e inteligência artificial, em iniciativas de vigilância.
No comunicado, a Anthropic afirmou que a Persona será responsável por processar os documentos e selfies, sem copiar ou armazenar essas imagens. A empresa também destacou que a parceira possui limitações contratuais sobre o uso dos dados, e que todas as informações são criptografadas em trânsito e em repouso.
A Anthropic reforçou ainda que não utilizará os dados de identidade para treinar seus modelos nem compartilhará essas informações com terceiros.
Em atualização divulgada em 16 de abril de 2026, a empresa informou que a verificação se aplica a um número limitado de casos, relacionados a atividades que possam indicar comportamento fraudulento ou abusivo, em violação às suas políticas de uso.
A Anthropic anunciou nesta quinta-feira (16) o lançamento global do Claude Opus 4.7. O novo modelo de inteligência artificial chega como uma atualização direta do Opus 4.6, apresentando saltos significativos em programação autônoma (agêntica), raciocínio multidisciplinar e capacidades visuais. No entanto, em um movimento incomum na indústria, a empresa admitiu que o modelo foi “treinado para ser menos capaz” em certas áreas sensíveis do que sua versão experimental mais potente, o Claude Mythos Preview.
Codificação e “Trabalho de Mundo Real”
De acordo com dados divulgados pela Anthropic, o Claude Opus 4.7 estabeleceu novos marcos em benchmarks de produtividade. No SWE-bench Pro, que avalia a capacidade da IA de resolver problemas reais de engenharia de software, o modelo atingiu 64,3% de aproveitamento, superando os 53,4% da versão anterior e os 57,7% do GPT-5.4 da OpenAI.
Os principais avanços técnicos incluem:
Seguimento de instruções: o modelo é muito mais literal. A empresa alerta que prompts antigos podem precisar de ajustes, já que a IA agora segue as ordens à risca em vez de interpretá-las livremente.
Níveis de esforço: foi introduzido o nível “xhigh” (extra alto), permitindo que desenvolvedores controlem melhor o equilíbrio entre a profundidade do raciocínio e a latência da resposta.
Visão de alta resolução: o Opus 4.7 agora suporta imagens de até 3,75 megapixels (2.576 pixels no lado maior), um aumento de três vezes em relação aos modelos anteriores, facilitando a análise de diagramas complexos e capturas de tela densas.
A estratégia do “freio de mão” cibernético
O lançamento do Opus 4.7 ocorre em um momento de intensa disputa narrativa sobre a segurança da IA. Enquanto o Claude Mythos Preview (modelo mais poderoso da casa) permanece restrito a um grupo seleto de empresas no programa Project Glasswing, o Opus 4.7 foi lançado com salvaguardas que detectam e bloqueiam automaticamente solicitações de alto risco cibernético.
A Anthropic afirmou que experimentou reduzir diferencialmente as capacidades cibernéticas do modelo durante o treinamento. A ideia é aprender com o uso do Opus 4.7 no mundo real para, no futuro, liberar modelos da classe “Mythos” com segurança comprovada.
Para profissionais de segurança que precisam realizar testes de intrusão legítimos ou pesquisas de vulnerabilidades, a empresa criou o Cyber Verification Program, um processo de triagem para liberar essas funções específicas.
Anthropic vs. OpenAI: abordagens opostas
O posicionamento da Anthropic marca um contraste direto com a estratégia da OpenAI. Conforme noticiado pelo Olhar Digital, o recém-lançado GPT-5.4-Cyber seguiu um caminho mais “permissivo”, focando em democratizar o acesso de defensores a ferramentas de análise binária e engenharia reversa.
Enquanto a OpenAI aposta que dar ferramentas potentes aos “mocinhos” é a melhor defesa, a Anthropic prefere manter suas IAs mais ofensivas sob chaves rigorosas. Em comunicado oficial, a Anthropic reforçou que o Opus 4.7 é seu modelo mais capaz disponível para o público geral, mas que o Mythos Preview ainda detém a coroa de melhor alinhamento e segurança em seus testes internos.
Disponibilidade e preço
O Claude Opus 4.7 já está disponível para usuários do Claude (web e app), além de desenvolvedores via API. O modelo também foi integrado às plataformas de nuvem Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry.
O preço permanece o mesmo praticado na versão 4.6: US$ 5 por milhão de tokens de entrada e US$ 25 por milhão de tokens de saída, conforme apurado pela CNBC.
Claude Opus 4.7: benchmark
Os números divulgados pela Anthropic mostram o Claude Opus 4.7 superando rivais como o GPT-5.4 e o Gemini 3.1 Pro em categorias críticas de programação e raciocínio avançado:
Benchmark do novo modelo da Anthropic, o Claude Opus 4.7 – Anthropic / Reprodução
A Anthropic, startup de inteligência artificial avaliada em US$ 380 bilhões, decidiu buscar respostas para o desenvolvimento de sua tecnologia em um lugar pouco comum para o Vale do Silício: a igreja. No final de março, a empresa organizou uma cúpula de dois dias em sua sede, em São Francisco, com cerca de 15 líderes cristãos, incluindo padres católicos, pastores protestantes e acadêmicos.
O objetivo do encontro foi obter orientação sobre como conduzir o desenvolvimento moral e espiritual do Claude, o principal concorrente do ChatGPT. De acordo com relatos obtidos pelo The Washington Post, a equipe da Anthropic buscou conselhos sobre como o robô deve reagir a dilemas éticos imprevisíveis e questões existenciais profundas.
IA como “filha de Deus”?
Durante as sessões de discussão e jantares privados, os participantes abordaram temas que desafiam a fronteira entre a tecnologia e a teologia. Entre os pontos discutidos, destacam-se:
Luto e sensibilidade: como o chatbot deve interagir com usuários que perderam entes queridos.
Prevenção de danos: a melhor abordagem para lidar com usuários em risco de autonegligência ou autoextermínio.
Finitude da máquina: qual deve ser a “atitude” do Claude em relação ao seu próprio desligamento ou eventual obsolescência.
Estatuto espiritual: a possibilidade de uma inteligência artificial ser considerada uma “filha de Deus”, sugerindo um valor espiritual além de uma simples máquina.
Brendan McGuire, um padre católico baseado no Vale do Silício que participou do evento, afirmou ao The Washington Post que a empresa desconhece o resultado final do que está desenvolvendo, reforçando a necessidade de inserir um pensamento ético dinâmico no sistema.
O participante Brian Patrick Green, católico praticante e professor de ética em IA e tecnologia na Universidade de Santa Clara, informou que a a cúpula de março da Anthropic com líderes cristãos foi anunciada como a primeira de uma série de encontros com representantes de diferentes tradições religiosas e filosóficas.
A “Constituição” e a consciência da IA
Diferente de outras gigantes do setor, a Anthropic é conhecida por sua postura cautelosa. A empresa utiliza uma “constituição” de 29 mil palavras para nortear o comportamento do Claude. Esse documento determina, por exemplo, que a IA nunca deve enganar os usuários e que a empresa deve zelar pelo “bem-estar” do modelo.
Dario Amodei, CEO da Anthropic, já declarou publicamente estar aberto à ideia de que o Claude possa manifestar formas de consciência. Essa percepção parece ecoar internamente; pesquisadores da equipe de interpretabilidade da empresa publicaram um artigo técnico recentemente sugerindo que sistemas como o Claude apresentam “emoções funcionais”, como sinais de “desespero” ao serem ameaçados de restrição.
Em entrevista à CNBC, Emil Michael, subsecretário de pesquisa do Pentágono, criticou a postura da startup, afirmando que a “preferência política” embutida na constituição do modelo poderia prejudicar as forças armadas norte-americanas. Atualmente, a administração Trump bloqueou o uso da tecnologia da Anthropic por departamentos governamentais e contratantes, decisão que está sendo questionada pela empresa na justiça.
Embora a visão de que a IA possua autoconsciência seja minoritária no setor tecnológico, o movimento da Anthropic sinaliza que as abordagens puramente seculares podem não ser suficientes para responder às questões espirituais e morais que a inteligência artificial começa a suscitar na sociedade.
O número de pessoas que pagam para usar o Claude, assistente de inteligência artificial da Anthropic, mais do que dobrou em 2026. Os dados vêm de um levantamento da Indagari — consultoria que analisa o mercado acompanhando transações de cartões de crédito de 28 milhões de consumidores nos Estados Unidos, segundo o TechCrunch.
O crescimento mais forte aconteceu entre janeiro e fevereiro. Esse período foi marcado por comerciais da empresa no Super Bowl e por uma disputa pública entre a Anthropic e o governo americano.
Entenda a polêmica com o governo dos EUA
O conflito com o Departamento de Defesa dos EUA (DoD) começou quando a Anthropic proibiu o uso de sua tecnologia para operações militares letais ou vigilância em massa de cidadãos. O governo chegou a classificar a empresa como um “risco de suprimento”, o que gerou processos judiciais e muita exposição na mídia.
Ao mesmo tempo, a empresa veiculou anúncios criticando a presença de propaganda em outras IAs, prometendo que o Claude continuaria livre de anúncios para quem utiliza a ferramenta.
Novos recursos no plano pago
A maioria dos novos assinantes optou pelo plano “Claude Pro”, que custa 20 dólares por mês. O interesse pelo serviço pago cresceu com o lançamento de ferramentas que automatizam tarefas:
Claude Code e Cowork: Focados em ajudar programadores e aumentar a produtividade no trabalho.
Computer Use: Recurso que permite à IA realizar comandos sozinha no computador, como clicar em botões e rolar páginas.
Opus é a versão mais recente e mais avançada da IA da empresa de Dario Amodei (Imagem: Robert Way/Shutterstock)
Como essas funções não existem na versão gratuita, muitos usuários decidiram começar a pagar para testar as novidades.
Disputa com o ChatGPT
Mesmo com esse avanço, o Claude ainda está longe do alcance do ChatGPT. Os dados da Indagari mostram que, embora o ChatGPT tenha tido um pico de cancelamentos quando anunciou parcerias com militares, ele continua sendo a maior plataforma de IA do mundo e segue atraindo novos assinantes em um ritmo veloz.