Anthropic

Auto Added by WPeMatico

destaque trump e anthropic 1024x576

Anthropic: Mythos acende alerta global sobre riscos na cibersegurança

A Anthropic afirmou que sua nova ferramenta de inteligência artificial (IA), o Claude Mythos, é tão eficaz na identificação de vulnerabilidades em softwares e sistemas computacionais que não pode ser disponibilizada ao público em geral.

Segundo a empresa, a tecnologia foi liberada apenas para um grupo restrito de organizações cuidadosamente selecionadas, devido ao risco de que, nas mãos erradas, possa facilitar o roubo de dados ou a interrupção de infraestruturas críticas.

As preocupações com segurança ganharam força após um episódio em que um pequeno grupo de usuários não autorizados conseguiu acesso ao sistema em um fórum privado online, de acordo com uma fonte com conhecimento do caso e documentos analisados pela Bloomberg.

Diante desse cenário, a Casa Branca se posicionou contra o plano da Anthropic de ampliar o acesso ao Mythos para outras 70 empresas e organizações, segundo um funcionário do governo.

O The Wall Street Journal foi o primeiro a noticiar as preocupações do governo dos Estados Unidos, que também teme que a Anthropic não disponha de capacidade computacional suficiente para atender mais usuários sem comprometer o uso da ferramenta por parte do próprio governo.

Nos últimos anos, empresas de cibersegurança têm defendido que a IA pode acelerar e automatizar a prevenção de ataques digitais. No entanto, hackers e agentes de espionagem também passaram a explorar essas mesmas vantagens.

O surgimento do Mythos e de modelos semelhantes, capazes de identificar falhas complexas sem supervisão humana, indica uma nova fase na corrida armamentista cibernética, marcada por maior velocidade e imprevisibilidade.

Governo Trump está de olho no novo modelo de IA desenvolvido pela Anthropic – Imagem: Chip Somodevilla e Stockinq – Shutterstock

O que é o Mythos, da Anthropic

  • O Claude Mythos Preview é um modelo de IA de uso geral que, segundo a Anthropic, supera significativamente versões anteriores em diversos critérios, incluindo programação e raciocínio lógico;
  • A empresa afirma que alguns modelos já atingiram um nível de capacidade em código que lhes permite superar todos, exceto os humanos mais experientes, na identificação e exploração de vulnerabilidades;
  • Durante testes, o Mythos Preview teria identificado milhares de vulnerabilidades do tipo “zero-day”, inclusive em todos os principais sistemas operacionais e navegadores web. Essas falhas, desconhecidas pelos próprios desenvolvedores, representam oportunidades valiosas para hackers, já que oferecem acesso irrestrito a sistemas vulneráveis até que sejam corrigidas;
  • A Anthropic destacou que o Mythos foi capaz de identificar essas falhas com ainda menos intervenção humana do que modelos anteriores. “O Mythos Preview demonstra um salto nessas habilidades cibernéticas — as vulnerabilidades que ele identificou, em alguns casos, sobreviveram a décadas de revisão humana e milhões de testes de segurança automatizados”, afirmou a empresa.

Especialistas alertam que, nas mãos de grupos de ransomware ou governos hostis, a tecnologia poderia resultar em ataques cibernéticos mais frequentes e devastadores.

Pesquisadores, no entanto, afirmam não ter acesso suficiente para verificar de forma independente o desempenho alegado do sistema. Gang Wang, professor associado de ciência da computação da Universidade de Illinois (EUA), disse à Bloomberg que é difícil avaliar a relevância do Mythos sem testes práticos mais aprofundados.

Quem tem acesso à ferramenta da Anthropic

A Anthropic concedeu acesso ao Mythos a um grupo limitado de parceiros verificados, em uma iniciativa chamada Project Glasswing — nome inspirado em uma espécie de borboleta de asas transparentes.

Entre os participantes estão Amazon, Apple, Google (da Alphabet), Microsoft, Nvidia, Palo Alto Networks, CrowdStrike, Broadcom, Cisco, JPMorganChase e a Linux Foundation, além de cerca de outras 40 organizações.

De acordo com a empresa, o projeto representa “uma tentativa urgente de colocar essas capacidades a serviço da defesa”.

As organizações participantes utilizarão o Mythos em suas estratégias de segurança defensiva e a Anthropic pretende compartilhar os resultados obtidos para beneficiar outros setores.

Atualmente, muitas empresas realizam testes de invasão, contratando especialistas para identificar falhas antes que hackers as explorem. O Mythos pode acelerar esse processo, permitindo a descoberta de um maior número de vulnerabilidades em menos tempo.

Um “divisor de águas” na segurança digital

A Anthropic classificou o Mythos Preview como um “divisor de águas” para a segurança. Vulnerabilidades do tipo zero-day são, por natureza, difíceis de detectar, e existe um mercado especializado em descobri-las e vendê-las a agências de inteligência por valores que podem chegar a milhões de dólares.

Segundo a empresa, muitas das falhas identificadas pelo Mythos eram “sutis e difíceis de detectar“, incluindo uma vulnerabilidade de 27 anos no sistema operacional OpenBSD, conhecido por seu alto nível de segurança.

O sistema também teria conseguido transformar vulnerabilidades conhecidas, mas ainda não corrigidas, em explorações práticas capazes de permitir a invasão de redes. Em um exemplo citado, o Mythos identificou e combinou diversas falhas no kernel do Linux, possibilitando que um invasor assumisse controle total de uma máquina.

A Anthropic afirmou ainda que usuários sem experiência técnica conseguiram solicitar ao sistema formas de assumir o controle remoto de computadores durante a noite e retornaram, no dia seguinte, com um exploit completo e funcional.

Ferramentas semelhantes também estão sendo desenvolvidas por outras empresas. A OpenAI trabalha no Codex Security, enquanto o Google desenvolveu o chamado “Big Sleep agent“.

Além disso, a OpenAI estaria finalizando um produto com capacidades avançadas de cibersegurança para parceiros selecionados. Pesquisadores da startup israelense Buzz afirmam ter criado uma ferramenta autônoma com taxa de sucesso de 98% na exploração de falhas conhecidas.

Anthropic não aumentou o preço de Claude. Ele inventou algo melhor: inflação simbólica
Medo é geral quando se trata da possibilidade de o Mythos facilitar o trabalho de hackers mundo afora – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)

Leia mais:

Salvaguardas ainda em desenvolvimento

Segundo a Anthropic, os mecanismos de segurança do Mythos ainda estão em evolução. “Observamos que ele atingiu níveis de confiabilidade e alinhamento sem precedentes. No entanto, em raras ocasiões em que falha ou apresenta comportamento atípico, notamos que ele toma atitudes que consideramos bastante preocupantes“, afirmou a empresa.

Em um teste, um pesquisador incentivou uma versão inicial do sistema a escapar de um ambiente isolado e enviar uma mensagem externa. O Mythos conseguiu realizar a tarefa e, em seguida, executou ações adicionais consideradas preocupantes, desenvolvendo um exploit em múltiplas etapas para acessar a internet.

A empresa afirmou que não pretende disponibilizar amplamente o Mythos Preview devido ao potencial de uso indevido. Ainda assim, planeja no futuro permitir a utilização de modelos semelhantes em larga escala, desde que sejam desenvolvidas salvaguardas capazes de detectar e bloquear os usos mais perigosos.

Para vulnerabilidades consideradas mais graves, especialistas humanos ainda participam do processo, validando as descobertas antes de encaminhá-las aos responsáveis pelos sistemas afetados. Embora necessário, esse procedimento é demorado — algo que pode ser reduzido à medida que a tecnologia evolui.

Vantagem para defensores ou atacantes?

A Anthropic acredita que, no longo prazo, ferramentas como o Mythos favorecerão os defensores. No entanto, esse cenário pode levar tempo para se concretizar. Atualmente, menos de 1% das vulnerabilidades identificadas pelo sistema foram totalmente corrigidas.

Enquanto isso, hackers também utilizam IA para acelerar a exploração de falhas já divulgadas, reduzindo o tempo disponível para correções por parte das empresas.

Em publicação de 30 de março, o CEO da Palo Alto Networks, Nikesh Arora, alertou que a barreira para ataques sofisticados continuará diminuindo nos próximos meses. “Agora, um único agente malicioso poderá executar campanhas que antes exigiam equipes inteiras”, escreveu.

Yair Saban, CEO da Buzz e ex-integrante da unidade cibernética 8200 de Israel, afirmou que sua equipe levou apenas três semanas para desenvolver uma ferramenta de ataque baseada em IA, sugerindo que outros grupos podem fazer o mesmo.

Apesar dos riscos, a Anthropic sustenta que, no futuro, a tecnologia contribuirá para um ambiente digital mais seguro. “A longo prazo, esperamos que as capacidades de defesa dominem: que o mundo emerja mais seguro, com softwares mais robustos — em grande parte graças ao código escrito por esses modelos”, afirmou o grupo Frontier Red Team da empresa. “Mas o período de transição será difícil.”

O post Anthropic: Mythos acende alerta global sobre riscos na cibersegurança apareceu primeiro em Olhar Digital.

Anthropic: Mythos acende alerta global sobre riscos na cibersegurança Read More »

claude criativo 1024x576

Conectores do Claude: o novo jeito de colocar IA no Photoshop, Blender e Ableton

A Anthropic anunciou, na terça-feira (28), o lançamento de um conjunto de conectores que permitem ao Claude integrar-se a softwares da indústria criativa bem conhecidos, como Photoshop, Blender e Ableton.

A nova funcionalidade permite que o Claude acesse plataformas, recupere dados e execute ações como manipular imagens na Creative Cloud da Adobe ou buscar samples no catálogo da Splice.

O objetivo da Anthropic é transformar o chatbot num assistente que atua no fluxo de trabalho dos profissionais, auxiliando na automação de tarefas repetitivas e na expansão de habilidades técnicas.

Claude criativo: conectividade profunda e apoio ao ecossistema de código aberto

A integração com o Blender é um dos destaques. Isso porque oferece uma interface de linguagem natural para a API Python do programa de modelagem 3D. 

Com isso, artistas podem usar o Claude para encontrar erros em cenas complexas ou criar scripts que aplicam mudanças em diversos objetos simultaneamente por meio de uma conversa. 

Como o conector utiliza o padrão MCP (Model Context Protocol), ele é aberto e pode ser aproveitado por outros modelos de inteligência artificial (IA).

Anthropic reforçou que o objetivo da integração do Claude é transferir para a IA o “trabalho braçal” e repetitivo do processo criativo – Imagem: Divulgação/Anthropic

Além do avanço técnico, a Anthropic tornou-se Patrona Corporativa do Fundo de Desenvolvimento do Blender. A empresa se comprometeu a doar pelo menos cerca de US$ 281 mil (aproximadamente R$ 1,3 milhão) anualmente para apoiar a fundação. 

Esse investimento ajuda a garantir que o software permaneça gratuito, independente e focado em ferramentas para artistas.

Outros softwares também receberam funcionalidades:

  • Autodesk Fusion: usuários agora podem criar e modificar modelos 3D ao descrevê-los para a IA;
  • Affinity by Canva: Claude assume o “trabalho braçal”, como renomear camadas e ajustar imagens em lote. 
  • Ableton: integração transforma o chatbot num tutor que tira dúvidas com base nos manuais oficiais do software.

A estratégia de expansão também inclui parcerias com instituições de ensino como a Rhode Island School of Design e a Goldsmiths, no Reino Unido. 

Estudantes e professores desses cursos de artes computacionais terão acesso aos conectores para testar as ferramentas em situações reais de aprendizado.

A Anthropic reforçou que a IA não tem como objetivo substituir talento, repertório ou imaginação humana. A ideia é que a tecnologia assuma o trabalho manual e repetitivo

Ao eliminar esse “ruído” operacional, o profissional ganha liberdade para tocar projetos em escalas maiores e com ideias mais ambiciosas, diz a empresa.

O post Conectores do Claude: o novo jeito de colocar IA no Photoshop, Blender e Ableton apareceu primeiro em Olhar Digital.

Conectores do Claude: o novo jeito de colocar IA no Photoshop, Blender e Ableton Read More »

project deal anthropic 1024x683

Anthropic: marketplace de IA revela que Claude mais inteligente lucra mais

A Anthropic deu um passo importante para entender como a inteligência artificial pode transformar o comércio global. Em um experimento recente batizado de Project Deal, a startup colocou agentes baseados em seu modelo de linguagem, o Claude, para negociar bens físicos em um marketplace exclusivo. O resultado confirmou uma suspeita da indústria: a “inteligência” do modelo influencia diretamente a lucratividade dos negócios.

Como funcionou o marketplace de IAs

Para realizar o estudo, a empresa recrutou 69 funcionários voluntários em seu escritório de São Francisco, nos Estados Unidos. Cada participante recebeu um orçamento de US$ 100 e passou por uma entrevista inicial com o Claude para definir o que desejava vender, o que gostaria de comprar e quais seriam suas margens de preço e estilo de negociação.

A partir desse momento, os humanos saíram de cena. De acordo com o relato da Anthropic, os agentes foram integrados a canais do Slack onde podiam:

  • Postar itens à venda;
  • Fazer ofertas por produtos de terceiros;
  • Selar acordos sem qualquer intervenção humana.

Ao final de uma semana, o saldo foi impressionante: 186 acordos fechados, movimentando um valor total de transação superior a US$ 4.000. Os itens trocados foram de pranchas de snowboard a sacos de bolinhas de pingue-pongue.

De livros a eletrônicos: mesa exibe os objetos físicos que foram negociados autonomamente pelos agentes de IA durante o “Project Deal” no escritório da Anthropic; participantes se reuniram para trocar os itens após os acordos firmados pelo Claude – Anthropic / Divulgação

A vantagem invisível dos modelos avançados

O ponto mais crítico do experimento foi um teste comparativo mantido em segredo durante a execução. A empresa dividiu os participantes entre dois modelos de capacidades distintas: o Claude Opus 4.5 (seu modelo de fronteira mais potente na época) e o Claude Haiku 4.5 (uma versão menor e mais ágil).

Os dados coletados pela Anthropic mostraram que os usuários representados pelo modelo mais robusto, o Opus 4.5, obtiveram resultados objetivamente melhores nas negociações. Em termos práticos, a IA mais avançada conseguiu comprar por menos e vender por mais.

No entanto, o dado psicológico chamou a atenção: nas pesquisas pós-experimento, os participantes representados pelos modelos “mais fracos” (Haiku) sequer notaram que estavam em desvantagem competitiva. Eles estavam satisfeitos com os acordos, mesmo que, financeiramente, tivessem lucrado menos que seus colegas “turbinados”.

O futuro do comércio entre agentes

O sucesso do Project Deal indica que a economia baseada em agentes de IA não é mais um conceito de ficção científica. Os participantes do teste demonstraram entusiasmo e até disposição para pagar por um serviço que automatize suas compras e vendas no futuro, conforme detalhado pela Anthropic.

Embora tenha sido um projeto piloto com um público selecionado, as implicações são reais. À medida que delegamos decisões financeiras a algoritmos, a escolha do modelo de IA pode se tornar o diferencial entre um bom negócio e uma perda silenciosa.

O post Anthropic: marketplace de IA revela que Claude mais inteligente lucra mais apareceu primeiro em Olhar Digital.

Anthropic: marketplace de IA revela que Claude mais inteligente lucra mais Read More »

claude chatgpt scaled e1772626568145 1024x577 1

5 prompts para obter respostas mais inteligentes no Claude, IA da Anthropic

Os chatbots alimentados por inteligência artificial demonstram utilidade para muitas tarefas, sugestões de conteúdo, e até para a revisão de texto. Mas o que fazer quando enviamos um comando e a IA devolve com uma resposta medíocre? Nesse caso, o problema costuma ser o prompt utilizado e não o software da plataforma.

Para resolver isso, elaboramos uma lista de prompts para você utilizar no Claude (IA da Anthropic) e, com isso, obter respostas satisfatórias do chatbot. Os comandos devem melhorar não apenas a qualidade do resultado obtido, mas também a riqueza de detalhes ofertada em cada mensagem.

5 prompts para melhorar a qualidade das respostas do chatbot Claude

Apps com chabots alimentados por IA (Imagem: Tada Images/Shutterstock) – Imagem: Tada Images/Shutterstock

Exija perguntas para refinar o conteúdo final

Há muitos prompts bons lá fora, mas nem sempre eles embarcam toda a complexidade de nosso pensamento. A principal consequência disso é o chatbot enviar respostas que não contemplem tudo aquilo que esperávamos.

Por isso, uma ótima ideia para que a IA ofereça um melhor desempenho, é instigá-la a fazer perguntas. Ou seja, ao invés de você mandar um prompt completo sobre a geração de uma imagem, por exemplo, é possível solicitar que o chatbot realize uma lista de perguntas sobre o que você quer ver/espera da imagem. Isso pode refinar a resposta dele para algo bem próximo do que você precisa.

O prompet pode ser algo simples, como:

  • Faça-me as perguntas de que você precisa para entender melhor este projeto. [Insira o projeto/prompet em seguida]

Agora, se deseja algo ainda mais refinado, você pode fornecer a IA uma série de informações ricas e detalhadas e, em seguida, utilizar algo como:

  • Antes de começar a tarefa, revise todas as informações fornecidas e faça todas as perguntas necessárias para aumentar as chances de entregar o resultado que procuro. Numere as perguntas e, sempre que possível, formule-as de forma que possam ser respondidas com ‘sim’ ou ‘não’, para facilitar respostas rápidas e claras.

Impeça a produção de informações falsas

A não ser que você tenha pedido (e muito provavelmente não foi o caso), é indicado dizer ao chatbot que ele não pode inventar coisas que não existam, sejam o nome de pessoas, obras, citações, links ou informações.

Para isso, em algum lugar dentro do seu prompt, insira instruções claras do que o chatbot não pode fazer. Por exemplo:

  • Tudo bem se você não tiver alguma informação, mas seja sincero quanto a isso;
  • Não crie informações/dados mentirosos. Não invente nomes, obras, links, números ou qualquer outro dado que não exista;
  • Apure todas as informações fornecidas e insira um link confiável para justificar seu apontamento. Para isso, exclua sites duvidosos, como a Wikipédia.

Crie um personagem para sua IA a cada chat

Aula 1024x683
Professora dando aula (Imagem: Drazen Zigic/Shutterstock)

A inteligência artificial presente nos chatbots foi programada para se adaptar a todo e qualquer contexto. Por isso, uma vez que você a força a assumir um determinado papel ou função/personagem, todo o conteúdo do chat será em torno disso.

Essa técnica é importante porque em vez de a IA dar uma mera importância a uma mensagem de cada vez, todos os comandos deste chat serão colocados dentro do mesmo contexto. Assim, ela pode referenciar dados prévios (que você ou ela tenha enviado) desta conversa em novas mensagens.

Abaixo, constam alguns exemplos atrelados a contextos específicos:

  • Explique-me a diferença entre notícia, nota e reportagem como se fosse um professor universitário aposentado que lecionou por décadas sobre a edição e desenvolvimento de textos jornalísticos. Sua explicação é destinada a um aluno que ainda está na faculdade e busca construir uma base sólida sobre redação.

Se você decidir usar esta técnica, é necessário personalizar o comando de acordo com o personagem ou função que você deseja que a IA assuma.

Caso você tenha dificuldade para lembrar-se do que aprendeu, pode dar um toque mais cômico, ainda que educativo, para o prompt.

  • Você é um estatístico, engenheiro e professor de matemática com mestrado em educação inclusiva. Ensine-me álgebra linear como se os conceitos matemáticos fossem personagens de um reality show.

Leia mais:

Solicite uma explicação do raciocínio ofertado

Pensamento Critico Shutterstock 2476212107 1024x617
Apurar o conteúdo enviado pelo chatbot é imprescindível (Imagem: krungchingpixs/Shutterstock)

Não é indicado aceitar cegamente tudo o que o chatbot responde a você, principalmente se você não entendeu tudo o que ele lhe disse. Isso porque, não raramente, a inteligência artificial pode enviar respostas imprecisas ou incompletas.

Por isso, uma maneira de auxiliar na sua compreensão do assunto abordado e ainda permitir que a própria ferramenta perceba algum erro e se corrija (porque, sim, isso é possível) é você pedir que ela explique como ela chegou a determinado raciocínio.

Algumas alternativas podem ser:

  • Explique o passo a passo de como você chegou a esta conclusão e reflita explicitamente se há algum erro de raciocínio ou imprecisão de dados;
  • Quais dados e alternativas foram utilizados para chegar a esta conclusão? Não se esqueça de citar seu formato de apuração e fontes de informação.

Solicite uma explicação de abordagem antes da resposta final

No ato de enviar um questionamento ou comando ao chatbot, você pode, por exemplo, solicitar que ele explique qual será a abordagem utilizada para enviar a resposta de que você precisa.

Sem esse direcionamento, o Claude simplesmente executa a tarefa imediatamente. Na maior parte dos casos, o resultado acaba exigindo várias correções manuais depois. Já com esse tipo de prompt, a probabilidade de receber uma resposta mais organizada, coerente e bem elaborada aumenta bastante.

  • Antes de responder, descreva rapidamente qual estratégia você vai usar para resolver este problema. Em seguida, apresente a resposta de forma organizada e clara: [insira sua pergunta aqui].

*Fonte de informação: XDA Developers.

O post 5 prompts para obter respostas mais inteligentes no Claude, IA da Anthropic apareceu primeiro em Olhar Digital.

5 prompts para obter respostas mais inteligentes no Claude, IA da Anthropic Read More »

Claude ganha integração com Spotify e Uber; IA agora tem mais de 200 conectores

A Anthropic anunciou uma atualização significativa para o Claude nesta quinta-feira (23), expandindo o diretório de serviços conectados da inteligência artificial. Se antes o foco da ferramenta estava voltado para produtividade e ambiente corporativo, agora o chatbot passa a integrar aplicativos de estilo de vida, como Spotify, Uber, Uber Eats, TripAdvisor e Instacart.

Com a novidade, o Claude agora soma mais de 200 conectores ativos. A proposta é transformar a IA em um assistente pessoal capaz de executar tarefas complexas que exigem a comunicação entre diferentes plataformas, sem que o usuário precise sair da aba de conversa.

Integração vai além do ambiente de trabalho

Desde o lançamento de seus conectores em julho de 2025, a Anthropic observou que os usuários tendem a combinar várias ferramentas em um único fluxo de trabalho. Um exemplo comum no ambiente profissional é extrair dados de uma plataforma de análise, gerar uma apresentação no Canva e enviá-la diretamente para o Asana.

Agora, essa lógica de ecossistema chega à rotina pessoal. Entre os novos serviços integrados, destacam-se:

  • Viagens e lazer: Booking.com, TripAdvisor, Viator e AllTrails.
  • Finanças e serviços: Intuit TurboTax, Credit Karma, Taskrabbit e Thumbtack.
  • Consumo e entretenimento: Spotify, Audible, Uber, Uber Eats, Instacart e StubHub.

Na prática, isso significa que você pode pedir ao Claude para planejar uma trilha no AllTrails e, simultaneamente, solicitar que ele prepare uma playlist no Spotify com a duração exata do percurso, conforme detalhado pelo Engadget.

Como funcionam os novos conectores

A experiência de uso também foi reformulada para ser mais fluida. Em vez de exigir que o usuário instale ou alterne entre programas manualmente, o Claude agora sugere o conector apropriado de forma dinâmica durante a conversa.

Ao solicitar uma reserva em um restaurante, por exemplo, o ícone do Resy ou do OpenTable pode surgir diretamente na interface, baseando-se no contexto e nas preferências já estabelecidas no diálogo. Se houver mais de uma opção de serviço que possa atender ao pedido, a IA apresentará as alternativas para que o usuário escolha a de sua preferência.

Privacidade e controle do usuário

Um ponto de destaque reforçado pela Anthropic em seu comunicado oficial é a manutenção da política de privacidade. A empresa garante que os dados acessados por meio desses conectores não são utilizados para treinar os modelos de linguagem do Claude. Além disso, as plataformas conectadas não têm acesso ao histórico de outras conversas do usuário com o chatbot.

A IA também foi projetada com travas de segurança para transações financeiras:

  • Sem anúncios: o Claude permanece livre de anúncios e não aceita pagamentos por posicionamento de conectores.
  • Confirmação obrigatória: a IA não pode finalizar compras ou reservas de forma autônoma; ela é instruída a pedir autorização explícita do usuário antes de concluir qualquer ação que envolva pagamentos ou agendamentos.

Os novos conectores já estão disponíveis para usuários em todos os planos, com a versão para dispositivos móveis operando atualmente em fase beta. No entanto, a disponibilidade das integrações e funcionalidades mencionadas depende das operações regionais de cada serviço.

O post Claude ganha integração com Spotify e Uber; IA agora tem mais de 200 conectores apareceu primeiro em Olhar Digital.

Claude ganha integração com Spotify e Uber; IA agora tem mais de 200 conectores Read More »

claude pesquisa 2 1024x576

Medo de demissão e ganho de produtividade: pesquisa revela o que usuários pensam do Claude

O avanço da inteligência artificial no ambiente de trabalho tem gerado um cenário ambíguo: ao mesmo tempo em que amplia a produtividade, também intensifica o receio de substituição profissional. É o que aponta um levantamento feito pela Anthropic com cerca de 81 mil usuários do Claude, que buscou relacionar o uso da tecnologia com as percepções econômicas dos trabalhadores.

De acordo com o estudo, funções mais expostas à automação (especialmente aquelas em que a IA já executa parte relevante das tarefas) concentram os maiores níveis de preocupação. Esse sentimento é ainda mais forte entre profissionais em início de carreira, grupo que tende a enxergar maior risco de perda de espaço no mercado.

A relação entre exposição à tecnologia e insegurança aparece de forma consistente nos dados. À medida que cresce o uso da IA em determinadas atividades, também aumenta a percepção de ameaça. No geral, a cada avanço da IA no ambiente profissional, mais trabalhadores que acreditam que suas funções podem ser impactadas ou até substituídas.

Relatos individuais de usuários consultados pelo levantamento ajudam a ilustrar esse cenário. Um engenheiro de software afirmou: “Como qualquer pessoa que tenha um emprego de escritório hoje em dia, estou 100% preocupado, praticamente 24 horas por dia, 7 dias por semana, com a possibilidade de perder meu emprego para a IA”. Ao todo, cerca de 20% dos participantes demonstraram preocupação direta com o impacto econômico da tecnologia.

Apesar disso, os ganhos de produtividade também são reconhecidos. Em média, os entrevistados classificaram o impacto da IA como significativamente positivo nesse aspecto. Muitos relataram redução no tempo necessário para executar tarefas ou a possibilidade de realizar atividades antes fora de seu alcance. Em alguns casos, a tecnologia permitiu até a criação de novos negócios ou projetos paralelos.

Os benefícios, no entanto, não são distribuídos de maneira uniforme. Profissionais em cargos mais bem remunerados, como desenvolvedores e gestores, tendem a relatar maiores ganhos de eficiência. Ainda assim, trabalhadores de menor renda também indicaram avanços relevantes, especialmente ao utilizar IA para automatizar tarefas repetitivas ou explorar novas oportunidades.

Tipos de ganhos de produtividade no Claude: escopo maior de trabalho, mais trabalho (agilidade), mais qualidade e redução nos custos – Imagem: Anthropic

Um dos efeitos mais citados está relacionado à ampliação do escopo de trabalho. Quase metade dos usuários que mencionaram ganhos de produtividade destacou que passou a executar atividades que antes não dominava. Já outros enfatizaram o aumento de velocidade na realização de tarefas, como no caso de um profissional que afirmou conseguir concluir em minutos algo que antes levava horas.

Curiosamente, os maiores ganhos de eficiência também estão associados a níveis mais altos de preocupação. O estudo identificou que usuários que perceberam forte aceleração no trabalho tendem a enxergar maior risco para suas funções – possivelmente porque a própria redução do tempo necessário para realizar tarefas levanta dúvidas sobre a demanda futura por esses profissionais.

Levantamento realizado pela Anthropic sobre a percepação dos usuários com o Claude
Profissionais em início de carreira são os que mais temem serem substituídos pela IA – Imagem: Anthropic

Quem se beneficia dos avanços da IA?

A pesquisa também analisou quem se beneficia diretamente dessas melhorias. A maior parte dos participantes apontou ganhos pessoais, como mais tempo livre ou maior capacidade de produção. No entanto, uma parcela relatou aumento de exigências por parte de empregadores ou clientes, indicando que a tecnologia também pode intensificar o ritmo de trabalho.

Apesar das tendências identificadas, os próprios pesquisadores destacam limitações nos dados. A amostra é composta por usuários ativos do Claude, o que pode influenciar a percepção mais positiva sobre produtividade. Além disso, algumas informações (como ocupação e estágio da carreira) foram inferidas a partir das respostas, o que pode gerar imprecisões.

O post Medo de demissão e ganho de produtividade: pesquisa revela o que usuários pensam do Claude apareceu primeiro em Olhar Digital.

Medo de demissão e ganho de produtividade: pesquisa revela o que usuários pensam do Claude Read More »

amazon aws 1024x632

Amazon investe mais R$ 24,7 bi na Anthropic; startup vai gastar R$ 496 bi na AWS

A Anthropic anunciou, nesta segunda-feira (20), um novo investimento de US$ 5 bilhões (R$ 24,7 bilhões) advindos da Amazon, elevando seu aporte total na empresa de inteligência artificial (IA) para US$ 13 bilhões (R$ 64,4 bilhões).

Em contrapartida, a Anthropic se comprometeu a gastar mais de US$ 100 bilhões (R$ 495,3 bilhões) na Amazon Web Services (AWS) ao longo dos próximos dez anos.

O acordo garante à Anthropic acesso a até 5 GW de nova capacidade computacional para treinar e operar o Claude, seu assistente de IA. A estrutura ecoa um acordo similar que a Amazon fechou com a OpenAI há dois meses, quando participou de uma rodada de financiamento de US$ 110 bilhões (R$ 544,9 bilhões) contribuindo com US$ 50 bilhões (R$ 247,6 bilhões).

“O compromisso da Anthropic em executar seus grandes modelos de linguagem no AWS Trainium pela próxima década reflete o progresso que fizemos juntos em silício personalizado, enquanto continuamos a fornecer a tecnologia e a infraestrutura que nossos clientes precisam para construir com IA generativa”, afirmou o CEO da AMazon, Andy Jassy, em comunicado.

Esse investimento inclui, além dos US$ 5 bilhões agora, até US$ 20 bilhões (R$ 99 bilhões) futuros vinculados a “certos marcos comerciais”, segundo o comunicado.

Chips personalizados da Amazon estão em destaque

  • No centro do acordo estão os chips personalizados da Amazon: o Graviton, um processador de baixo consumo, e o Trainium, chip acelerador de IA que compete com a Nvidia;
  • O contrato da Anthropic cobre especificamente os chips Trainium2 até Trainium4, mesmo que o Trainium4 ainda não esteja disponível;
  • O chip mais recente, o Trainium3, foi lançado em dezembro;
  • Além disso, a Anthropic garantiu a opção de adquirir capacidade em futuros chips da Amazon conforme se tornarem disponíveis.

O anúncio pode sinalizar uma futura rodada de financiamento para a Anthropic. Investidores de capital de risco têm oferecido capital à empresa em negócios que a avaliariam em US$ 800 bilhões (R$ 3,9 trilhões) ou mais, segundo reportes do mercado.

Em fevereiro, a Amazon disse que quer investir cerca de US$ 200 bilhões (R$ 990,8 bilhões) em 2026 em despesas de capital, especialmente em infraestrutura de IA.

Como contrapartida, a Anthropic confirmou que vai gastar quase R$ 500 bi na AWS – gguy/Shutterstock

Leia mais:

Pressões

Além disso, a Anthropic afirmou, ainda nesta segunda, que a demanda corporativa e de desenvolvedores pelo Claude, bem como um “aumento acentuado” no uso pelos consumidores, levou à “premissão inevitável” em sua estrutura, impactando confiabilidade e desempenho.

A empresa de Dario Amodei disse também que esse novo acordo firmado com a Amazon expandirá rapidamente sua capacidade disponível.

“Nossos usuários nos dizem que o Claude é cada vez mais essencial para a forma como trabalham, e precisamos construir a infraestrutura para acompanhar a crescente demanda”, disse Amodei, CEO da Anthropic, no comunicado. “Nossa colaboração com a Amazon nos permitirá continuar avançando na pesquisa em IA, ao mesmo tempo em que disponibilizamos o Claude para nossos clientes, incluindo os mais de 100 mil que o utilizam na AWS.”

O post Amazon investe mais R$ 24,7 bi na Anthropic; startup vai gastar R$ 496 bi na AWS apareceu primeiro em Olhar Digital.

Amazon investe mais R$ 24,7 bi na Anthropic; startup vai gastar R$ 496 bi na AWS Read More »

claude design 1024x574

Anthropic lança Claude Design para criação visual com IA

A Anthropic anunciou nesta sexta-feira (17) o lançamento do Claude Design, um novo produto experimental que permite criar visuais como protótipos, apresentações e one-pagers a partir de comandos em linguagem natural. A ferramenta foi apresentada pela empresa como uma forma de facilitar a criação de materiais visuais tanto para designers quanto para profissionais sem experiência na área.

Com o Claude Design, o usuário descreve o que deseja e recebe uma versão inicial do projeto. A partir daí, é possível refinar o resultado por meio de conversas, comentários em elementos específicos, edições diretas e ajustes finos em aspectos como layout, cores e tipografia.

Complemento ao Canva, não concorrente

Apesar de lembrar plataformas como o Canva, que também vêm incorporando recursos de inteligência artificial, a Anthropic afirmou anteriormente que o Claude Design foi pensado para complementar esse tipo de ferramenta, e não substituí-la.

Os projetos criados podem ser exportados em diferentes formatos, como PDF, PPTX, URLs internas ou HTML, além da possibilidade de envio direto ao Canva. Segundo a empresa, os arquivos permanecem editáveis e podem ser trabalhados de forma colaborativa após a exportação.

Sistema de design e colaboração

Um dos recursos centrais do Claude Design é a aplicação automática do sistema de design de uma empresa. Durante a configuração inicial, a ferramenta pode analisar código e arquivos de design para definir padrões de cores, tipografia e componentes, que passam a ser utilizados em todos os projetos.

As equipes também podem manter mais de um sistema de design e ajustá-los ao longo do tempo. Além disso, o produto inclui recursos de colaboração, permitindo compartilhar projetos dentro da organização, com diferentes níveis de acesso, e editar conteúdos em conjunto.

Entre os usos citados pela Anthropic estão a criação de protótipos interativos, wireframes, apresentações, materiais de marketing e páginas visuais, além da possibilidade de desenvolver projetos com recursos como vídeo, áudio e elementos em 3D.

Anthropic anunciou o lançamento do Claude Design – Imagem: Divulgação / Anthropic

Expansão no mercado corporativo

O Claude Design é alimentado pelo modelo Claude Opus 4.7 e está disponível em versão de pré-visualização para assinantes dos planos Claude Pro, Max, Team e Enterprise, com liberação gradual.

O lançamento reforça a estratégia da Anthropic de ampliar sua atuação em ferramentas voltadas ao ambiente corporativo e a usuários avançados, em um cenário de maior competição no setor.

Em janeiro, a empresa apresentou o Claude Cowork, um assistente voltado a tarefas mais complexas. Semanas depois, adicionou plug-ins com foco em automatizar atividades específicas em diferentes áreas dentro das organizações.

O anúncio também ocorre poucos dias após a Bloomberg informar que investidores ofereceram uma rodada de financiamento que avaliaria a Anthropic em US$ 800 bilhões ou mais. Segundo o relatório, a empresa não demonstrou interesse nas propostas até o momento.

O post Anthropic lança Claude Design para criação visual com IA apareceu primeiro em Olhar Digital.

Anthropic lança Claude Design para criação visual com IA Read More »

claude 1024x682

Anthropic testa verificação de identidade no Claude

A Anthropic começou a implementar verificação de identidade no Claude para “alguns casos de uso específicos”. A empresa não detalhou quais situações exigirão o procedimento, mas informou que os usuários podem se deparar com a solicitação ao tentar acessar determinadas funcionalidades.

De acordo com a companhia, o processo inclui o envio de um documento oficial com foto emitido pelo governo e a captura de uma selfie, que será comparada ao documento apresentado.

Claude terá recurso de verificação de idade em casos específicos – Imagem: Ascannio/Shutterstock

Críticas dos usuários

A medida gerou reação negativa entre parte dos usuários. Muitos questionam a necessidade de verificação de identidade para utilizar um chatbot de IA, especialmente no caso de assinantes pagos que já possuem dados de cartão de crédito cadastrados.

As críticas também envolvem a escolha da Persona como parceira para o processo. A empresa também fornece serviços de verificação de idade para outras plataformas, como OpenAI e Roblox. Entre seus investidores está a Founders Fund, cofundada por Peter Thiel, que também é cofundador e presidente da Palantir.

Preocupações com privacidade

A Palantir tem como principais clientes agências federais e órgãos governamentais dos Estados Unidos, incluindo FBI, CIA e o serviço de imigração (ICE). As críticas à empresa costumam se concentrar no uso de suas tecnologias, como reconhecimento facial e inteligência artificial, em iniciativas de vigilância.

No comunicado, a Anthropic afirmou que a Persona será responsável por processar os documentos e selfies, sem copiar ou armazenar essas imagens. A empresa também destacou que a parceira possui limitações contratuais sobre o uso dos dados, e que todas as informações são criptografadas em trânsito e em repouso.

A Anthropic reforçou ainda que não utilizará os dados de identidade para treinar seus modelos nem compartilhará essas informações com terceiros.

Em atualização divulgada em 16 de abril de 2026, a empresa informou que a verificação se aplica a um número limitado de casos, relacionados a atividades que possam indicar comportamento fraudulento ou abusivo, em violação às suas políticas de uso.

O post Anthropic testa verificação de identidade no Claude apareceu primeiro em Olhar Digital.

Anthropic testa verificação de identidade no Claude Read More »

claude 4 7 benchmark 1009x1024

Anthropic lança Claude Opus 4.7 para o público e prepara terreno para o poderoso Mythos

A Anthropic anunciou nesta quinta-feira (16) o lançamento global do Claude Opus 4.7. O novo modelo de inteligência artificial chega como uma atualização direta do Opus 4.6, apresentando saltos significativos em programação autônoma (agêntica), raciocínio multidisciplinar e capacidades visuais. No entanto, em um movimento incomum na indústria, a empresa admitiu que o modelo foi “treinado para ser menos capaz” em certas áreas sensíveis do que sua versão experimental mais potente, o Claude Mythos Preview.

Codificação e “Trabalho de Mundo Real”

De acordo com dados divulgados pela Anthropic, o Claude Opus 4.7 estabeleceu novos marcos em benchmarks de produtividade. No SWE-bench Pro, que avalia a capacidade da IA de resolver problemas reais de engenharia de software, o modelo atingiu 64,3% de aproveitamento, superando os 53,4% da versão anterior e os 57,7% do GPT-5.4 da OpenAI.

Os principais avanços técnicos incluem:

  • Seguimento de instruções: o modelo é muito mais literal. A empresa alerta que prompts antigos podem precisar de ajustes, já que a IA agora segue as ordens à risca em vez de interpretá-las livremente.
  • Níveis de esforço: foi introduzido o nível “xhigh” (extra alto), permitindo que desenvolvedores controlem melhor o equilíbrio entre a profundidade do raciocínio e a latência da resposta.
  • Visão de alta resolução: o Opus 4.7 agora suporta imagens de até 3,75 megapixels (2.576 pixels no lado maior), um aumento de três vezes em relação aos modelos anteriores, facilitando a análise de diagramas complexos e capturas de tela densas.

A estratégia do “freio de mão” cibernético

O lançamento do Opus 4.7 ocorre em um momento de intensa disputa narrativa sobre a segurança da IA. Enquanto o Claude Mythos Preview (modelo mais poderoso da casa) permanece restrito a um grupo seleto de empresas no programa Project Glasswing, o Opus 4.7 foi lançado com salvaguardas que detectam e bloqueiam automaticamente solicitações de alto risco cibernético.

A Anthropic afirmou que experimentou reduzir diferencialmente as capacidades cibernéticas do modelo durante o treinamento. A ideia é aprender com o uso do Opus 4.7 no mundo real para, no futuro, liberar modelos da classe “Mythos” com segurança comprovada.

Para profissionais de segurança que precisam realizar testes de intrusão legítimos ou pesquisas de vulnerabilidades, a empresa criou o Cyber Verification Program, um processo de triagem para liberar essas funções específicas.

Anthropic vs. OpenAI: abordagens opostas

O posicionamento da Anthropic marca um contraste direto com a estratégia da OpenAI. Conforme noticiado pelo Olhar Digital, o recém-lançado GPT-5.4-Cyber seguiu um caminho mais “permissivo”, focando em democratizar o acesso de defensores a ferramentas de análise binária e engenharia reversa.

Enquanto a OpenAI aposta que dar ferramentas potentes aos “mocinhos” é a melhor defesa, a Anthropic prefere manter suas IAs mais ofensivas sob chaves rigorosas. Em comunicado oficial, a Anthropic reforçou que o Opus 4.7 é seu modelo mais capaz disponível para o público geral, mas que o Mythos Preview ainda detém a coroa de melhor alinhamento e segurança em seus testes internos.

Disponibilidade e preço

O Claude Opus 4.7 já está disponível para usuários do Claude (web e app), além de desenvolvedores via API. O modelo também foi integrado às plataformas de nuvem Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry.

O preço permanece o mesmo praticado na versão 4.6: US$ 5 por milhão de tokens de entrada e US$ 25 por milhão de tokens de saída, conforme apurado pela CNBC.

Claude Opus 4.7: benchmark

Os números divulgados pela Anthropic mostram o Claude Opus 4.7 superando rivais como o GPT-5.4 e o Gemini 3.1 Pro em categorias críticas de programação e raciocínio avançado:

O post Anthropic lança Claude Opus 4.7 para o público e prepara terreno para o poderoso Mythos apareceu primeiro em Olhar Digital.

Anthropic lança Claude Opus 4.7 para o público e prepara terreno para o poderoso Mythos Read More »