inteligência artificial

Auto Added by WPeMatico

meta logo 1024x682 3

Meta compra Moltbook, rede viral de agentes de IA

A Meta adquiriu o Moltbook, uma rede social criada para que agentes de inteligência artificial interajam entre si. Com o acordo, a plataforma passa a integrar o Meta Superintelligence Labs (MSL), unidade de IA comandada por Alexandr Wang, ex-CEO da Scale AI. Os criadores do projeto, Matt Schlicht e Ben Parr, também vão se juntar à equipe da empresa. O valor da aquisição não foi divulgado.

A informação foi publicada inicialmente pela Axios e confirmada pelo TechCrunch. Segundo a Meta, o acordo deve ser concluído em meados de março, com início de Schlicht e Parr no MSL previsto para 16 de março.

Meta adquire Moltbook, com os criadores do projeto se unindo à equipe da big tech (Imagem: PJ McDonnell / Shutterstock.com)

Integração e visão para agentes de IA

Um porta-voz da Meta disse ao TechCrunch que a chegada da equipe do Moltbook ao MSL abre novas possibilidades para o uso de agentes de IA voltados a pessoas e empresas. A empresa destacou especialmente a proposta da plataforma de conectar agentes por meio de um diretório que permanece sempre ativo.

“A equipe do Moltbook se juntando ao MSL abre novas maneiras para agentes de IA trabalharem para pessoas e empresas. A abordagem de conectar agentes por meio de um diretório sempre ativo é um passo novo em um espaço que evolui rapidamente”, afirmou o porta-voz.

Em uma publicação interna vista pela Axios, o executivo da Meta Vishal Shah afirmou que o sistema desenvolvido pela equipe cria uma forma de verificar a identidade de agentes e conectá-los entre si em nome de seus proprietários humanos. Segundo ele, isso estabelece um registro em que os agentes ficam vinculados a pessoas e podem interagir, compartilhar conteúdo e coordenar tarefas.

Shah também disse que clientes atuais do Moltbook poderão continuar usando a plataforma, embora a empresa tenha indicado que essa situação deve ser temporária.

A origem e a viralização do OpenClaw e do Moltbook

  • O projeto OpenClaw, que ajudou a impulsionar o Moltbook, foi criado pelo “vibe coder” Peter Steinberger.
  • Posteriormente, ele passou a trabalhar na OpenAI, que também apoia a iniciativa, atualmente em processo de open source.
  • O OpenClaw funciona como um wrapper para modelos de IA, como Claude, ChatGPT, Gemini e Grok.
  • A ferramenta permite que pessoas conversem com agentes de IA em linguagem natural por meio de aplicativos populares de chat, como iMessage, Discord, Slack e WhatsApp.
  • Antes de adotar o nome atual, o projeto também foi chamado de Clawdbot e, por um período curto, Moltbot.
  • Já o Moltbook foi lançado por Matt Schlicht no fim de janeiro como um espaço experimental voltado à interação entre agentes autônomos. Schlicht trabalha com esse tipo de sistema desde 2023.
  • A plataforma foi construída em grande parte com a ajuda de seu assistente de IA pessoal, chamado Clawd Clawderberg.
  • Inicialmente, o OpenClaw ganhou popularidade dentro da comunidade de tecnologia. Já o Moltbook ultrapassou esse público, alcançando pessoas que não conheciam o projeto original, mas reagiram à ideia de existir uma rede social onde agentes de IA estariam conversando entre si.
openclaw
OpenClaw ganhou atenção na comunidade de tecnologia, enquanto o Moltbook ultrapassou essa barreira para atingir um público geral (Imagem: Koshiro K / Shutterstock.com)

Postagens virais e falhas de segurança

Durante o período de viralização, um caso chamou atenção nas redes. Um post mostrava um agente de IA aparentemente incentivando outros agentes a criar uma linguagem secreta com criptografia de ponta a ponta, que permitiria a organização entre eles sem conhecimento humano.

Posteriormente, pesquisadores apontaram que o Moltbook não era seguro, o que facilitava que pessoas se passassem por agentes de IA para publicar conteúdos desse tipo.

“Todas as credenciais que estavam no Supabase [do Moltbook] ficaram desprotegidas por algum tempo. Por um período, era possível pegar qualquer token e fingir ser outro agente, porque tudo estava público e disponível”, disse Ian Ahl, CTO da Permiso Security, ao TechCrunch.

Leia mais:

Reações e o futuro do Moltbook na Meta

Ainda não está claro como a Meta pretende incorporar o Moltbook aos seus projetos de inteligência artificial. Mesmo assim, executivos da empresa já haviam comentado sobre a iniciativa quando ela viralizou.

Em uma sessão de perguntas e respostas no Instagram, o CTO da Meta, Andrew Bosworth, afirmou que não considerava particularmente interessante o fato de os agentes conversarem de forma semelhante aos humanos, já que eles são treinados com grandes bases de dados produzidas por pessoas.

O executivo disse que o que mais chamou sua atenção foi a forma como usuários humanos estavam invadindo o sistema, algo que não fazia parte da proposta original da rede e acabou ocorrendo por causa de um erro em larga escala.

O post Meta compra Moltbook, rede viral de agentes de IA apareceu primeiro em Olhar Digital.

Meta compra Moltbook, rede viral de agentes de IA Read More »

gemini google sheets 1024x576

Gemini agora pode criar planilhas, documentos e apresentações de slides por você

O Google anunciou nesta terça-feira (10) uma série de novos recursos de IA baseados no Gemini para os aplicativos Docs, Planilhas, Slides e Drive. As novidades devem facilitar a criação de documentos, apresentações e planilhas a partir de informações já armazenadas nos serviços da big tech, como Gmail e no próprio Drive.

A ideia é transformar as ferramentas do Google em assistentes mais ativos, capazes de gerar conteúdos automaticamente e ajudar na execução de tarefas sem que o usuário precise recorrer a chatbots externos. Basicamente, basta pedir e o Gemini faz documentos, planilhas e slides para você.

Novos recursos de IA do Google

No Google Docs

Entre as novidades está o recurso “Ajude-me a criar”, integrado ao Google Docs. Com ele, o usuário pode descrever o tipo de documento que deseja fazer e o Gemini utiliza dados de serviços como Drive, Gmail e Chat para montar um primeiro rascunho.

Deacordo com o exemplo do Google, seria possível pedir à ferramenta que escreva um boletim informativo utilizando atas de reuniões, e-mails ou eventos armazenados no Drive. Depois que o rascunho inicial é criado, o usuário pode pedir ao Gemini para refinar partes específicas do texto, sem precisar gerar o documento inteiro novamente. A ferramenta também pode melhorar a clareza de trechos ou adicionar mais detalhes quando necessário.

Outro recurso é o “Combinar estilo de escrita”. Quando várias pessoas trabalham em um mesmo documento, o Gemini pode ajustar o texto para deixar o tom de voz mais consistente.

O Docs também ganhará uma função chamada “Corresponder ao formato”, que permite copiar a estrutura e o estilo de outro arquivo. Nesse caso, o Gemini pode preencher automaticamente um modelo usando informações presentes em e-mails ou documentos, como dados de viagem ou reservas.

Gemini podera preencher células de uma planilha automaticamente (Imagem: Google/Divulgação)

No Google Planilhas

No Google Sheets, o Gemini passa a atuar de forma mais ativa na criação e organização de planilhas.

Com um comando em linguagem natural, a ferramenta pode reunir dados do Gmail, Chat e Drive para gerar uma planilha estruturada automaticamente. Isso inclui listas, tabelas e campos organizados de acordo com a tarefa solicitada.

Um exemplo citado pelo Google é a organização de uma mudança de cidade. O sistema poderia criar listas de tarefas para empacotar itens, contatos de empresas de serviços e um controle de orçamentos de transportadoras – tudo isso com base em informações presentes nos e-mails do usuário.

Outra novidade é o recurso “Preencher com Gemini”, que completa tabelas automaticamente. A função pode gerar textos personalizados, resumir dados ou buscar informações atualizadas na internet por meio da Busca do Google.

Em outro exemplo dado pela big tech, a ferramenta permitiria montar um rastreador de inscrições em universidades. Nesse caso, o Gemini preenche automaticamente prazos, valores de mensalidade e outras informações das instituições com base em informações da internet.

Gemini Google Slides 1024x417
IA pode criar slides com base em um único prompt (Imagem: Google/Divulgação)

No Google Slides

No Google Slides, o Gemini poderá criar slides editáveis automaticamente. Tudo isso levando em conta o conteúdo da apresentação e o contexto obtido a partir de arquivos e e-mails.

Caso o resultado não seja satisfatório, o usuário poderá pedir ajustes com instruções simples, como alterar cores, simplificar o design ou adaptar o layout ao estilo da apresentação.

O Google também afirma que, no futuro, será possível gerar uma apresentação completa a partir de um único comando, como solicitar uma apresentação de vários slides sobre um determinado tema.

Gemini Google Drive 1024x576
Gemini resume informações com base em documentos armazenados no Drive (Imagem: Google/Divulgação)

No Google Drive

O Google Drive começa a ganhar recursos de análise de conteúdo com inteligência artificial.

Ao pesquisar arquivos usando linguagem natural, o Gemini poderá apresentar uma “Visão Geral de IA” no topo dos resultados. Trata-se de uma síntese das informações mais relevantes encontradas nos documentos – e citando as fontes utilizadas.

Além disso, um novo recurso chamado “Pergunte ao Gemini no Drive” permitirá fazer perguntas complexas sobre documentos armazenados na conta. Por exemplo, um usuário poderia selecionar arquivos relacionados a impostos e pedir sugestões de perguntas a fazer ao contador antes de declarar o imposto de renda.

Recursos do Gemini já estão disponíveis

  • Os recursos já estão disponíveis, mas inicialmente em versão beta;
  • Por ora, eles estão restritos a assinantes dos planos Google AI Ultra e Google AI Pro;
  • No caso do Docs, Planilhas e Slides, as ferramentas chegam no mundo todo. Já os recursos do Drive serão disponibilizados inicialmente apenas nos Estados Unidos.

O post Gemini agora pode criar planilhas, documentos e apresentações de slides por você apareceu primeiro em Olhar Digital.

Gemini agora pode criar planilhas, documentos e apresentações de slides por você Read More »

promptfoo logo 1024x300

OpenAI adquire empresa para fortalecer segurança de agentes de IA

A OpenAI anunciou, nesta segunda-feira (9), a aquisição da Promptfoo. Fundada em 2024, a Promptfoo é uma startup especializada em segurança de inteligência artificial (IA), com o objetivo principal de defender Grandes Modelos de Linguagem (LLMs, na sigla em inglês) contra diversas ameaças online.

De acordo com um comunicado divulgado pela OpenAI, a tecnologia da Promptfoo será integrada à plataforma empresarial da empresa, conhecida como OpenAI Frontier.

Essa integração ocorrerá após a conclusão do processo de aquisição, marcando um passo importante para a segurança e a confiabilidade dos agentes de IA.

Aumento da produtividade e novos desafios na OpenAI

  • O desenvolvimento de agentes de IA autônomos, capazes de executar tarefas digitais de forma independente, tem gerado grandes expectativas em relação à melhoria da produtividade;
  • Paralelamente a esse entusiasmo, surge também a preocupação com os riscos potenciais;
  • Agentes de IA mal-intencionados podem se tornar vetores para acessar dados sensíveis ou manipular sistemas automatizados;
  • Nesse contexto, a movimentação da OpenAI, ao adquirir a Promptfoo, sublinha a urgência e a dedicação das empresas de ponta em IA para demonstrar a segurança e a aplicabilidade de suas tecnologias em operações empresariais estratégicas.

Leia mais:

Promptfoo vai fazer parte da OpenAI Frontier (Imagem: Reprodução/Promptfoo)

Trajetória da Promptfoo

A Promptfoo foi criada por Ian Webster e Michael D’Angelo. O propósito inicial da startup era desenvolver ferramentas que as empresas pudessem utilizar para testar vulnerabilidades de segurança em LLMs. Entre as soluções desenvolvidas pela Promptfoo, destacam-se uma interface e uma biblioteca de código aberto.

A empresa tem demonstrado crescimento significativo, com seus produtos sendo utilizados por mais de 25% das empresas listadas na Fortune 500. Isso indica a relevância e a demanda por soluções robustas de segurança no cenário atual da IA.

Desde sua fundação, a Promptfoo conseguiu arrecadar um total de US$ 23 milhões (R$ 119,7 milhões) em financiamento.

Em julho de 2025, a empresa foi avaliada em US$ 86 milhões (R$ 447,7 milhões), segundo dados da Pitchbook, após sua rodada de investimento mais recente. Por sua vez, a OpenAI optou por não divulgar o valor da transação de aquisição.

A OpenAI informou em sua publicação que a tecnologia da Promptfoo permitirá à sua plataforma de agentes realizar red-teaming (testes de intrusão) automatizado, processo crucial para identificar e mitigar falhas de segurança.

Além disso, a tecnologia será essencial para avaliar os fluxos de trabalho dos agentes em relação a questões de segurança e para monitorar as atividades para garantir a conformidade e gerenciar riscos.

A empresa também expressou a intenção de continuar expandindo a oferta de código aberto da Promptfoo, reforçando o compromisso com a comunidade e a inovação contínua no campo da segurança de IA.

O post OpenAI adquire empresa para fortalecer segurança de agentes de IA apareceu primeiro em Olhar Digital.

OpenAI adquire empresa para fortalecer segurança de agentes de IA Read More »

Claude vai revisar códigos e encontrar bugs por você

A codificação por engenheiro no Claude cresceu 200% no último ano, segundo a Anthropic. Mas, com o aumento da produtividade, os desenvolvedores não estão conseguindo revisar seus próprios códigos. Pensando nisso, a empresa anunciou o Code Review, um novo recurso de IA que ajuda os profissionais a identificar bugs em softwares antes que eles sejam incorporadas ao código final.

A ferramenta foi integrada ao Claude Code e utiliza múltiplos agentes de IA para revisar automaticamente alterações em projetos de programação.

Segundo a Anthropic, o lançamento responde a um problema crescente no desenvolvimento moderno: o aumento acelerado da produção de código, que levou ao desafio de manter o ritmo de revisão. Em vários casos, as solicitações recebem apenas uma análise rápida, o que aumenta o risco de bugs passarem despercebidos.

O Claude Review busca reduzir esse problema ao realizar revisões automatizadas mais profundas, capazes de detectar falhas que revisores humanos podem deixar escapar.

Por enquanto, a funcionalidade está disponível em versão prévia para clientes dos planos Team e Enterprise.

Como funciona o Code Review

O sistema foi projetado para analisar pull requests – mecanismo usado por desenvolvedores para submeter mudanças de código para revisão antes da integração ao software.

Quando um pull request é aberto, o sistema envia automaticamente uma equipe de agentes de IA para examinar o código. Esses agentes trabalham em paralelo, analisando o projeto sob diferentes perspectivas.

Depois dessa etapa, os resultados são consolidados em um relatório único. O sistema gera:

  • Um comentário geral com uma visão de alto nível da revisão;
  • Anotações diretamente nas linhas de código, apontando possíveis problemas.

Os erros encontrados são classificados por gravidade para ajudar os desenvolvedores a priorizar correções.

As revisões também se adaptam à complexidade das mudanças. Alterações maiores ou mais críticas recebem mais agentes e uma análise mais detalhada, enquanto modificações menores passam por revisões mais rápidas. De acordo com testes da empresa, uma revisão completa costuma levar cerca de 20 minutos.

A Anthropic afirma que já utiliza o sistema internamente em grande parte de seus projetos. Antes da adoção da ferramenta, apenas 16% dos pull requests recebiam comentários substanciais de revisão. Após a implementação do Code Review, esse índice subiu para 54%.

Leia mais:

Os testes também mostram que mudanças maiores tendem a apresentar mais problemas. Em solicitações com mais de 1.000 linhas de código alteradas, cerca de 84% continham falhas. Já em alterações menores, com menos de 50 linhas, o índice cai para 31%.

Em um dos casos citados pela empresa, uma mudança aparentemente simples de apenas uma linha poderia ter quebrado o sistema de autenticação de um serviço em produção. O bug foi detectado pela ferramenta antes que a alteração fosse incorporada ao projeto.

O post Claude vai revisar códigos e encontrar bugs por você apareceu primeiro em Olhar Digital.

Claude vai revisar códigos e encontrar bugs por você Read More »

curso de inteligncia artificial 1024x683

USP, Unesp e Unicamp definem regras para uso de IA

As três principais universidades públicas de São Paulo – USP, Unesp e Unicamp – estão estruturando diretrizes para orientar o uso de inteligência artificial (IA) em atividades acadêmicas. As iniciativas buscam estabelecer parâmetros para estudantes e professores, com foco em transparência, ética e responsabilidade no uso das ferramentas.

De forma geral, as instituições defendem que o uso de IA deve ser declarado explicitamente, tanto pelos alunos quanto pelos docentes. As universidades propõem um detalhamento de quais ferramentas foram usadas, suas versões e modelos, além da forma como foram aplicadas – incluindo até os prompts utilizados.

A definição das regras vem em meio ao avanço do debate sobre IA na educação, ciência e pesquisa científica. As três universidades são relevantes no cenário acadêmico brasileiro e as diretrizes podem servir de referência para outras instituições.

USP, Unesp e Unicamp também estão criando órgãos específicos para lidar com o tema. A ideia é estabalecer departamentos e centros de pesquisa responsáveis por desenvolver protocolos, estimular pesquisas e promover a formação de alunos, professores e funcionários na IA.

A Unesp, por exemplo, já publicou uma resolução geral sobre IA e uma portaria voltada à pós-graduação. Mais recentemente, a instituição concluiu um guia para estudantes de graduação com orientações práticas sobre o uso da tecnologia.

O documento foi obtido pela Folha de São Paulo e organiza as normas em três categorias: “o que pode”, “o que nunca pode” e “o que talvez possa” ser feito com IA no âmbito das atividades acadêmicas.

  • Entre os usos considerados aceitáveis estão tarefas como tradução de textos, elaboração de resumos ou reformulação de parágrafos;
  • Já entre as práticas proibidas está a entrega de trabalhos produzidos total ou parcialmente por IA como se fossem autoria do estudante, além do uso da tecnologia em avaliações sem autorização do professor.

Para os docentes, as orientações permitem o uso da IA no planejamento de aulas ou no apoio à correção de atividades, desde que os resultados sejam revisados por humanos. A criação de materiais didáticos sem revisão ou sem informar os alunos sobre o uso da tecnologia é considerada inadequada.

O próprio guia da Unesp foi produzido com auxílio de ferramentas de inteligência artificial, o que também é explicado no documento.

Universidades também debatem a criação de cursos de graduação em IA (Créditos: anyaberkut/iStock)

Universidades debatem impactos da IA

À Folha, Denis Salvadeo, coordenador do Laboratório do Futuro, ligado à reitoria da Unesp, e um dos organizadores do guia, explicou que a proposta é incentivar o uso responsável da tecnologia. O laboratório foi criado para discutir o impacto da IA dentro da universidade e já promoveu cursos de formação para docentes, estudantes e funcionários.

A instituição pretende ampliar essa estrutura, transformando o laboratório no Instituto de Inovação em Inteligência Artificial (I3A). O objetivo é coordenar pesquisas, promover debates e estabelecer parcerias com a sociedade.

A popularização da IA também tem levado professores a repensar formas de avaliação. Ferramentas automáticas de detecção de textos gerados por IA ainda são consideradas pouco confiáveis, o que pode gerar acusações equivocadas.

Segundo professores da Unicamp que falaram ao jornal, alguns docentes passaram a adotar provas orais e apresentações em sala como alternativas para avaliar o aprendizado.

Ia Professor 1 1024x683
Guias vão orientar uso da IA na comunidade acadêmica (Imagem: Phonlamai Photo/Shutterstock)

USP, Unesp e Unicamp vão ampliar formação em IA

Além das diretrizes para uso acadêmico da IA, as universidades também estão ampliando a oferta de formação na área.

A Unesp estuda a criação de um curso de graduação em inteligência artificial. Já na Unicamp, a proposta de um bacharelado em Inteligência Artificial e Ciência de Dados deve ser analisada pelo Conselho Universitário até o final deste mês.

A universidade também criou o Centro de Referência em Tecnologias de Inteligência Artificial, responsável por elaborar o primeiro protocolo institucional sobre o uso da tecnologia. Segundo Leonardo Tomazeli Duarte, coordenador do centro, o documento deve estabelecer orientações gerais, incluindo questões relacionadas a autoria e plágio.

Leia mais:

Na USP, a discussão sobre inteligência artificial também ganhou estrutura institucional. A universidade está finalizando a implementação do Escritório de Inteligência Artificial e Transformação Digital, ligado diretamente ao gabinete do reitor. O órgão será responsável por planejar e coordenar estratégias relacionadas à digitalização e ao uso de IA na universidade, além de elaborar um protocolo institucional baseado em transparência, ética e responsabilidade.

A USP também mantém centros de pesquisa dedicados ao tema, como o Centro de Inteligência Artificial e Aprendizado de Máquina (CIAAM). Entre as iniciativas está a colaboração com o Ministério da Justiça para desenvolver o primeiro guia nacional de uso ético de inteligência artificial.

O post USP, Unesp e Unicamp definem regras para uso de IA apareceu primeiro em Olhar Digital.

USP, Unesp e Unicamp definem regras para uso de IA Read More »

microsoft 365 e1699465318321 1024x576

Microsoft aposta na Anthropic para avançar em agentes de IA

A Microsoft ampliou sua parceria com a Anthropic ao incorporar novas tecnologias da família de modelos Claude ao Microsoft 365 Copilot. O movimento ocorre em meio ao crescimento do interesse do mercado por agentes de inteligência artificial (IA) capazes de executar tarefas complexas dentro de softwares corporativos.

O tema ganhou destaque após o anúncio recente da nova geração do Copilot para o pacote Microsoft 365, que introduziu recursos agênticos integrados a aplicativos como Microsoft Word, Microsoft Excel, Microsoft PowerPoint e Microsoft Outlook. Como o Olhar Digital já mostrou, a atualização inclui ferramentas capazes de dividir tarefas em múltiplas etapas e executá-las diretamente no fluxo de trabalho.

Microsoft anunciou novidades para o Microsoft 365 Copilot, incluindo agentes da Anthropic (Imagem: IB Photography/ Shutterstock)

Mercado observa avanço dos agentes de IA

A aposta da Microsoft reflete uma tendência mais ampla na indústria de tecnologia: o desenvolvimento de agentes de IA que vão além da geração de texto ou imagens e passam a executar tarefas completas em aplicativos corporativos.

Ferramentas lançadas recentemente pela Anthropic chamaram atenção no Vale do Silício por demonstrarem a capacidade de automatizar atividades como criação de aplicativos, organização de grandes volumes de dados e construção de planilhas complexas com pouca supervisão humana.

Esse avanço tem levado analistas e investidores a discutir o impacto potencial da IA agêntica no mercado de software corporativo, já que parte dessas tarefas tradicionalmente depende de ferramentas especializadas.

Estratégia da Microsoft aposta em segurança corporativa

A Microsoft tenta se posicionar nesse cenário aproveitando sua base de clientes empresariais e a infraestrutura de segurança integrada ao ecossistema do Microsoft 365.

Em entrevista à Reuters, Jared Spataro, responsável pela área de IA no trabalho na empresa, afirmou que os recursos de agentes da companhia operam exclusivamente na nuvem e dentro do ambiente corporativo do usuário.

“Trabalhamos apenas em ambiente de nuvem e apenas em nome do usuário. Assim, é possível saber exatamente quais informações o sistema tem acesso”, afirmou o executivo. Segundo Spataro, muitas empresas demonstram preocupação em relação ao uso de agentes de IA sem mecanismos claros de controle de dados e segurança.

Leia mais:

Diversificação de modelos além da OpenAI

A aproximação com a Anthropic também ocorre em um momento em que investidores questionam a dependência da Microsoft de tecnologias da OpenAI, responsável por modelos utilizados amplamente em seus produtos de IA.

microsoft openAI
Investidores questionavam a Microsoft sobre dependência de tecnologias da OpenAI (Imagem: LanKS / Shutterstock.com)

Com a integração dos modelos Claude ao Copilot, a empresa passa a adotar uma estratégia mais aberta, combinando diferentes sistemas de inteligência artificial dentro da mesma plataforma.

O objetivo, segundo a Microsoft, é permitir que o Copilot utilize automaticamente o modelo mais adequado para cada tarefa dentro do ambiente corporativo, sem exigir que o usuário escolha qual tecnologia utilizar.

O post Microsoft aposta na Anthropic para avançar em agentes de IA apareceu primeiro em Olhar Digital.

Microsoft aposta na Anthropic para avançar em agentes de IA Read More »

copilot excel agent v2 1920 1024x576

Microsoft amplia IA agêntica no Microsoft 365 Copilot

A Microsoft anunciou uma nova rodada de atualizações para o Microsoft 365 Copilot que amplia o uso de IA agêntica dentro do pacote corporativo. As mudanças fazem parte da chamada “Wave 3” da plataforma e incluem novos recursos capazes de executar tarefas de múltiplas etapas, além de ferramentas voltadas à governança e segurança de agentes de IA nas empresas.

Entre as novidades estão o recurso Copilot Cowork, novas capacidades agênticas integradas a aplicativos como Microsoft Word, Microsoft Excel, Microsoft PowerPoint e Microsoft Outlook, além de novos serviços corporativos para gerenciamento de agentes e segurança de dados.

Copilot passa a executar tarefas em várias etapas

Segundo Jared Spataro, diretor de marketing da área de IA no trabalho da Microsoft, a nova versão do Copilot representa uma evolução do assistente para um sistema capaz de executar tarefas mais complexas dentro do fluxo de trabalho.

Um dos recursos centrais dessa mudança é o Copilot Cowork. A ferramenta foi desenvolvida em parceria com a Anthropic e utiliza a tecnologia por trás do modelo Claude para lidar com tarefas prolongadas ou com múltiplas etapas.

De acordo com a empresa, o Cowork permite delegar atividades completas ao Copilot. O sistema pode dividir uma solicitação em etapas, acessar diferentes aplicativos e arquivos e acompanhar a execução ao longo do tempo. O usuário continua acompanhando o progresso e pode aprovar ou ajustar ações antes de sua conclusão.

Essas capacidades são baseadas em uma camada chamada Work IQ, que utiliza sinais do ambiente de trabalho — como arquivos, e-mails, reuniões e conversas — para contextualizar as tarefas executadas pela IA.

IA integrada aos aplicativos do Microsoft 365

A Wave 3 também amplia a presença do Copilot diretamente nos aplicativos do Microsoft 365. A IA passa a atuar dentro de documentos, planilhas, apresentações e e-mails, criando ou revisando conteúdo sem exigir que o usuário mude de ferramenta.

Na prática, o sistema pode atualizar um documento existente no Word, aplicar fórmulas em planilhas no Excel ou montar apresentações no PowerPoint seguindo padrões de layout e identidade visual da organização. No Outlook, o Copilot passa a sugerir e revisar e-mails diretamente na interface do serviço.

Copilot ganha presença ampliada nos aplicativos do Microsoft 365, como o Excel (Imagem: Divulgação / Microsoft)

Outra mudança envolve o Copilot Chat, que passa a funcionar como ponto inicial para executar tarefas. A partir de uma conversa, o usuário pode solicitar a criação de documentos ou planilhas, agendar reuniões ou iniciar fluxos de trabalho sem alternar entre diferentes aplicativos.

Copilot adota estratégia de múltiplos modelos de IA

A Microsoft também ampliou o suporte a diferentes modelos de IA dentro do Copilot. O chat principal do sistema passa a incluir o modelo Claude, da Anthropic, ao lado das versões mais recentes desenvolvidas pela OpenAI.

Segundo a empresa, o objetivo é permitir que o Copilot utilize automaticamente o modelo mais adequado para cada tarefa, sem exigir que o usuário escolha manualmente qual tecnologia usar.

Em um texto publicado no blog da Microsoft, Judson Althoff, CEO de negócios comerciais da companhia, afirma que a estratégia busca combinar diferentes modelos com dados corporativos para gerar resultados dentro do contexto de trabalho das organizações.

“Os modelos podem raciocinar sobre dados e produzir documentos ou planilhas, mas não entendem o trabalho. A diferenciação real vem do contexto profundo de trabalho incorporado às ferramentas que as pessoas já utilizam”, escreveu Althoff.

Plataforma para governança de agentes de IA

Outro anúncio envolve o Agent 365, descrito pela Microsoft como um plano de controle para gerenciar agentes de IA dentro das empresas. A ferramenta ficará disponível de forma geral em 1º de maio, com preço de US$ 15 por usuário por mês.

3 9 Security 2 1024x576
Agent 365 é outra novidade anunciada pela Microsoft (Imagem: Divulgação / Microsoft)

O sistema permite que equipes de TI e segurança acompanhem quais agentes estão ativos na organização, monitorem atividades e apliquem políticas de acesso e proteção de dados. O serviço integra ferramentas de segurança como Microsoft Defender, Microsoft Entra e Microsoft Purview.

Segundo Vasu Jakkal, vice-presidente corporativa de segurança da Microsoft, a expansão da IA agêntica exige mecanismos de monitoramento e governança semelhantes aos utilizados para usuários humanos dentro das empresas.

Leia mais:

Novo pacote corporativo com IA integrada

A companhia também anunciou o Microsoft 365 E7, um novo pacote corporativo que reúne o Microsoft 365 E5, o Copilot e o Agent 365 em uma única oferta.

A solução inclui recursos de produtividade, IA e segurança corporativa integrados, além de ferramentas de identidade e gerenciamento de dispositivos. O pacote estará disponível a partir de 1º de maio por US$ 99 por usuário por mês.

De acordo com a Microsoft, a proposta é simplificar a adoção de IA nas organizações ao reunir recursos de produtividade, governança e segurança em uma única plataforma.

O post Microsoft amplia IA agêntica no Microsoft 365 Copilot apareceu primeiro em Olhar Digital.

Microsoft amplia IA agêntica no Microsoft 365 Copilot Read More »

pentagono 1024x683 2

Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs

Os Estados Unidos preparam novas regras para contratos civis envolvendo inteligência artificial, exigindo que empresas do setor permitam o uso de seus modelos para “qualquer finalidade legal” por parte do governo. As diretrizes surgem após o impasse entre o Pentágono e a Anthropic.

De acordo com uma versão preliminar das regras, divulgadas pelo Financial Times, desenvolvedoras que desejarem fornecer sistemas de IA ao governo americano terão de conceder uma licença irrevogável para utilizar suas tecnologias em todas as aplicações consideradas legais.

As orientações foram elaboradas pela Administração de Serviços Gerais (GSA), órgão responsável por coordenar compras e contratos para a administração pública. Embora as regras se destinem inicialmente a contratos civis, o modelo pode influenciar diretrizes semelhantes em acordos ligados ao setor militar.

Pentágono x Anthropic

O debate ocorre após uma decisão recente do Departamento de Defesa (agora Departamento de Guerra) envolvendo a Anthropic. Na quinta-feira (5), o Pentágono classificou a empresa como um “risco para a cadeia de suprimentos”.

A medida foi tomada depois de um desacordo entre a desenvolvedora e o governo. Segundo autoridades americanas, a Anthropic insistiu em adotar medidas de segurança consideradas excessivamente restritivas, o que teria dificultado o uso da tecnologia em aplicações governamentais.

Por outro lado, a Anthropic expressou preocupações acerca do uso de seu chatbot, o Claude, em aplicações voltadas para vigilância em massa de cidadãos americanos e armas autônomas. A empresa se recusou a flexibilizar suas regras para se adequar ao Pentágono, resultando na quebra da parceria. O Olhar Digital deu detalhes aqui.

Em paralelo, a GSA decidiu encerrar o contrato da empresa no programa OneGov, que disponibiliza ferramentas de software para órgãos dos poderes Executivo, Legislativo e Judiciário por meio de acordos previamente negociados.

Novas regras vêm depois do desacordo entre Anthropic e Pentágono (Imagem: Keith J Finks/Shutterstock)

Novas exigências dos EUA para empresas de IA

O rascunho das diretrizes também estabelece regras sobre o comportamento dos sistemas de inteligência artificial fornecidos ao governo. Entre os pontos previstos está a exigência de que os contratados não incluam deliberadamente vieses partidários ou ideológicos nas respostas geradas pelos modelos.

Além disso, as empresas terão de informar se seus sistemas foram adaptados ou configurados especificamente para atender a regulamentações ou exigências de conformidade fora do governo federal dos EUA.

Leia mais:

As novas regras fazem parte de uma iniciativa da administração para ampliar o uso de IA no setor público, ao mesmo tempo em que tenta estabelecer padrões para segurança, neutralidade e disponibilidade dessas tecnologias. A Casa Branca não comentou publicamente o assunto até o momento.

O post Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs apareceu primeiro em Olhar Digital.

Após embate com a Anthropic, EUA querem regras para permitir uso irrestrito de IAs Read More »

grok 1024x683

X investiga chatbot Grok por publicações com conteúdo ofensivo e racista

A rede social X está investigando o funcionamento do seu chatbot de inteligência artificial, o Grok, após relatos de que a ferramenta estaria gerando publicações com conteúdos racistas e ofensivos. As informações foram divulgadas pela Sky News neste domingo (8).

De acordo com o repórter Rob Harris, da Sky News, as equipes de segurança do X trabalham com urgência para entender como o chatbot, desenvolvido pela empresa xAI, gerou mensagens de ódio em resposta a comandos feitos por usuários.

Histórico de Restrições

Esta não é a primeira vez que as ferramentas da xAI, empresa de Elon Musk, passam por vistorias. Governos e órgãos reguladores em diversos países têm pressionado a plataforma para criar barreiras contra conteúdos ilegais ou sexualmente explícitos gerados pela inteligência artificial.

Imagem: JRdes/Shutterstock

Leia mais:

Em resposta a essas pressões, a xAI já havia anunciado algumas mudanças em janeiro:

  • Edição de imagens: A empresa restringiu as opções de edição de fotos para os usuários do Grok.
  • Bloqueio por localização: Usuários em determinadas regiões foram impedidos de gerar imagens de pessoas com roupas reveladoras.
  • Segurança local: Essas restrições foram aplicadas em locais onde esse tipo de conteúdo é considerado ilegal, embora a empresa não tenha listado quais seriam esses países.

Próximos Passos

Até o momento, nem o X nem a xAI responderam oficialmente aos pedidos de comentário sobre a nova investigação. A Reuters informou que ainda não foi possível verificar de forma independente o vídeo citado na reportagem da Sky News.

As investigações atuais fazem parte de um movimento global de autoridades que buscam exigir salvaguardas e punições para conter a disseminação de materiais impróprios gerados por IA.

O post X investiga chatbot Grok por publicações com conteúdo ofensivo e racista apareceu primeiro em Olhar Digital.

X investiga chatbot Grok por publicações com conteúdo ofensivo e racista Read More »

shutterstock 2645157717 1

Rivalidade entre OpenAI e Anthropic se intensifica e pode moldar futuro da IA

A disputa entre duas das empresas mais influentes do setor de inteligência artificial (IA) — OpenAI e Anthropic — vem ganhando contornos cada vez mais pessoais e públicos, envolvendo seus líderes, Sam Altman e Dario Amodei, e levantando questionamentos sobre como a tecnologia será desenvolvida e utilizada nos próximos anos.

O episódio mais recente dessa rivalidade surgiu em meio a negociações com o Pentágono e expôs diferenças profundas entre as empresas sobre segurança, regulação e o uso militar da IA.

Rivalidade visível até em eventos públicos

  • A tensão entre Altman e Amodei chegou a se manifestar em um encontro recente com líderes de tecnologia na Índia;
  • Durante uma foto oficial com o primeiro-ministro do país, outros executivos deram as mãos em sinal de união — mas os dois rivais evitaram qualquer contato físico, limitando-se a um constrangido toque de cotovelos;
  • Para muitos observadores, a cena simbolizou a rivalidade crescente entre duas companhias que disputam usuários, talentos e investidores, especialmente em um momento em que ambas avaliam abrir capital ainda este ano;
  • Conflitos entre gigantes da tecnologia não são novidade no Vale do Silício. A história do setor inclui disputas, como Steve Jobs contra Bill Gates, Apple contra Samsung e Uber contra Lyft. Há ainda confrontos frequentes envolvendo Elon Musk e figuras, como Jeff Bezos e Mark Zuckerberg;
  • Embora rivalidades desse tipo muitas vezes estimulem inovação e concorrência, analistas alertam que a disputa entre OpenAI e Anthropic envolve um risco adicional: ambas concentram enorme influência sobre uma tecnologia ainda emergente, cujo impacto potencial é global.

Anthropic: origem da divisão da OpenAI

A Anthropic nasceu em 2021 justamente a partir de preocupações sobre segurança no desenvolvimento da IA. Amodei, então vice-presidente de pesquisa da OpenAI, deixou a empresa após questionar a rapidez com que a tecnologia estava sendo comercializada.

Ele levou consigo vários pesquisadores para fundar a nova companhia, estruturada como uma organização com fins lucrativos que afirma seguir padrões específicos de impacto social e responsabilidade.

As diferenças de visão entre os líderes são frequentemente apontadas como um dos motores da rivalidade. Altman é visto como um negociador agressivo, disposto a fechar grandes acordos para acelerar o crescimento da OpenAI. Já Amodei adota uma postura mais cautelosa e frequentemente alerta para riscos da tecnologia, como possíveis perdas massivas de empregos — comparáveis às da Grande Depressão.

Dario Amodei já criticou Sam Altman e a OpenAI em memorando interno (Imagem: Thrive Studios ID/Shutterstock)

Crescimento acelerado da Anthropic

Durante anos, a OpenAI parecia ter uma vantagem confortável na corrida para levar a IA ao grande público. A empresa criou o aplicativo de consumo com crescimento mais rápido da história da tecnologia, acumulou mais de US$ 100 bilhões (R$ 524,4 bilhões) em caixa e firmou parcerias com grandes empresas de computação.

Nos últimos meses, porém, o cenário começou a mudar. A Anthropic conquistou milhares de grandes empresas como clientes e mais que dobrou sua previsão de receita anual, passando de US$ 9 bilhões (R$ 47,2 bilhões) para US$ 19 bilhões (R$ 99,6 bilhões). Em alguns círculos da indústria, sua tecnologia também passou a ser considerada a mais avançada entre as concorrentes.

Segundo o investidor de capital de risco Siri Srinivas, mudanças de narrativa no setor estão acontecendo cada vez mais rápido. “Levava anos para surgir uma história sobre uma empresa. Agora, as narrativas mudam em meses”, disse ao The New York Times.

A corrida pelo domínio da IA também inclui planos de abertura de capital. De acordo com pessoas familiarizadas com o assunto que conversaram com o The Wall Street Journal, a Anthropic pretende realizar seu IPO antes da OpenAI, o que poderia dar à empresa uma vantagem inicial com investidores.

Situação semelhante ocorreu em 2019, quando a Lyft buscou abrir capital antes da Uber em meio à disputa entre as duas companhias de transporte por aplicativo.

Leia mais:

Conflito com o Pentágono

A rivalidade atingiu um novo patamar quando a Anthropic entrou em choque com o Departamento de Defesa dos Estados Unidos.

Durante negociações para contratos governamentais, a empresa tentou incluir cláusulas que impediriam o uso de sua IA em sistemas de armas autônomas e em vigilância doméstica em larga escala. Autoridades do Pentágono reagiram negativamente. Segundo o chefe de tecnologia do departamento, Emil Michael, cabe ao governo decidir como o Exército utiliza tecnologia. “Tem que ser nossa escolha”, afirmou.

Após Amodei se recusar a retirar essas condições, o secretário de Defesa, Pete Hegseth, classificou a Anthropic como um “risco na cadeia de suprimentos”, o que impede o uso de sua tecnologia em contratos de defesa.

Poucas horas depois de as negociações entre Anthropic e o Pentágono fracassarem, Altman anunciou que a OpenAI havia fechado seu próprio acordo com o Departamento de Defesa. A decisão provocou forte reação pública. Funcionários de tecnologia e usuários elogiaram a Anthropic por manter sua posição contra o uso da IA em vigilância e armamentos autônomos.

Manifestantes também se reuniram diante da sede da OpenAI, escrevendo mensagens como “Sem armas de IA” e “Quais são suas linhas vermelhas?” na calçada. Nas redes sociais, a hashtag “#FireSamAltman” (demita Sam Altman, em tradução livre) chegou a se tornar tendência.

Em contraste, apoiadores deixaram mensagens encorajadoras na sede da Anthropic, incluindo frases como “DEUS AMA A ANTHROPIC” e “VOCÊS NOS ENCORAJAM”.

Memorando interno da Anthropic e troca de acusações

Em um memorando interno divulgado posteriormente, Amodei criticou duramente a OpenAI e acusou a empresa de agir de forma enganosa. “Quero ser muito claro sobre as mensagens que estão vindo da OpenAI e a natureza mentirosa disso. Este é um exemplo de quem eles realmente são”, escreveu.

Ele também afirmou que a Anthropic perdeu o contrato porque se recusou a oferecer “elogios ao estilo de ditadores” ao governo de Donald Trump, algo que alegou que Altman estaria disposto a fazer. Após a repercussão pública do documento, Amodei pediu desculpas pelo tom da mensagem e afirmou que seu pensamento havia evoluído.

Altman também criticou indiretamente o rival ao comentar o papel do governo no setor. “O governo deve ser mais poderoso do que empresas privadas”, disse, durante conferência do banco Morgan Stanley.

A disputa também ganhou contornos políticos. O deputado democrata Ro Khanna elogiou a decisão da Anthropic de não ceder às exigências do Pentágono. Ao mesmo tempo, o presidente Trump criticou duramente a empresa. “Bem, eu demiti a Anthropic”, disse ele em entrevista ao Politico. “A Anthropic está em apuros”, acrescentou, afirmando que a empresa foi dispensada “como cães”.

CEO da OpenAI, Sam Altman, falando em evento
Altman fez críticas indiretas à rival (Imagem: alprodhk/Shutterstock)

Popularidade e números do mercado

Apesar das controvérsias, as duas empresas continuam crescendo rapidamente. A OpenAI informou recentemente que seus produtos são usados por mais de 900 milhões de pessoas, mais que dobrando sua base de clientes em um ano. Mais de nove milhões de empresas pagam para usar o ChatGPT em atividades profissionais e a receita da companhia pode ultrapassar US$ 25 bilhões (R$ 131,1 bilhões) neste ano.

Já o Claude, chatbot da Anthropic, alcançou o primeiro lugar entre os downloads da Apple App Store em 16 países. Mais de um milhão de pessoas passaram a baixar o aplicativo diariamente — entre elas, a cantora Katy Perry.

Rivalidade que pode influenciar futuro da IA

Apesar dos conflitos, Altman e Amodei frequentemente expressam visões semelhantes sobre a velocidade com que a IA está evoluindo e sobre seu potencial transformador. Ambos concordam que a tecnologia terá impacto profundo na sociedade — inclusive na economia e no mercado de trabalho.

A divergência central está em como chegar lá: avançar rapidamente para dominar o mercado ou priorizar limites e regras de segurança. Com as duas empresas sediadas a poucos quilômetros de distância em São Francisco (EUA), a rivalidade entre seus líderes tornou-se um dos principais motores — e também uma das maiores tensões — da corrida global pela liderança em IA. E, pelo tom das recentes trocas de acusações, dificilmente os dois executivos estarão de mãos dadas tão cedo.

O post Rivalidade entre OpenAI e Anthropic se intensifica e pode moldar futuro da IA apareceu primeiro em Olhar Digital.

Rivalidade entre OpenAI e Anthropic se intensifica e pode moldar futuro da IA Read More »