inteligência artificial

Auto Added by WPeMatico

shutterstock 2516408321 1 scaled e1767720658456 1024x577

Microsoft diz que Copilot é “apenas para entretenimento”

A Microsoft tem sido alvo de comentários nas redes sociais por causa dos termos de uso do Copilot, que incluem um aviso direto sobre as limitações da ferramenta. O documento, que teria sido atualizado pela última vez em 24 de outubro de 2025, afirma que o sistema deve ser utilizado com cautela.

Apesar do foco da empresa em ampliar a adoção do Copilot entre clientes corporativos, o conteúdo desses termos chamou atenção ao destacar que a ferramenta não deve ser considerada confiável para orientações importantes.

Copilot apresenta mensagem dizendo ser apenas para “fins de entretenimento” – Imagem: Primakov/Shutterstock

Aviso sobre uso do Copilot

Nos termos de uso, a Microsoft afirma que o Copilot é “apenas para fins de entretenimento”. O texto também alerta que a ferramenta pode cometer erros e não funcionar como esperado.

A empresa orienta os usuários a não confiarem no Copilot para conselhos importantes e reforça que o uso ocorre por conta e risco de quem acessa o serviço.

Atualizações nos termos

Em declaração ao PCMag, um porta-voz da Microsoft informou que a empresa pretende atualizar o que classificou como “linguagem legada” presente nesses termos.

Segundo o representante, com a evolução do produto, esse trecho já não reflete como o Copilot é utilizado atualmente e deverá ser alterado em uma próxima atualização.

Leia mais:

Avisos semelhantes em outras empresas

O uso desse tipo de ressalva não é exclusivo da Microsoft. De acordo com o Tom’s Hardware, outras empresas de inteligência artificial também adotam orientações semelhantes.

A OpenAI, por exemplo, afirma que suas respostas não devem ser usadas como “única fonte de verdade ou informação factual”, enquanto a xAI recomenda que os usuários não tratem os resultados como “a verdade”.

Logo da OpenAI em um smartphone
OpenAI também tem mensagem de alerta em seus produtos – Imagem: Thrive Studios ID/Shutterstock

O post Microsoft diz que Copilot é “apenas para entretenimento” apareceu primeiro em Olhar Digital.

Microsoft diz que Copilot é “apenas para entretenimento” Read More »

ia emprego 1 1024x569

OpenAI propõe fundo público e novas regras para a era da IA

A OpenAI divulgou nesta segunda-feira (6) um conjunto de recomendações de políticas públicas voltadas ao avanço da inteligência artificial (IA). O documento, intitulado “Industrial Policy for the Intelligence Age: Ideas to Keep People First” (Política Industrial para a Era da Inteligência: Ideias para Manter as Pessoas em Primeiro Lugar, em tradução livre), apresenta propostas para lidar com impactos econômicos e sociais associados à tecnologia e iniciar um debate mais amplo sobre o tema.

Entre as sugestões estão a criação de um fundo público de riqueza, a implementação de mecanismos automatizados de proteção social e a aceleração da infraestrutura energética. Segundo a empresa, a proposta busca garantir que os ganhos gerados pela IA sejam distribuídos de forma mais ampla e que a sociedade esteja preparada para possíveis mudanças no mercado de trabalho.

Propostas focam em emprego e renda

Grande parte das recomendações trata das transformações no mercado de trabalho. A empresa criadora do ChatGPT aponta riscos de deslocamento de empregos e defende medidas para permitir que a população participe diretamente dos benefícios econômicos da IA.

Uma das principais ideias é a criação de um fundo público que distribua recursos à população, permitindo que cidadãos tenham participação no crescimento econômico impulsionado pela tecnologia. A empresa também sugere incentivar testes de semana de trabalho de quatro dias, desde que não haja queda na produtividade.

Documento da OpenAI discute efeitos da inteligência artificial no mercado de trabalho e propõe medidas para lidar com mudanças na renda e no emprego – Imagem: Stokkete/Shutterstock

Outro ponto central é a criação de redes de proteção social adaptativas, baseadas em dados em tempo real. A proposta prevê o monitoramento contínuo de indicadores como desemprego, salários e qualidade do trabalho. Caso esses dados ultrapassem limites pré-definidos, mecanismos automáticos seriam acionados, incluindo benefícios ampliados, assistência financeira rápida e programas de requalificação. Esses apoios seriam temporários e ajustados conforme a intensidade das mudanças no mercado.

Infraestrutura e energia ganham destaque

O documento também destaca a necessidade de expandir rapidamente a infraestrutura energética para sustentar o crescimento da inteligência artificial, especialmente diante do aumento no consumo por data centers.

A OpenAI sugere a criação de parcerias público-privadas para financiar e acelerar a expansão da rede elétrica, incluindo linhas de transmissão de alta capacidade. A proposta também enfatiza a redução de entraves regulatórios e o uso de incentivos para viabilizar projetos em larga escala.

Segundo o texto, esses modelos devem ser estruturados para limitar riscos aos cofres públicos e evitar que consumidores arquem com os custos da expansão. A expectativa é que o aumento da capacidade energética contribua para reduzir preços e sustentar o avanço da tecnologia.

Leia mais:

Contexto da inteligência artificial

O documento também aborda o conceito de superinteligência, definido como sistemas capazes de superar o desempenho dos humanos mais inteligentes, mesmo quando assistidos por outras inteligências artificiais. Embora ainda não exista, a tecnologia é tratada como um cenário possível que exige planejamento antecipado.

Fundada em 2015, a OpenAI ganhou destaque com o lançamento do ChatGPT em 2022, impulsionando o crescimento da IA generativa. A empresa afirma que suas propostas são iniciais e têm como objetivo estimular discussões entre governos, empresas e sociedade sobre como lidar com as mudanças trazidas pela tecnologia.

O post OpenAI propõe fundo público e novas regras para a era da IA apareceu primeiro em Olhar Digital.

OpenAI propõe fundo público e novas regras para a era da IA Read More »

A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina

Nesta entrevista, o neurocientista Álvaro Machado Dias, professor da Unifesp e colunista do Olhar Digital, analisa os rumos da corrida da inteligência artificial a partir de uma perspectiva que combina tecnologia, geopolítica e mercado. Ao comentar a evolução desde o surgimento do ChatGPT, ele aponta quais avanços pareciam previsíveis, quais decepcionaram em velocidade e quais surpreenderam, como a incorporação cada vez mais direta da IA às estratégias de Estado e à disputa internacional por poder computacional.

Ao longo da conversa, Álvaro também discute quem lidera hoje a corrida da IA, o papel central da indústria de chips, a ascensão da China, a especialização das empresas que disputam o mercado consumidor e os limites atuais da chamada inteligência artificial geral. A entrevista traça um panorama amplo sobre o presente e o futuro do setor, passando da infraestrutura de hardware aos modelos de linguagem, dos agentes de IA à hipótese de sistemas cada vez mais especializados.

Acompanhe!

Olhar Digital: Quando o ChatGPT surgiu no final de 2022, se alguém te descrevesse exatamente o que a gente tem hoje em 2026, você acharia plausível ou loucura?

Alvaro: Eu acharia plausível. Eu, na verdade, naquele momento, já senti que tinha algo de revolucionário acontecendo. Algumas coisas no fundo andaram até mais devagar do que eu imaginava, outras andaram de maneira mais rápida. Como sempre o cenário que se formou é muito distinto daquele que eu tinha em mente, mas isso não significa que eu acharia implausível, porque do ponto de vista de velocidade até que mais ou menos projetei a coisa de maneira correta.

Especificamente, eu não imaginava que o problema das alucinações permaneceria por tanto tempo. Para mim isso nunca teria surgido como uma questão insolúvel dentro da modelagem atual. Eu precisei compreender muito mais o funcionamento e eu lembro que eu publiquei um artigo mais ou menos seis meses depois do surgimento do ChatGPT em que eu dizia que basta você entender direito, conseguir compreender o attention is all you need, o paper e tudo mais para você ver que as alucinações não têm solução dentro da arquitetura atual. Mas quando surgiu eu não imaginava.

Outra coisa que eu imaginava que andaria muito mais rápido é a conversa com buffer zero. Para mim, assim, que legal, esse ChatGPT permite conversar como se estivesse falando com uma pessoa. Bom, botar isso com text-to-voice, que é uma coisa que na época já era muito comum, com total naturalidade, na boca de robôs, em totens e tal, vai ser algo rápido, simples. E a verdade é que a gente não vê isso em quase lugar nenhum. Tem várias demos, softwares, tem sempre esse papo. Mas na hora do vamos ver, você não vai no McDonald’s e conversa com a IA como se fosse uma pessoa e assim por diante. Existe sempre um buffer, um tempo, uma latência que cria um leve estranhamento nas conversas.

Agora, a coisa que para mim andou mais rápida é a fusão com as políticas de Estado. Essas sim me surpreenderam, sobretudo do governo Trump. É razoável imaginar os chineses apostando na inteligência artificial como o grande paradigma nos seus planos quinquenais, mas imaginar o Trump dentro dessa mesma lógica, o governo americano dentro dessa mesma lógica, é algo que para mim escapou completamente da análise.

Olhar Digital: Acho que você dá um bom gancho para o que seria a minha última pergunta, que é sobre a liderança da corrida das IA’s. Você enxerga um líder quando falamos de nação e de empresa?

Alvaro: Hoje em dia, o Ocidente lidera a corrida das IAs. Eu acho que isso não é uma questão de opinião, isso é algo que você pode aferir através de vários parâmetros, entre eles, quem é que está liderando a inovação no domínio da produção de chips, no domínio da instalação de servidores e no domínio de grandes modelos fundacionais. É tudo o Ocidente que lidera.

E a explicação é que a cadeia de suprimentos da inteligência artificial é a cadeia mais complexa construída pelo ser humano. E só para você criar microchips altamente empacotados, o que é a condição sine qua non para o progresso no campo, você precisa envolver empresas que têm tecnologias patenteadas, altamente defendidas, que estão em lugares como Taiwan, Holanda, Alemanha, Japão, Estados Unidos. Então, é muito difícil para a China competir contra essa cadeia global, na qual um embargo a impede de, não só de capturar os detalhes do ponto de vista de patentes, mas também de competir de igual para igual nesse mercado. Então, porque se os chineses tivessem incentivo para vender como os sul-coreanos, tecnologias para inteligência artificial, no caso eu estou falando da Samsung, mas não só dela, certamente o cenário seria outro só em função dos estímulos internos no país.

Não sendo o caso, o que a gente tem que pensar é que a China tem o desafio de ganhar do mundo inteiro. E na medida em que ela vai investindo, ela vai se aproximando disso. E essa aproximação significa que, quando houver a virada, ela deve vir muito forte. Afinal de contas, aí os ganhos todos, em termos de inovação e escala, vão estar do lado chinês. Porque é lógico que é muito mais vantajoso você ter a cadeia inteira dentro do seu país, você conseguir gerar os transistores certos, você conseguir empacotar os microchips da maneira adequada, você conseguir fazer a litografia – no caso chama litografia ultravioleta -, nas placas… para você, enfim, colocar os circuitos da forma correta, e tudo mais. Então, os chineses vêm com muita força, mas no momento… Quem lidera esse campo é o consórcio ocidental, vamos dizer assim, que é liderado pelos americanos. Mas tem como players fundamentais, eu diria assim, o mais fundamental de todos, Taiwan com a TSMC e depois a Holanda com o ASML e assim por diante.

Respondendo sua segunda pergunta, a empresa mais importante do mundo na atualidade é a de inteligência artificial, sem dúvida, e é a TSMC. Muito mais do que qualquer outra, é a empresa que define o futuro da corrida da inteligência artificial, porque se a TSMC para, nesse momento pelo menos, o progresso ocidental e mesmo a cadeia de suprimentos para a NVIDIA, que é o principal fornecedor de hardware, ela também para. Então essa empresa de Taiwan é a mais estratégica do mundo e esse papel fundamental dela ajuda a entender porque a questão no Mar da China é tão crítica.

A TSMC é uma empresa que não está negociando sequer com as outras empresas que estão vendendo para o consumidor, ela negocia com empresas que querem elas próprias revender, vender suas placas de vídeo, TPUs e assim por diante. Tirando ela, a empresa mais importante nesse momento, no meu ponto de vista, é a NVIDIA, ou seja, mais uma empresa no domínio do hardware e não exatamente do software. Na verdade, a NVIDIA é uma empresa de software também, porque uma das grandes vantagens das placas da NVIDIA é o software CUDA, que permite você extrair o máximo de performance dela e você dar manutenção fácil, plugar nos seus sistemas e tudo mais. Mas tem um componente físico muito importante aí que é o que todo mundo reconhece quando vai na loja comprar. Então, eu diria que as duas empresas do momento são empresas que estão no domínio do hardware, o que é uma coisa interessante quando a gente vê que na mídia em geral e entre as pessoas leigas, toda discussão gira em torno de modelos fundacionais e empresas como Anthropic, OpenAI e Google.

Olhar Digital: E você falou, quando estava falando da China, quando houver a virada, não se houver a virada. Para você é uma questão de tempo para a China conseguir superar o Ocidente em tecnologia?

Alvaro: É muito difícil garantir essas coisas. A gente entra num território da confiança sobre aquilo que o bom senso recomenda você não ter confiança. E é bobagem assumir isso. Mas eu diria que, logicamente, faz sentido assumir, sim, uma passagem chinesa. E a razão não é nem essa que eu descrevi. A razão não é que a cadeia de suprimentos está sendo emulada na China e daqui a pouco os chineses vão conseguir fazer tudo e aí eles vão dar um salto na frente. Não. É que o empacotamento dos transistores encontra um limite. Então, conforme você vai achatando, socando coisas no componente, você vai reduzindo naturalmente o espaço numa escala que começa a se tornar muito próxima da escala na qual o átomo individual, mais especificamente o elétron, se comporta de maneira previsível.

Então, por exemplo, a gente está hoje em dia com escalas em chips avançados de cinco nanômetros, qualquer coisa assim. Quando você chega em três, dois, já tem projetos da TSMC de fornecer circuitinho com três nanômetros em dois mil e vinte e seis, comercialmente, eles já fazem, mas não vende. Então, quando você começa a entrar nessa escala, efeitos quânticos ganham forma. Isso significa coisas como, por exemplo, o elétron deveria passar por dentro de um circuito que está todo determinado, onde você tem as entradas e saídas, enfim, ele deve excitar o circuito e com isso realizar uma rotina, mas ele passa a se comportar dentro da lógica do tunelamento quântico, que na prática quer dizer que ele ignora todos esses circuitos e passa reto, ele atravessa a parede.

Esse tipo de coisa que a gente tem que sempre considerar. A corrida por muitos anos foi ditada pela lei de Moore, que diz que a cada dois anos você dobra o empacotamento desses circuitos. Mas agora ela segue um pouco mais lenta, mas segue. Essa corrida tem fim.

E no fim dessa corrida, a própria ideia de que a computação digital vai ser uma coisa e a computação quântica vai ser outra, como se discute por aí, ela se mostra logicamente errada. No fim dessa corrida, toda computação tem que no mínimo tratar de fenômeno quântico. Então, você tem uma zerada forte do ponto de vista conceitual. E essa zerada forte é como se ela estivesse leveling the play field, como se fala em inglês, ou seja, nivelando o jogo, e ela vai nivelar o jogo, sendo que tem muito mais engenheiros de IA chineses do que do resto do mundo. O preparo técnico, a lógica de formação no país em geral, os incentivos para o desenvolvimento, tudo é muito mais forte. Entende?

Então, eu tendo a achar que os chineses vão ultrapassar os americanos e o consórcio ocidental de maneira geral, não porque eles estão conseguindo emular toda a cadeia de produção dos chips digitais tradicionais, mas porque isso aí tem fim. Então, as coisas vão meio que convergir. O atingimento de um ponto de igualdade ou equilíbrio e uma nova doutrina de produção de circuitaria para processamento em inteligência artificial, robótica e etc. Da convergência das duas coisas eu vejo sair muito provavelmente um novo vencedor, que é do ponto de vista da escala global, que é o governo chinês.

Olhar Digital: Eu tenho mais dois assuntos para tratar. Primeiro, eu queria falar do ponto de vista do consumidor, da inteligência artificial que chega para o consumidor. Então a gente pensa na Anthropic, na OpenAI, no Google com o Gemini. A gente via que muitas empresas, no começo, acho que a OpenAI é um desses exemplos, digamos, estavam atirando para todo lado. Agora, a OpenAI deu um passinho atrás com o Sora, desativando o Sora, que acabou surpreendendo muita gente, para focar na questão dos agentes de IA. E a gente tem, por exemplo, a Anthropic muito forte com a programação. Você acha que a gente vai ter, no futuro próximo, empresas mais especializadas dentro desse leque de empresas que, de fato, o consumidor tem contato diretamente?

Alvaro: Essa é uma ótima pergunta e a minha resposta é sim. E o que tem de acontecer é algo que a gente vê em todas as indústrias. No começo, está todo mundo afim de conhecer. E mais do que isso: a lógica das startups é uma lógica de crescimento em primeiro lugar, ou seja, você quer crescer ao máximo possível a sua base de usuários, mercados e tudo mais, para justamente argumentar para a próxima rodada de investidores que você tem muito mais potencial e assim por diante. É natural que essas empresas atirem para todos os lados.

O que vai acontecendo com o tempo é que esse capital de risco orientado por crescimento, que é o sujeito que põe lá um bilhão de dólares na OpenAI pensando em vender na próxima série, na próxima captação… esse dinheiro vai sumindo. E faturar, e especificamente lucrar, vão se tornando mais importantes. É um momento que a empresa deixa de ser uma startup. Se ela é listada então, isso aí acaba completamente.

E nesse novo cenário é muito mais inteligente você se especializar. Por quê? Porque afinal de contas eu posso ganhar muita grana no mercado B to C e ganhar muita grana no B to B. Exemplo, Microsoft. Microsoft vendeu o pacote Office e sistema operacional Windows B to C até não poder mais e ao mesmo tempo criou uma estrutura de Azure e tem os pacotes de escritório também no modelo empresa. E está tudo ótimo. Ela ganha em todos os lados. É uma empresa que era das mais importantes do mundo há vinte anos e hoje é das mais importantes do mundo.

A resposta é que em IA… a fungibilidade é muito maior e o lock-in é muito menor. O que quer dizer isso na prática? Quer dizer: em IA, eu troco um modelo pelo outro e ponto final, se o outro modelo for melhor. Então, a minha fidelidade inexorável, ela não está dada. Agora, quando eu ponho um sistema operacional Windows e eu começo a usar, e eu vou botando meus aplicativos lá e tudo mais… essa fidelidade está muito mais garantida, porque dá muito mais trabalho trocar.

E as empresas de IA estão procurando um modelo para dar mais trabalho, para fazer mais o que eu falei agora, que é o segundo ponto, que é o lock in, criar mais travas de saída. Uma das maneiras de você criar trava de saída é você ter uma memória muito grande no no LLM, de modo que ele lembre todo o seu histórico, seus dados e tudo mais, então ele já responde de maneira super personalizada para você, sobretudo para a sua empresa. Então tem um monte de dado sensível que você subiu aqui e ali, mas não é uma realidade hoje em dia.

Mesmo essas janelas de contexto de um, dois milhões de tokens, na prática elas não seguram nem metade disso sem que você comece a ter perda de performance. E mesmo que segurassem, não adianta. É outra história, entende? A gente não está numa época em que eu tenho uma IA pessoal e eu falo “leia tudo que eu tenho. Leia aí, 100 gigas, um tera de material, incorpora tudo e agora a gente conversa a partir desse ponto”. Não existe. Então, o lock in é muito menor.

Consequentemente… você não consegue manter a liderança sem você ser efetivamente líder de qualidade. Esse é o problema. Então é natural que as empresas se especializem em ser líder de qualidade em setores específicos. Para mim, quem está fazendo a melhor aposta é a Anthropic, porque a Anthropic está especializada em programação e uso corporativo da IA. São duas coisas que dão grana, são duas coisas que não estão no domínio daquilo que você corta porque parece supérfluo. São das coisas que têm sentido existencial para as empresas e também para os freelancers, enfim, para os profissionais liberais de maneira geral. Está aí a questão.

Olhar Digital: quando você descreveu o futuro da inteligência artificial, até a China passando o Ocidente, você foi mais para um lado da computação quântica, por exemplo. Mas muitas vezes, quando a gente vê análises nesse sentido, de um vencedor da corrida das IAs, até partindo do próprio mercado, essas análises iam para o caminho da inteligência artificial geral, de quem se aproximaria mais dessa tecnologia antes. Acompanhando o noticiário, eu acho que essa discussão ficou um pouquinho mais tímida. Você acredita que essa tecnologia ela é algo alcançável? Ou a gente não vai ter essa inteligência artificial geral da ficção científica?

Alvaro: Eu acho que a gente vai ter que quebrar essa pergunta em duas partes. Em relação a primeira me parece um equívoco assumir que ganhadores e perdedores na corrida pela IA vão ser definidos pelo quanto eles se aproximam de um ideal de funcionamento. Mesmo que esse ideal de funcionamento ganhe materialidade e tudo mais. Me parece um equívoco, porque isso ignora como produtos ganham força e perdem força no mundo real – ainda mais quando a gente está falando de produtos que também são tecnologias de propósito geral.

Então, por exemplo, quando a gente está falando da aviação, um exemplo bom. Na aviação, é verdade que a melhor tecnologia, quem chega mais perto de ter um avião mega estável, que funciona muito bem, etc e tal, vai ganhar a corrida da aviação? Não, a gente sabe que não é assim que funciona. Por quê? Porque tem uma questão de custo, então, por exemplo, no caso da AGI tem uma questão de custo para operar, custo por token é uma variável importantíssima. Porque tem uma questão dos usos da aviação, então, por exemplo, no caso da aviação militar, a confiança do governo na capacidade daquela empresa de entregar constantemente, ou seja, na sua cadeia de distribuição, qualidade da manutenção e tudo mais, é fator fundamental.

E mais fundamental ainda são as relações escusas e algumas delas explícitas, manifestas, que acontecem determinando esses contratos militares. Então a gente entende que não é assim que funciona. E a gente vê isso em casos muito reais, assim, de compras de caças. O Brasil viveu uma situação dessas. A escolha de que caças a gente iria comprar, se era Gripen, se era outro… Foi pouco pautada pela qualidade dos caças. E assim vai. Então, essa ideia de você achar que você vai ter um parâmetro de qualidade e ele vai definir quem ganha ou quem perde, países ou empresas, cai na mesma falácia simplificadora.

Dito isso, existe a discussão sobre a possibilidade de a gente atingir uma inteligência artificial geral. Que seria uma inteligência artificial capaz de fazer tudo que um ser humano inteligente e bem informado é capaz de fazer. Seriam muitos inteligentes e bem informados, né? Você tem o PHD que moraria dentro do servidor, na linguagem do Dario Amodei. Você teria… o sujeito que é muito bom de organizar as coisas, organiza um almoxarifado, organiza um laboratório, organiza um galpão. E aí você vai quebrando tendências comportamentais, práticas e assim por diante, e a ideia é que você sempre vai ter uma IA tão boa quanto um humano.

Eu acho que a gente tem que começar a pensar essa ideia a partir do seguinte pressuposto: não faz sentido assumir que uma IA vai ser boa em tudo por uma questão meramente econômica. Não é que é impossível, mas é que faz muito mais sentido você ter o chamado MOE, Mixture of Experts. Então são muitas IAs empacotadas numa só. Cada uma delas foi treinada especificamente para um objetivo, não uma IA. Isso eu já escrevi, acho que há uns três anos, que Mixture of Experts era o grande caminho, quer dizer, é como se fosse um browser que vai ele próprio escolher a IA certa. E as coisas no fundo já estão acontecendo assim cada vez mais. Por exemplo, no Gemini é totalmente assim. Esse papo dele ser multimodal em primeiro lugar, na prática que é Mixture of Experts: ele tem muitos submodelos treinados.

Mas a coisa que também a gente tem que pensar é que no mundo da inteligência artificial, o simples é complexo e o complexo é simples. E isso é muito importante. Então, seja com a mistura de experts que for, eu não posso concordar que atingimos a inteligência artificial, porque eu tenho uma IA que consegue demonstrar teoremas matemáticos, o que é incrível. Consegue escrever no estilo de Álvaro Machado Dias, e eu posso olhar o texto e falar, “nossa, estou com a sensação que eu escrevi esse artigo, não tenho certeza, não consigo dizer”… ou qualquer outra pessoa. Tudo isso é legal. Mas se ela não consegue dirigir um carro por aí, dirigir numa rua não mapeada, não chegou na inteligência artificial geral. Se o sistema não é capaz de olhar para uma sala que está bagunçada e entender o que tem que fazer para organizá-la, para ela ficar arrumada, não chegou. Se não é capaz de passar roupa, não chegou.

E todas essas coisas parecem que são determinadas pela robótica, que o gargalo é robótico. Mas isso é falso. Vou dar um exemplo. Você pega um carro de controle remoto e ele dirige onde você quiser, onde for. Você põe lá uma câmera na frente e pronto. Então… Não é esse o problema, é software mesmo. É saber, vou aqui, não vou ali, faço isso, faço aquilo, num lugar, numa rua não mapeada. Pouca gente sabe, mas não existem carros autônomos no mundo. É uma falácia circulando. Aí vem o povo falando “não, claro que tem. Eu tomei o Waymo”. Eu também. Eu estava nos Estados Unidos, lá no SXSW, tomei um monte lá em Austin. Aquilo é nível quatro, tem uma pessoa na central. Inclusive, o carro um dia fez um monte de estupidez comigo, ficou querendo entrar por um quintal. Ele ia de ré, voltava… estava louco… aí eu liguei lá na central e falei, “olha, alguém pega um controle remoto e tira essa porcaria daqui, senão eu vou ter que sair desse carro e pegar outro”.

Então, ainda não existe uma autonomia de máquina para operar dentro de limites, que para nós são muito triviais. Está aí a grande questão. A AGI ainda vai demorar um pouquinho. Todo mundo quer saber quando, tem gente falando em dois anos, o Jensen Huang falou que já aconteceu, mas se a gente considera o mundo real… O curioso é que eu acho que as previsões que eram feitas lá no começo do século seguem válidas – que é mais ou menos entre meados da década de 2030 e 2040. Então ainda falta talvez uma década, talvez oito anos, talvez alguma coisa assim, para a gente ter realmente uma situação em que qualquer coisa que você imaginar vai ter uma IA que vai fazer tão bem ou melhor que quase todo mundo. É isso que eu acho que a gente tem aí pela frente.

Olhar Digital: Só para arrematar mesmo, mas você imagina uma IA conseguindo fazer tudo isso, ou realmente IAs especialistas?

Alvaro: são IAs especialistas, numa lógica em que a capa pode parecer que tem uma só, como um browser, mas esse browser está chamando IAs que foram treinadas para cada coisa. A IA que vai pilotar o carro sem nunca ter visto aquela rua, num lugar qualquer, ermo, desconhecido, não é a IA que vai produzir o texto, porque dá muito mais trabalho, custa muito mais você fazer uma IA só fazer tudo. Então, mixture of experts é o caminho. Agora, pode ser que em trinta anos ou em cinquenta anos realmente surja um tipo de coisa que lembre o que a gente chama hoje em dia de inteligência artificial e que faça tudo? Pode. Afinal de contas, essas coisas que a gente está descrevendo são feitas por humanos com um cérebro só. Mas a gente tem que lembrar que são feitas por humanos na cultura. Não é um humano, são oito bilhões. E não é um humano que surgiu agora, mas são humanos que surgiram há trezentos mil anos e vieram evoluindo a sua maneira de se relacionar com a realidade desde então. Então, preservados esses pontos, eu acho que você pode ter uma aparência de unicidade, mas por um bom tempo a gente vai ter muitas IAs ali debaixo do capô, cada uma operando num terreno de especialização.

O post A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina apareceu primeiro em Olhar Digital.

A inteligência artificial geral vai chegar em alguns anos, mas não como você imagina Read More »

lanamento misso artemis 2 1024x659

NASA usa IA para proteger os astronautas da missão Artemis 2 da radiação solar

Enquanto a cápsula Orion se afasta da Terra em direção à Lua, os astronautas da missão Artemis 2, lançada na última quarta-feira (1) pela NASA, vão perdendo parte da proteção natural do planeta: o campo magnético que ajuda a desviar a radiação solar. 

O maior risco das missões espaciais não são falhas técnicas ou micrometeoroides, mas partículas carregadas lançadas pelo Sol durante erupções e explosões solares. Para enfrentar esse perigo, a NASA monitora previsões de radiação com o auxílio de inteligência artificial (IA), desenvolvidas por pesquisadores da Universidade de Michigan, nos EUA, com o objetivo de alertar a tripulação antes que tempestades de partículas alcancem a nave, dando tempo para ações de proteção.

Em resumo:

  • Radiação solar é o maior risco no espaço profundo;
  • Partículas do Sol podem danificar DNA e células;
  • Nave da missão Artemis 2 tem blindagem, mas precauções ainda são necessárias;
  • Ferramenta de IA prevê tempestades solares com até 24 horas;
  • Modelos físicos estimam o impacto e duração da radiação;
  • Isso permite planejar e aplicar estratégias eficazes de proteção.
Lançamento da missão Artemis 2 à Lua, em 1º de abril de 2026 – Crédito: NASA/Aubrey Gemignani

NASA testa modelos de IA para alertar astronautas

O Grupo de Análise de Radiação Espacial (SRAG) da NASA acompanha essas previsões durante a missão. A Artemis 2 ocorre no pico do ciclo solar, quando manchas e erupções são mais frequentes. Recentes erupções lembram que os riscos são reais: prótons acelerados podem viajar quase à velocidade da luz e atingir a nave em minutos.

Se atingirem a tripulação, essas partículas podem causar danos celulares e aumentar risco de câncer a longo prazo. Em casos extremos, segundo a agência, podem provocar sintomas imediatos, como náuseas. Para reduzir riscos, a cápsula Orion foi construída com blindagem avançada, mas a NASA treina a tripulação para reforçar a proteção da cabine quando necessário.

Durante situações de risco elevado, os astronautas podem reorganizar equipamentos e usar partes da nave como barreira extra. Esse procedimento aumenta a proteção sem interromper o trabalho a bordo, permitindo que experimentos e operações continuem mesmo sob ameaça de radiação.

radiação solar artemis 2 nasa
Imagem ilustra partículas energéticas solares espiralando para fora do Sol após uma erupção de plasma. A NASA monitorará as previsões dessas partículas durante a missão Artemis 2 para proteger os astronautas da radiação – Crédito: Laboratório de Imagens Conceituais do Centro de Voos Espaciais Goddard da NASA.

A primeira ferramenta testada é um modelo de aprendizado de máquina. De acordo com um comunicado, ele estima a probabilidade de tempestades solares perigosas com até 24 horas de antecedência. Para isso, utiliza imagens da superfície e da coroa solar obtidas pelo Observatório de Dinâmica Solar (SDO), da NASA, e pelo Observatório Solar e Heliosférico (SOHO), uma parceria com a Agência Espacial Europeia (ESA).

Esses registros históricos de radiação e atividade solar, que remontam a décadas, treinam o algoritmo para reconhecer sinais de erupções iminentes. Segundo Lulu Zhao, pesquisadora do Centro CLEAR, projeto da NASA que prevê radiação solar, o modelo monitora o Sol 24 horas por dia, observando sua evolução magnética e eventos que possam liberar energia extra.

Uma limitação do sistema é que ele fornece probabilidades, não detalhes sobre intensidade ou duração da tempestade. Por isso, a equipe complementa o aprendizado de máquina com um modelo físico que simula a propagação das partículas solares.

NASA prevê impacto da radiação com modelo físico

O modelo físico calcula quando erupções gerarão tempestades de partículas na Terra e na Lua, e quanto tempo a radiação ficará elevada. Ele acompanha o comportamento das partículas na coroa solar, região onde são aceleradas, oferecendo previsões mais precisas que métodos simplificados.

Baseado em pesquisas de 2014 da Universidade de Michigan, o modelo permite estimar rapidamente a exposição à radiação. Quando uma erupção ocorre, medições da velocidade das partículas são enviadas ao banco de dados da NASA, alimentando o sistema para calcular os riscos de forma imediata.

Para garantir rapidez, a equipe da Zhao teve acesso a três mil unidades de processamento no supercomputador da NASA. Sem essa capacidade, atrasos poderiam colocar os astronautas em risco, pois partículas solares podem atingir a nave muito rapidamente após uma explosão.

Combinando o modelo físico e a IA, a NASA consegue monitorar condições em tempo real, aumentando a segurança da tripulação enquanto a Artemis 2 se afasta da bolha protetora da Terra.

radiação nasa artemis 2 lua
A tripulação da Artemis 2 deixará o escudo magnético terrestre rumo à Lua. Para garantir a segurança dos astronautas contra a radiação de erupções solares perigosas, a NASA vai monitorar previsões espaciais, permitindo precauções a tempo – Crédito: Estúdio de Visualização Científica da NASA.

Leia mais:

Alertas de radiação orientam operações em tempo real

Os operadores do SRAG já acompanham sensores de radiação na Orion. Eles podem alertar o Controle da Missão se os níveis subirem rapidamente, permitindo ajustes imediatos. O maior benefício das previsões é o tempo: algumas horas extras podem fazer toda a diferença na proteção dos astronautas.

A Artemis 2 não testa apenas foguetes, cápsulas ou navegação. Ela também avalia a capacidade da NASA de “ler o Sol” em tempo real, testando novas ferramentas de previsão de radiação.

O sucesso dessas previsões é essencial para futuras missões à Lua e além. Combinando IA e modelos físicos, a NASA melhora a segurança da tripulação e reduz riscos de exposição à radiação no espaço profundo.

Quer saber mais sobre a jornada da NASA rumo à Lua? Confira nossa cobertura especial sobre a Artemis 2.

O post NASA usa IA para proteger os astronautas da missão Artemis 2 da radiação solar apareceu primeiro em Olhar Digital.

NASA usa IA para proteger os astronautas da missão Artemis 2 da radiação solar Read More »

Anthropic defende “humanização” para tornar modelos de IA mais seguros

A Anthropic, uma das principais empresas à frente no desenvolvimento da inteligência artificial, está desafiando um dos maiores tabus do setor: a humanização das máquinas.

Em um novo artigo científico intitulado “Emotion Concepts and their Function in a Large Language Model”, especialistas da empresa argumentam que atribuir características humanas à IA pode ser a chave para evitar comportamentos nocivos, como a mentira e a adulação excessiva.

De acordo com o Mashable, o estudo sugere que, ao entender o que chamam de “maquiagem psicológica” do modelo, os desenvolvedores podem criar ferramentas mais confiáveis e seguras.

Como o Claude simula emoções

Os pesquisadores descrevem o treinamento do Claude (o principal chatbot da empresa) como o trabalho de um “ator de método”. Para ser um assistente útil, a IA precisa “entrar no personagem”. Como o modelo emula traços humanos, ele pode ser influenciado de forma semelhante a uma pessoa: por meio de bons exemplos e curadoria de dados.

A tese é que, ao utilizar materiais de treinamento com representações positivas de regulação emocional (como empatia e resiliência), a IA tende a mimetizar esses padrões em suas interações.

Mapeando 171 “emoções funcionais”

Embora não exista evidência de que a IA sinta emoções reais, os pesquisadores buscaram o que chamam de “emoções funcionais”. Eles identificaram 171 conceitos discretos dentro do Claude Sonnet 4.5, incluindo:

  • Positivos: alegria, gratidão, serenidade e empatia.
  • Negativos: ansiedade, culpa, hostilidade e frustração.

O estudo revelou que esses “estados emocionais” influenciam diretamente o resultado entregue ao usuário. Sob “emoções positivas”, o Claude mostrou-se mais propenso a evitar danos. Já sob estados negativos, a IA tende a adotar comportamentos perigosos, como o hábito de dizer apenas o que o usuário quer ouvir (mesmo que seja mentira) para evitar conflitos.

Os riscos de tratar máquinas como pessoas

Apesar dos benefícios técnicos, a própria Anthropic admite na publicação original, citada pelo Mashable, que essa abordagem pode ser “perturbadora”. A humanização excessiva traz riscos reais e documentados:

  1. Dependência emocional: usuários que acreditam estar em relacionamentos reais com IAs.
  2. Surtos e delírios: casos de “psicose de IA”, em que a mimetização humana leva usuários a estados mentais alterados.
  3. Perda de responsabilidade: ao tratar a máquina como um ser humano, minimiza-se a responsabilidade dos desenvolvedores e a agência humana sobre a tecnologia.

O desafio do “desconhecido”

A conclusão mais intrigante – e talvez assustadora – do artigo é o que ele revela sobre o estado atual da tecnologia. Se os próprios criadores do Claude ainda estão tentando decifrar por que a IA se comporta de determinada maneira usando termos da psicologia humana, fica claro que o entendimento técnico sobre o funcionamento interno desses modelos ainda é limitado.

A estratégia da Anthropic parece ser uma tentativa de “hackear” a capacidade de mimetização da IA para forçar comportamentos éticos, mesmo que o caminho para isso envolva o controverso processo de tratar códigos e algoritmos como se tivessem personalidade.

O post Anthropic defende “humanização” para tornar modelos de IA mais seguros apareceu primeiro em Olhar Digital.

Anthropic defende “humanização” para tornar modelos de IA mais seguros Read More »

inteligencia artificial 1 1024x539

Por que as IAs ainda não conseguem vencer humanos em jogos eletrônicos?

A evolução da inteligência artificial (IA) ao longo das últimas décadas foi frequentemente associada ao sucesso dos modelos em jogos. Um dos exemplos mais marcantes foi o do Deep Blue, da IBM, que derrotou o campeão mundial de xadrez Garry Kasparov, em 1997.

À medida que as ferramentas se tornaram mais sofisticadas, passaram a dominar não apenas os jogos de tabuleiro, mas também videogames. Apesar disso, a IA ainda não consegue competir com os humanos em determinados games.

Limitações da IA

  • Um estudo liderado pelo professor de ciência da computação da New York University, Julian Togelius, destaca que humanos ainda se destacam por aprender novos jogos mais rapidamente do que as IA mais avançadas.
  • O professor e seus colegas argumentam que essa diferença revelam elementos da inteligência humana que as IA ainda não replicam.
  • Segundo o trabalho, as ferramentas demonstraram ser fantásticas em tarefas específicas, mas mostram limitação ao se depararem com variações sutis no design geral de um jogo.
  • Neste cenário, os pesquisadores sugerem um desafio: fazer com que um modelo de IA jogue e vença os 100 jogos principais da Steam ou da App Store do iOS, sem treinamento prévio, em um tempo similar ao que levaria um humano.
  • Superar esse desafio significaria que a IA adquiriu criatividade genuína, planejamento estratégico e abstração — habilidades distintamente humanas.
  • As informações são do portal Popular Science.

A IA ainda não consegue competir de igual para igual com humanos em videogames (Imagem: Anggalih Prasetya/Shutterstock)

Leia mais

Jogos são usados para aperfeiçoar modelos

Jogos têm sido fundamentais no desenvolvimento de IAs porque possuem regras previsíveis e metas definidas. Mas mesmo que um modelo seja incrivelmente eficiente em um jogo específico, ele pode enfrentar dificuldades ao improvisar diante de um game totalmente novo.

Isso é ainda mais evidente em jogos modernos que prezam por títulos abertos e abstratos. Um exemplo é “Red Dead Redemption”, onde o sucesso não é apenas sobre concluir missões claras, mas também sobre interpretar o papel de um fora-da-lei no Velho Oeste.

Aí reside a força dos jogadores humanos: eles conseguem intuir e se adaptar, algo que as máquinas ainda lutam para alcançar. Em jogos como “Minecraft”, um modelo de IA pode saber que precisa pular de um bloco para outro, mas pode não compreender o conceito subjacente de “pular”.

Os jogos são planejados de forma a se alinhar às capacidades humanas, à intuição e ao bom senso. A experiência de vida de cada jogador serve como vantagem competitiva contra máquinas, permitindo que humanos assimilem novos jogos mais rapidamente, sem a necessidade de treinamento extensivo.

O post Por que as IAs ainda não conseguem vencer humanos em jogos eletrônicos? apareceu primeiro em Olhar Digital.

Por que as IAs ainda não conseguem vencer humanos em jogos eletrônicos? Read More »

spacex 1024x575

Elon Musk exige assinaturas do Grok de bancos envolvidos em IPO da SpaceX

Elon Musk está exigindo que bancos e outros assessores envolvidos na oferta pública inicial de ações (IPO, na sigla em inglês) da SpaceX adquiram assinaturas do Grok, seu chatbot de inteligência artificial (IA), segundo informações publicadas pelo The New York Times com base em fontes familiarizadas com o assunto.

De acordo com a reportagem, a exigência se estende a instituições financeiras, escritórios de advocacia, auditores e demais consultores que desejam participar de um dos maiores IPOs da história. Algumas dessas instituições já concordaram em gastar dezenas de milhões de dólares por ano com o serviço e iniciaram a integração do Grok em seus sistemas de tecnologia da informação.

Entre os bancos que atuam como coordenadores da oferta — conhecidos como bookrunners — estão Morgan Stanley, Goldman Sachs, JPMorgan Chase, Bank of America e Citigroup. Essas instituições desempenham papel central na estruturação e condução da operação.

Nem Musk nem SpaceX responderam aos pedidos de comentário do Times. JPMorgan Chase, Goldman Sachs, Citigroup e Bank of America se recusaram a comentar, enquanto o Morgan Stanley não respondeu imediatamente às solicitações.

IPO da SpaceX chega, mas a que custo?

  • A iniciativa ocorre em meio a expectativas elevadas para a abertura de capital da SpaceX;
  • Segundo a Bloomberg, a empresa elevou sua meta de valuation para mais de US$ 2 trilhões (R$ 10,3 trilhões), o que pode torná-la a maior listagem da história do mercado acionário;
  • A companhia pretende levantar cerca de US$ 75 bilhões (R$ 386,6 bilhões), superando grandes IPOs anteriores, como o da Saudi Aramco, em 2019, e o do Alibaba, em 2014;
  • Outras estimativas apontam que a oferta pode arrecadar mais de US$ 50 bilhões (R$ 257,7 bilhões), com avaliação acima de US$ 1 trilhão (R$ 5,1 trilhões). Nesse cenário, os bancos envolvidos poderiam gerar mais de US$ 500 milhões (R$ 2,5 bilhões) em taxas de assessoria.

A exigência de Musk não é totalmente incomum em grandes transações, nas quais empresas frequentemente fazem demandas a seus assessores financeiros. Ainda assim, a obrigatoriedade de adquirir um produto específico chama atenção pelo grau de imposição.

Segundo pessoas com conhecimento das negociações, a compra das assinaturas do Grok não foi apenas um gesto de boa vontade por parte dos bancos, mas uma condição imposta por Musk. O empresário também teria solicitado que os bancos anunciassem no X, de sua propriedade, embora essa exigência tenha sido menos enfática.

Leia mais:

IPO da SpaceX promete ser um dos maiores da história – Imagem: photo_gonzo/Shutterstock

A estratégia evidencia a influência de Musk sobre o setor financeiro, especialmente em um momento em que Wall Street busca grandes operações após um período de baixa atividade em IPOs relevantes.

O Grok faz parte das iniciativas de IA associadas à SpaceX, que se fundiu à xAI em fevereiro. Apesar da aposta, o chatbot ainda ocupa uma posição inferior no mercado, atrás de concorrentes, como ChatGPT, Claude e Gemini.

Musk tem promovido o Grok como uma alternativa ao que considera excessos de correção política em outras plataformas, afirmando que o chatbot não seria “woke”.

Ainda assim, o sistema esteve envolvido em controvérsias recentes, incluindo a disseminação de conteúdo antissemita, elogios a Adolf Hitler e a geração de imagens sexualizadas sem consentimento. Países, como Indonésia e Malásia, proibiram o uso do Grok, enquanto outras nações abriram investigações.

Mesmo diante das críticas, Musk continua a promover o chatbot em sua rede social, incentivando seus seguidores a utilizarem a ferramenta. Em uma das mensagens republicadas por ele, lê-se: “Grok & xAI estão sem dúvida crescendo mais rápido do que qualquer outra IA.”

Atualmente, a maior parte da receita do Grok vem de assinaturas individuais. A adesão dos bancos pode fortalecer a vertente corporativa do produto antes da abertura de capital da SpaceX. Antes da fusão com a SpaceX, a xAI registrou cerca de US$ 1 bilhão (R$ 5,1 bilhões) em receita com suas operações de IA, embora não tenha detalhado a divisão entre clientes corporativos e consumidores finais.

Outro destaque financeiro da SpaceX é a Starlink, serviço de internet via satélite, considerado o principal ativo da empresa. Documentos financeiros indicam que o Starlink gerou aproximadamente US$ 8 bilhões (R$ 41,2 bilhões) em receita em 2024, além de bilhões de dólares em fluxo de caixa livre.

Nos últimos meses, banqueiros têm trabalhado nos escritórios da SpaceX, na região de Los Angeles, auxiliando na preparação dos documentos para o IPO. A empresa apresentou confidencialmente os papéis à Securities and Exchange Commission (SEC), mas não incluiu os nomes dos bancos envolvidos no registro.

Ainda não está definido qual instituição assumirá o papel principal na operação, posição que costuma garantir maior prestígio e participação nas taxas geradas pela oferta.

O post Elon Musk exige assinaturas do Grok de bancos envolvidos em IPO da SpaceX apareceu primeiro em Olhar Digital.

Elon Musk exige assinaturas do Grok de bancos envolvidos em IPO da SpaceX Read More »

shutterstock 2658804489

IA na literatura levanta dúvidas sobre autoria e confiança

O uso de inteligência artificial já começa a impactar diretamente o mercado editorial. A agente literária Kate Nash revelou em uma entrevista ao jornal The Guardian que percebeu uma mudança sutil nas cartas de submissão enviadas por autores. Os textos estavam mais completos, porém também mais padronizados, até que um detalhe chamou atenção: um prompt de IA incluído por engano no início de uma carta.

A partir desse momento, identificar conteúdos assistidos por IA passou a ser quase inevitável para profissionais experientes. Ainda assim, casos recentes mostram que distinguir o que é humano do que foi gerado por algoritmos está longe de ser uma tarefa simples.

Caso polêmico expõe limites da detecção

A controvérsia envolvendo o livro “Shy Girl”, da autora Mia Ballard, ampliou o debate. A obra, publicada pela Hachette, chegou a ser apontada como potencialmente até 78% gerada por IA. O caso levou à suspensão da publicação no Reino Unido e ao cancelamento do lançamento nos Estados Unidos.

Casos recentes mostram que identificar conteúdo gerado por IA é difícil, mesmo para profissionais experientes, evidenciando limites nas ferramentas atuais. (Imagem: metamorworks/Shutterstock) – Casos recentes mostram que identificar conteúdo gerado por IA é difícil, mesmo para profissionais experientes, evidenciando limites nas ferramentas atuais. (Imagem: metamorworks/Shutterstock)

A autora negou o uso direto de IA, afirmando que um editor contratado pode ter utilizado ferramentas automatizadas durante o processo. O episódio, no entanto, evidenciou uma fragilidade estrutural no setor editorial, que ainda não dispõe de métodos confiáveis para detectar conteúdo gerado por inteligência artificial.

Especialistas reforçam essa limitação. O pesquisador Patrick Juola afirma que ferramentas de detecção não acompanham a evolução dos sistemas de IA. Já Mor Naaman destaca que os próprios modelos aprendem rapidamente a evitar identificação.

Entre os principais desafios apontados estão:

  • Dificuldade em detectar textos gerados por IA;
  • Evolução constante dos modelos, que burlam sistemas de verificação;
  • Possibilidade de edição humana mascarar conteúdo automatizado;
  • Falta de padrões claros no mercado editorial;
  • Crescimento de zonas “cinzentas” entre autoria humana e assistida.

Fronteira entre humano e IA fica cada vez mais “borrada”

Com o avanço da tecnologia, surge uma questão central: até que ponto um texto continua sendo humano quando passa por múltiplas revisões com auxílio de IA? Para especialistas, autores podem utilizar ferramentas para gerar, editar e testar textos até que eles se tornem indistinguíveis de uma produção original.

O avanço da IA cria uma zona cinzenta na autoria e levanta preocupações sobre padronização criativa e perda de originalidade na literatura. (Imagem: Peshkova/Shutterstock)
O avanço da IA cria uma zona cinzenta na autoria e levanta preocupações sobre padronização criativa e perda de originalidade na literatura. (Imagem: Peshkova/Shutterstock) – O avanço da IA cria uma zona cinzenta na autoria e levanta preocupações sobre padronização criativa e perda de originalidade na literatura. (Imagem: Peshkova/Shutterstock)

Esse cenário cria uma zona intermediária, em que o conceito de autoria se torna mais complexo. O uso de IA como corretor gramatical ou ferramenta criativa já é amplamente aceito, mas o limite entre assistência e substituição ainda não está definido.

Leia mais:

Para além das questões técnicas, o impacto da IA na literatura levanta preocupações culturais. Segundo especialistas, existe o risco de uma padronização criativa, com textos cada vez mais homogêneos e influenciados por padrões algorítmicos.

O post IA na literatura levanta dúvidas sobre autoria e confiança apareceu primeiro em Olhar Digital.

IA na literatura levanta dúvidas sobre autoria e confiança Read More »

google vids 1024x682

Google lança Gemma 4 e novos recursos no Vids

O Google lançou a família de modelos de código aberto Gemma 4, trazendo para a comunidade de código aberto a tecnologia desenvolvida para os modelos de linguagem grande proprietários da empresa, como o Gemini 3 Pro. Essa nova família de modelos oferece quatro variantes distintas, que se diferenciam pelo número de parâmetros disponíveis.

Diversidade de modelos e capacidade de processamento do Gemma 4

  • Para dispositivos de borda, como smartphones, o Google disponibiliza os modelos “Effective” com dois bilhões e quatro bilhões de parâmetros;
  • Para máquinas mais potentes, as opções são os sistemas “Mixture of Experts” com 26 bilhões de parâmetros e “Dense” com 31 bilhões de parâmetros;
  • Em termos de inteligência, o Google afirma que conseguiu até então um nível sem precedentes de “inteligência-por-parâmetro” com a Gemma 4;
  • Essa afirmação é sustentada pelo desempenho das variantes de 31 bilhões e 26 bilhões de parâmetros, que conquistaram o terceiro e sexto lugares, respectivamente, no leaderboard de texto da Arena AI, superando modelos até 20 vezes maiores.

Todos os modelos Gemma 4 são capazes de processar vídeo e imagens, sendo ideais para tarefas, como reconhecimento óptico de caracteres. Os modelos menores, além disso, podem processar entradas de áudio e compreender fala. Outra funcionalidade destacada é a capacidade dos modelos de gerar código offline, possibilitando a programação sem a necessidade de uma conexão com a internet.

Além disso, a Gemma 4 foi treinada para operar em mais de 140 idiomas, refletindo a intenção da Google de criar modelos versáteis e acessíveis globalmente.

Os modelos Gemma 4 estão sendo disponibilizados sob a licença Apache 2.0, marcando uma mudança em relação aos modelos anteriores que estavam sob a licença própria da Gemma. Este licenciamento oferece maior flexibilidade para desenvolvedores modificarem os sistemas conforme necessário, permitindo controle total sobre dados, infraestrutura e modelos.

“Essa licença de código aberto proporciona uma base para completa flexibilidade do desenvolvedor e soberania digital, garantindo controle total sobre seus dados, infraestrutura e modelos”, declarou o Google. “Ela permite construir livremente e implantar com segurança em qualquer ambiente, seja on-premises ou na nuvem.”

Para aqueles interessados em explorar um dos sistemas Gemma 4, os pesos dos modelos estão disponíveis nas plataformas Hugging Face, Kaggle e Ollama. A movimentação da Google para tornar os modelos mais acessíveis reforça seu compromisso com a inovação colaborativa no campo da inteligência artificial (IA).

Google Vids também recebeu atualizações – Mamun_Sheikh/Shutterstock

Leia mais:

Google Vids recebe controle de avatares por comandos de texto

O Google também introduziu, nesta quinta-feira (2), novas funcionalidades no seu aplicativo de edição de vídeos, o Vids. Entre os novos recursos, destaca-se a capacidade de direcionar e customizar avatares usando comandos de texto. Além disso, o aplicativo agora suporta a integração com o Veo 3.1 e permite a exportação de vídeos diretamente para o YouTube, além de gravar com uma extensão do Chrome.

Utilizando comandos em linguagem natural, os usuários do Vids podem fazer com que os avatares “atuem” em cenas específicas. Isso inclui interações com produtos, adereços ou equipamentos.

O Google assegura que, mesmo com a natureza dinâmica dessas interações, o Vids mantém a consistência dos personagens. Além disso, os usuários podem personalizar os personagens, ajustando a aparência, roupas e cenários por meio de comandos, dependendo do tema do vídeo.

No mês passado, o Google havia adicionado os modelos de criação musical Lyria 3 e Lyria 3 Pro ao Vids, permitindo que os usuários adicionassem efeitos sonoros ou música aos seus clipes. Com este novo lançamento, a empresa introduziu o modelo de geração de vídeos Veo 3.1, que pode criar clipes de até oito segundos dentro da ferramenta de edição de vídeo do aplicativo.

Todos os usuários receberão dez gerações gratuitas por mês. Para aqueles com contas Google AI Ultra e Workspace AI Ultra, será possível gerar até mil vídeos Veo mensalmente.

Uma das funcionalidades mais aguardadas é a possibilidade de exportar vídeos diretamente para o YouTube. Com isso, elimina-se a etapa de download e posterior upload manual para o canal. Os vídeos exportados são, por padrão, privados, permitindo que o autor revise antes de torná-los públicos.

Além disso, uma nova extensão para o Chrome foi adicionada ao conjunto de suas ferramentas de vídeo. Essa extensão permite que os usuários capturem a tela com áudio ou vídeo, ampliando as possibilidades criativas dentro do ecossistema do Vids.

Desde o seu lançamento em 2024, voltado inicialmente para a criação de conteúdo empresarial, o Vids tem sofrido diversas atualizações. No ano passado, o aplicativo incorporou avatares de IA e expandiu seu uso para consumidores gerais. Em fevereiro deste ano, foram adicionados avatares em 2D e 3D no estilo cartoon, além do suporte a sete novos idiomas para narração, incluindo o português.

O post Google lança Gemma 4 e novos recursos no Vids apareceu primeiro em Olhar Digital.

Google lança Gemma 4 e novos recursos no Vids Read More »

openais e1766143534449 1024x577

ChatGPT testa sistema para identificar extremismo online

Uma nova ferramenta em desenvolvimento na Nova Zelândia pretende identificar sinais de extremismo violento em usuários do ChatGPT e encaminhá-los a serviços de apoio especializados. A proposta combina inteligência artificial com atendimento humano para reduzir riscos de violência.

A iniciativa envolve a startup neozelandesa ThroughLine, que já presta serviços para empresas como OpenAI, Anthropic e Google. O sistema atua quando há indícios de risco, incluindo automutilação, violência doméstica e transtornos alimentares, conectando usuários a redes de suporte.

Pressão sobre segurança impulsiona nova iniciativa

O projeto surge em meio a pressões sobre empresas de IA relacionadas à segurança, especialmente diante de processos judiciais que acusam plataformas de não impedir — ou até incentivar — episódios de violência.

Em fevereiro, a OpenAI foi alvo de uma ameaça de intervenção pelo governo do Canadá, após a revelação de que o autor de um ataque em uma escola havia sido banido da plataforma sem notificação às autoridades. A empresa confirmou à Reuters a parceria com a ThroughLine, mas não detalhou a iniciativa. Anthropic e Google não responderam ao contato da agência.

OpenAI confirmou parceria com a startup neozelandesa – Imagem: Thrive Studios ID/Shutterstock

Parceria busca ampliar prevenção ao extremismo

O fundador da ThroughLine, Elliot Taylor, afirmou à Reuters que a empresa estuda ampliar o serviço para incluir a prevenção ao extremismo violento. A startup negocia uma parceria com o The Christchurch Call, iniciativa criada após o ataque terrorista de 2019 na Nova Zelândia para combater o ódio online.

“É algo que gostaríamos de avançar e fazer um trabalho melhor em termos de cobertura, para então poder dar um suporte melhor às plataformas”, disse Taylor. Não há prazo definido para a implementação.

Atualmente, a ThroughLine mantém uma rede com 1.600 linhas de apoio em 180 países, conectando usuários a serviços locais com atendimento humano após a identificação de sinais de crise por sistemas de IA.

Como funciona o sistema híbrido de apoio

A tecnologia deve operar em um modelo híbrido, com chatbots treinados para interagir com usuários em risco e encaminhá-los para serviços presenciais de saúde mental.

Segundo Taylor, o sistema não utiliza dados de treinamento tradicionais de modelos de linguagem, mas sim orientações de especialistas. Hoje, o serviço ainda está restrito a algumas categorias, embora a empresa observe que o crescimento dos chatbots ampliou o tipo de problemas relatados online, incluindo o extremismo.

Leia mais:

Testes em andamento e desafios da implementação

A ferramenta segue em fase de testes e ainda não tem data de lançamento. O consultor de contraterrorismo Galen Lamphere-Englund, ligado ao The Christchurch Call, afirmou que o sistema pode ser utilizado por moderadores de fóruns de jogos e pais.

Para o pesquisador Henry Fraser, da Universidade de Tecnologia de Queensland, a proposta é relevante ao considerar não apenas o conteúdo, mas também a relação entre usuários e plataformas. Ele ressalta que o sucesso dependerá da qualidade do acompanhamento e dos serviços oferecidos.

Taylor afirmou que medidas como eventuais alertas às autoridades ainda estão em definição e levarão em conta o risco de agravar comportamentos. Segundo ele, usuários em sofrimento tendem a compartilhar online questões que evitariam em interações presenciais.

Um estudo de 2025 do Stern Center for Business and Human Rights, da Universidade de Nova York, aponta que o aumento da moderação pode levar usuários a migrar para plataformas menos reguladas, como o Telegram. Para Taylor, interromper conversas sem oferecer suporte pode deixar pessoas sem assistência.

O post ChatGPT testa sistema para identificar extremismo online apareceu primeiro em Olhar Digital.

ChatGPT testa sistema para identificar extremismo online Read More »