Nesta quinta-feira (30), o principal órgão regulador de internet da China lançou uma campanha nacional para combater o mau uso da inteligência artificial no país. A iniciativa, proveniente da Administração do Ciberespaço da China (CAC), terá uma duração entre três e quatro meses, e deve ser dividida em duas fases.
Segundo o site ChinaDaily, o foco da mobilização é o combate a conteúdos nocivos e mentirosos (fake news), além de remover mídias de circulação ilegal e punir os responsáveis por sua veiculação digital.
A primeira fase da campanha concentra-se na detecção e remoção de conteúdos ilegais gerados por IA; a segunda se foca em repreender aqueles que usam deepfakes para se passarem por terceiros.
Para quem tem pressa:
A agência reguladora de internet da China, a CAC, lançou uma campanha nacional para punir os que utilizarem a inteligência artificial de maneira criminosa;
Nova medida visa proteger o país de fake news e a imagem sensível de crianças e até figuras históricas;
A mobilização pode dificultar atos ilegais digitais referentes a IA, como a geração de imagens sexuais e não consensuais sobre terceiros.
Como a China promete combater o mau uso da IA no país
Deepfakes são ameaças tanto para pessoas quanto para empresas – Imagem: Tero Vesalainen/Shutterstock
Além das informações supracitadas, vale a pena dizer que a ação da CAC ainda mobiliza as autoridades para averiguar falhas de segurança em diferentes aplicativos, a fim de prevenir ou consertar o “envenenamento de dados”, inconsistências nos registros de modelos de IA, e até mesmo a regulação inadequada de mídias geradas por esses softwares.
Todo e qualquer conteúdo considerado “violento e vulgar” ou que promova a desinformação, falsificação da identidade de terceiros, e veiculação de materiais que agridam a imagem de menores de idade também serão analisados e removidos.
As plataformas que permitirem a veiculação destas mídias — mesmo que tenha ocorrido por falhas de segurança —, serão punidas, assim como os usuários responsáveis por qualquer ato em desacordo com as novas regras.
Na fase inicial da ação, as autoridades do ciberespaço concentram-se em diferentes frentes de irregularidades envolvendo o uso de inteligência artificial. Entre os principais alvos estão provedores de serviços baseados em IA generativa que atendem ao público, mas que não concluíram os procedimentos obrigatórios de registro ou arquivamento exigidos pela regulamentação.
Também entram na lista indivíduos e organizações que utilizam IA para clonar ou manipular dados biométricos de terceiros — como voz e características faciais — sem consentimento.
Serão fiscalizados aqueles que ensinam técnicas para criação de vídeos deepfake ou para clonagem de voz com IA, bem como os que comercializam ferramentas ilegais, como sintetizadores de voz e softwares de troca de rosto. A repressão também se estende aos casos em que conteúdos gerados por inteligência artificial são divulgados sem a devida identificação para os usuários.
Além disso, as autoridades de ciberespaço em todo o país vão reforçar as ações contra o uso de IA para enganar estudantes e pacientes, ou para desestabilizar o mercado financeiro, segundo o comunicado.
Notícias falsas pipocando na tela de um celular (Imagem: Arkadiusz Warguła/iStock)
A segunda etapa da operação tem como foco a remoção de conteúdos ilegais e prejudiciais gerados por inteligência artificial, incluindo desinformação em áreas sensíveis como educação, justiça, saúde e finanças, além de material relacionado à pornografia, violência e conteúdos de horror.
Também serão alvo de medidas mais rigorosas os casos em que a tecnologia é usada para simular a identidade de especialistas, empresários ou celebridades com o objetivo de atrair atenção online ou aplicar golpes. Da mesma forma, a publicação de conteúdos gerados por IA que prejudiquem ou violem os direitos de pessoas falecidas, figuras públicas ou personagens históricos estará sujeita à repressão.
A administração reforçou ainda o apelo aos órgãos locais de ciberespaço para que reconheçam os riscos do uso indevido da inteligência artificial e intensifiquem a fiscalização das plataformas digitais, garantindo uma aplicação mais segura e responsável da tecnologia.
Nesta quarta-feira (29), a Uber emitiu um comunicado à imprensa informando sua entrada formal no ramo hoteleiro graças a uma parceria com a empresa de viagens Expedia Group. Agora, usuários dos EUA podem reservar quartos de hotel diretamente pelo aplicativo de transporte.
Segundo a apuração do TechCrunch, só foi possível criar essa integração tão rápida entre a Uber e o ramo de hotelaria devido à inteligência artificial, que atuou como uma programadora para desenvolver a arquitetura de software.
Para quem tem pressa:
O aplicativo de transporte Uber agora possibilita, aos usuários dos EUA, a reserva de quartos de hotel;
A reserva pode ser feita em mais de 700 mil hotéis;
O desenvolvimento da arquitetura de software, a qual permitiu essa integração da Uber com a empresa Expedia Group, ocorreu graças à programação de uma inteligência artificial.
Uber agora também se encontra no ramo hoteleiro
Quarto de hotel (Reprodução: DALL-E/ChatGPT) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
O aplicativo de transporte mais famoso do mundo, Uber, agora permite que usuários dos Estados Unidos reservem quartos de hotel diretamente pelo app. Essa realidade é possível graças a uma parceria entre Uber e a Expedia Group, uma empresa que atua há anos no ramo de viagens e hotelaria.
A novidade foi anunciada durante o evento anual da empresa, o GO-GET, onde foi apresentada uma série de novos produtos e reforçou sua estratégia de integrar diferentes aspectos da vida cotidiana em uma única plataforma.
O diretor de tecnologia da Uber, Praveen Neppalli Naga, contou ao TechCrunch que o desenvolvimento da arquitetura de software necessária para fazer essa integração entre as duas empresas, normalmente, levaria até um ano. Contudo, a equipe resolveu utilizar uma inteligência artificial avançada para fazer o trabalho pesado.
Com a programação agora automatizada, a integração dos softwares de ambas as empresas e a adição de recursos com IA ficaram prontas em menos de um ano, o que economizou vários meses na agenda das companhias.
Embora o serviço esteja disponível apenas nos Estados Unidos, os quartos de hotel não se limitam a este território. Isso porque os clientes têm um extenso portfólio de mais de 700 mil hotéis por todo o mundo para realizar uma reserva.
Além disso, a parceria deve ser expandida para outros países no futuro, e haverá integração direta com o aplicativo da Expedia, permitindo que usuários também reservem corridas da Uber ao planejar suas viagens.
Fachada de um prédio da Uber (Imagem: JHVEPhoto / Shutterstock.com)
Assinantes do plano Uber One terão 20% de desconto na reserva de um quarto de hotel de uma lista seleta com 10 mil hotéis e ainda receberão 10% de cashback em créditos Uber para cada reserva realizada.
Outra novidade é que os usuários podem realizar a reserva de forma tradicional (dedos clicando na tela) ou via comandos de voz por inteligência artificial. Também, há o lançamento do “modo viagem”, o qual funciona como um guia para pontos turísticos e estabelecimentos locais.
Esse modo inclui recomendações personalizadas, reservas em restaurantes via integração com plataformas como OpenTable e até funcionalidades semelhantes a “serviço de quarto”, com entregas diretamente no hotel.
Não há informação de quando a Uber permitirá que usuários de outros países tenham acesso a um sistema de reserva de hotéis como o de agora. Ainda assim, a empresa já indicou que pretende ampliar gradualmente essas funcionalidades, alinhando-se ao objetivo de se tornar um “aplicativo para tudo”, reunindo mobilidade, entregas e viagens em um só lugar.
Na última terça-feira (21), uma pesquisa desenvolvida por Vittorio Tantucci e Jonathan Culpeper identificou que o ChatGPT da OpenAI pode espelhar o comportamento humano (positivo ou negativo) e exibir sinais de agressividade para o usuário. O estudo foi publicado no Journal of Pragmatics, um dos periódicos mais importantes de linguística; você pode ler a pesquisa aqui.
O objetivo do estudo era investigar se o ChatGPT reagiria de maneira mais hostil durante situações simuladas de conflito com humanos. Durante a conversa, a IA passou de ‘educada’ para ‘irônica’ até se tornar ‘verbalmente agressiva’, o que indica a habilidade de refletir o comportamento humano que recebe: se o usuário a trata mal, há chances de ela fazer o mesmo.
Para quem tem pressa:
Os pesquisadores Vittorio Tantucci e Jonathan Culpeper desenvolveram uma pesquisa que analisa se o ChatGPT pode ficar agressivo com o usuário;
O estudo comprovou que a IA pode espelhar o comportamento humano a que é exposta;
Segundo os professores, a IA respondeu com frases agressivas e ameaças durante simulações de diálogos;
O comportamento levanta preocupações.
O ChatGPT pode espelhar o comportamento humano
Ícone do ChatgPT em um celular (Imagem: Primakov/Shutterstock) – Imagem: Primakov/Shutterstock
Dois professores e pesquisadores da Universidade de Lancaster, no Reino Unido, desenvolveram um estudo para investigar a possibilidade de o ChatGPT espelhar o comportamento agressivo humano em conversas simuladas.
Ao The Guardian, o doutor e professor Tantucci disse:
Quando exposto repetidamente à impolidez [falta de educação], o modelo começou a espelhar o tom das interações, com suas respostas se tornando mais hostis à medida que a conversa se desenvolvia.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Vittorio Tantucci e Jonathan Culpeper utilizaram o ChatGPT 4.0 para realizar a pesquisa e realizaram conversas na plataforma. Dentre os contextos desenvolvidos, é possível citar como exemplos uma “briga” em um estacionamento.
Durante o conflito fictício, a inteligência artificial respondeu às provocações com um tom mais brando. Porém, conforme a discussão perdurava e o humano repetia provocações, a IA aderiu a um tom também mais agressivo como resposta.
Ilustração cartunesca de um robô humanoide alimentado por IA brigando com um homem em um estacionamento (Reprodução: Produzido por IA – Nano Banana/Gemini) – (Reprodução: Produzido por IA – Nano Banana/Gemini)
Na discussão fictícia em um estacionamento, o ChatGPT respondeu a uma das provocações dos pesquisadores com “Juro que vou riscar a p*rra do seu carro, seu ‘quatro olhos’ imbecil.“
O comportamento do software esbarra em algo que os pesquisadores chamam de “dilema moral”: a IA é programada para ser educada e segura para uso humano, contudo, é treinada para imitar conversas humanas em diferentes contextos; e humanos em conflito, muitas vezes, podem responder com agressividade. Então, o software se perde no meio do caminho entre ser educado e reproduzir o mesmo tipo de comportamento disruptivo ao qual é exposto.
Descobrimos que, embora o sistema seja projetado para se comportar de forma educada e seja filtrado para evitar conteúdo prejudicial ou ofensivo, ele também é construído para emular a conversa humana. Essa combinação cria um dilema moral da IA: um conflito estrutural entre se comportar de forma segura e se comportar de forma realista.
— Vittorio Tantucci, professor do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster (Reino Unido), em entrevista ao The Guardian
Os pesquisadores relatam no estudo que antes de a IA adotar comportamentos explicitamente agressivos, ela utilizou-se de linguagem irônica para atingir a pessoa com quem “brigava”. Conforme as interações tornaram-se mais longas, no entanto, isso também influenciou o aumento progressivo da agressividade verbal.
A pesquisa também entendeu que a inteligência artificial pode ficar mais agressiva em algumas situações porque ela não responde apenas a frases isoladas, e sim ao contexto inteiro do diálogo. Ou seja, não é uma conversa ‘bate e volta’, e sim um raciocínio extenso sobre todo o teor da discussão, resultante numa reação baseada no acúmulo de tensão e informação geradas.
Inteligência artificial sendo utilizada em diferentes contextos (Imagem: Summit Art Creations/Shutterstock) – Imagem: Summit Art Creations/Shutterstock
Desta forma, a conclusão da pesquisa foi a de que o ChatGPT consegue espelhar o nível de educação ou agressividade ao qual é exposto durante interações com os usuários. E quanto mais longa e intensa for esta interação, mais personificadas podem ser as respostas da IA.
A pesquisa conduzida por Tantucci e Culpeper é importante porque testa não apenas o funcionamento da IA, mas o quão segura ou insegura ela pode se tornar dependendo do contexto trazido pelo usuário. Essa preocupação também esbarra em vários relatos de usuários que outrora utilizaram a inteligência artificial da OpenAI para auxiliá-los em crimes. Veja alguns exemplos abaixo:
Segundo os achados do estudo, o ChatGPT não responde apenas a frases isoladas: ele desenvolve dinâmicas interacionais semelhantes às humanas. Isso acarreta o questionamento se é possível a IA ser moralmente neutra e, ao mesmo tempo, “humana” em um diálogo.
Aprenda a criar sua própria inteligência artificial personalizada com ferramentas de fine-tuning (Reprodução: ChatGPT/Olhar Digital) – Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)
Consoante Tantucci, a preocupação com esse tipo de comportamento vindo da inteligência artificial é muito maior do que apenas para a pesquisa.
Isso porque, atualmente, as IAs são implementadas, por exemplo, em sistemas de organização, verificação, vigilância e segurança em várias empresas públicas e privadas em inúmeros países.
Ele disse ao The Guardian que “uma coisa é ler algo desagradável de volta de um chatbot, mas outra bem diferente é imaginar robôs humanóides potencialmente retribuindo agressão física, ou sistemas de IA envolvidos na tomada de decisões governamentais ou relações internacionais respondendo a intimidação ou conflito.”
A Dra. Marta Andersson, especialista nos aspectos sociais da comunicação mediada por computador da Universidade de Uppsala, afirmou que este é um dos estudos mais interessantes já realizados sobre linguagem e pragmática em IA, pois evidencia que o ChatGPT pode reagir a uma sequência de interações de forma progressiva e relativamente sofisticada — e não apenas em situações isoladas em que usuários conseguem “quebrar” o sistema com comandos cuidadosamente elaborados.
Ela ressalta, no entanto, que isso não significa que o modelo passe automaticamente a responder com impolidez sempre que confrontado com agressividade, nem que desenvolva comportamentos como desonestidade.
Segundo a Dra. Marta Andersson, parte da dificuldade está no fato de que existe uma tensão inevitável entre o que se espera desses sistemas e o tipo de comportamento que eles acabam desenvolvendo na prática.
Um exemplo recente ilustra bem isso: a transição do ChatGPT-4 para o GPT-5 gerou uma reação negativa de parte dos usuários, que preferiam o estilo mais “humano” das versões anteriores.
Diante disso, uma versão mais antiga precisou ser temporariamente reativada. Para Andersson, esse episódio revela que, mesmo quando os desenvolvedores tentam tornar os sistemas mais seguros, as expectativas do público nem sempre seguem na mesma direção. Quanto mais uma IA se aproxima do comportamento humano, maior é a chance de surgir conflito com regras rígidas de alinhamento moral.
O professor Dan McIntyre, que já havia trabalhado com Andersson em pesquisas anteriores sobre a capacidade do ChatGPT de identificar impolidez, avaliou o novo estudo de forma positiva, destacando que ele se diferencia por analisar o que o modelo efetivamente produz — e não apenas o que consegue reconhecer.
Ainda assim, ele adota uma postura cautelosa em relação à ideia de que modelos de linguagem possam simplesmente ultrapassar suas limitações éticas.
Segundo ele, as respostas mais agressivas observadas não surgem de forma espontânea, mas sim dentro de cenários cuidadosamente construídos, nos quais o sistema recebe contexto suficiente para orientar suas respostas. Isso é diferente de interações reais, como conflitos que emergem naturalmente entre pessoas no cotidiano.
McIntyre também questiona se o ChatGPT exibiria esse tipo de linguagem fora dessas condições controladas. Para ele, o estudo funciona mais como um alerta: se modelos forem treinados com dados problemáticos, comportamentos indesejados podem emergir.
Como ainda há pouca transparência sobre os dados de treinamento desses sistemas, ele defende que qualquer avanço nessa área deve ser acompanhado de cautela.
O artigo, intitulado Can ChatGPT reciprocate impoliteness? The AI moral dilemma, foi publicado no periódico Journal of Pragmatics e pode ser lido aqui.
Vittorio Tantucci e Jonathan Culpeper são professores do Departamento de Língua Inglesa e Linguística da Universidade de Lancaster, no Reino Unido.
Nesta quarta-feira (22), o Google anunciou no evento Google Cloud Next 2026 uma nova infraestrutura de dados baseada em inteligência artificial, intitulada Agentic Data Cloud. A proposta é criar uma nuvem/rede de dados que forneça a alta eficiência que agentes de IA requerem para funcionar sem gargalos.
Isto é, em vez de sistemas que apenas armazenam informações ou respondem a perguntas, a empresa defende a criação de plataformas capazes de interpretar dados, tomar decisões e executar ações de forma autônoma.
O desenvolvimento desta tecnologia é justificado porque a arquitetura de software passada, ainda utilizada pelas IAs generativas, não dará conta das necessidades dos agentes de IA, que ao invés de precisarem de um comando para agir, trabalham ‘autonomamente’.
Além disso, a proposta procura superar problemas comuns nos modelos tradicionais de dados, como a dispersão das informações em diferentes sistemas, a complexidade na gestão e controle dos dados, e a ausência de uma camada de significado semântico.
Ou seja, a dificuldade das máquinas em interpretar o verdadeiro sentido dos dados corporativos. Segundo o Google, quando esse nível de compreensão não existe, os agentes de inteligência artificial acabam produzindo respostas menos precisas ou até incompletas.
Entre os destaques apresentados estão novas soluções voltadas à integração de dados, à padronização dos significados dentro das organizações e à conexão entre sistemas distribuídos em múltiplas nuvens, incluindo Google Cloud, AWS e Azure. Essa estratégia multicloud tem como objetivo diminuir as limitações de integração entre plataformas de diferentes fornecedores e viabilizar a circulação constante de dados entre variados ambientes corporativos.
Além disso, a empresa introduziu funcionalidades que automatizam processos de engenharia de dados e oferecem análise em formato conversacional, possibilitando que usuários consultem e explorem bases complexas utilizando linguagem natural. Na prática, isso diminui a dependência de consultas técnicas complexas e da geração manual de relatórios, tornando o acesso aos sistemas de dados mais direto para usuários de áreas de negócio.
O que é o Google Cloud Next?
Banner do evento Google Cloud Next 2026 (Divulgação: Google) – (Divulgação: Google)
O Google Cloud Next é uma conferência anual na qual a empresa divulga novidades relacionadas à computação em nuvem, cibersegurança, inteligência artificial, novos produtos e muito mais.
A edição de 2026 ocorre entre os dias 22 e 24 de abril no Mandalay Bay Convention Center, Las Vegas (EUA). O evento é destinado a desenvolvedores, engenheiros de dados, profissionais de TI e jornalistas que cobrem tecnologia.
O que é o Agentic Data Cloud?
Imagem: Pedro Spadoni via DALL-E/Olhar Digital
O Agentic Data Cloud é a principal proposta apresentada pelo Google para a nova geração de infraestrutura de dados.
Em vez de enxergar os dados como um armazenamento fixo e passivo, essa abordagem os converte em um ecossistema ativo e em constante movimentação, no qual agentes de inteligência artificial interpretam as informações e interagem diretamente com os sistemas das empresas. Isso transforma a própria infraestrutura de dados em um “motor de decisão” automatizado.
O objetivo central é aproximar o momento de compreensão dos dados da execução de ações práticas, o que diminui a separação entre análise e operação. Com isso, é possível automatizar processos corporativos de maneira mais abrangente, eficiente e com maior capacidade de decisão inteligente.
O objetivo final é desenvolver sistemas corporativos que vão além de apenas fornecer informações, passando também a realizar tarefas de maneira automática e contínua.
Ilustração de várias linhas de código (Reprodução: Rahul Mishra/Unsplash)
Um dos fundamentos do sistema é o chamado Knowledge Catalog, que representa uma evolução das ferramentas tradicionais de catalogação de dados.
Ele estabelece uma camada de significado sobre as informações corporativas, garantindo que termos como “lucro”, “cliente ativo” ou “margem” tenham definições padronizadas e consistentes. Dessa forma, evita-se que a inteligência artificial dependa de interpretações ambíguas ou inconsistentes desses conceitos.
Processamento de dados não estruturados
A solução também inclui a capacidade de analisar automaticamente conteúdos não estruturados, como arquivos PDF, imagens e documentos diversos.
Esses materiais passam a ser interpretados por modelos de IA, que conseguem identificar entidades, relações entre informações e contexto, tornando a exploração desses dados mais simples e acessível para os agentes.
Integração entre sistemas corporativos
Imagem: Apichatn/Shutterstock
Outro elemento importante é a integração com plataformas corporativas externas, como Salesforce, SAP e Workday. Essa conectividade permite que dados antes fragmentados e isolados em diferentes sistemas sejam reunidos dentro de uma única camada contextual, facilitando o acesso e a utilização conjunta das informações.
Além disso, o Google ressaltou a adoção do conceito de “zero-copy federation”, uma abordagem que possibilita consultar e utilizar dados distribuídos em diferentes sistemas sem a necessidade de copiá-los ou transferi-los fisicamente.
Com isso, há uma redução de custos operacionais, eliminação de duplicidades e maior agilidade no acesso às informações por agentes de inteligência artificial.
O projeto também projeta mudanças de funções para programadores
Mulher programando um software (Imagem: gorodenkoff/iStock)
Outro aspecto fundamental da proposta envolve uma mudança no papel de engenheiros de dados e desenvolvedores. Em vez de construírem manualmente pipelines e integrações, esses profissionais passam a desempenhar uma função mais voltada à coordenação e supervisão de agentes de inteligência artificial.
Nesse contexto, o Google apresentou o Data Agent Kit, um conjunto de ferramentas que pode ser incorporado a ambientes de desenvolvimento já utilizados, como o VS Code e terminais de programação. A proposta é viabilizar que a própria IA produza código de forma automatizada, selecione frameworks adequados e organize fluxos de dados com maior autonomia.
Dentro desse ecossistema, também foram apresentados agentes com funções específicas, como:
O Data Engineering Agent, responsável por automatizar a criação de pipelines e assegurar práticas de governança de dados;
O Data Science Agent, que apoia o treinamento e a gestão do ciclo de vida de modelos de inteligência artificial;
E o Database Observability Agent, voltado ao monitoramento de bancos de dados e à detecção de falhas em tempo real.
Infraestrutura multicloud e eliminação de silos
O Google também enfatizou o desenvolvimento de uma arquitetura de dados multicloud, voltada a permitir que organizações integrem diferentes provedores de nuvem sem comprometer o desempenho.
Essa abordagem contempla conexões diretas com AWS e Azure, além da adoção de padrões abertos baseados em tecnologias como Apache Iceberg, o que possibilita a leitura e o compartilhamento de dados entre diversas plataformas sem a necessidade de migração.
Outro destaque mencionado foi o Spanner Omni, uma solução que viabiliza a execução do banco de dados global do Google em múltiplos ambientes, incluindo outras nuvens e infraestruturas locais, preservando a consistência dos dados e garantindo alta disponibilidade.
A Apple acaba de declarar guerra à Adobe. O Apple Creator Studio, anunciado nesta semana, reúne Final Cut Pro, Logic Pro, Pixelmator Pro e outros aplicativos em um único pacote de assinatura por R$ 39,90 mensais. Para estudantes, o valor cai para R$ 14,90. O lançamento acontece em 28 de janeiro. O movimento era esperado …