chatbot

Auto Added by WPeMatico

claude chatgpt scaled e1772626568145 1024x577 1

5 prompts para obter respostas mais inteligentes no Claude, IA da Anthropic

Os chatbots alimentados por inteligência artificial demonstram utilidade para muitas tarefas, sugestões de conteúdo, e até para a revisão de texto. Mas o que fazer quando enviamos um comando e a IA devolve com uma resposta medíocre? Nesse caso, o problema costuma ser o prompt utilizado e não o software da plataforma.

Para resolver isso, elaboramos uma lista de prompts para você utilizar no Claude (IA da Anthropic) e, com isso, obter respostas satisfatórias do chatbot. Os comandos devem melhorar não apenas a qualidade do resultado obtido, mas também a riqueza de detalhes ofertada em cada mensagem.

5 prompts para melhorar a qualidade das respostas do chatbot Claude

Apps com chabots alimentados por IA (Imagem: Tada Images/Shutterstock) – Imagem: Tada Images/Shutterstock

Exija perguntas para refinar o conteúdo final

Há muitos prompts bons lá fora, mas nem sempre eles embarcam toda a complexidade de nosso pensamento. A principal consequência disso é o chatbot enviar respostas que não contemplem tudo aquilo que esperávamos.

Por isso, uma ótima ideia para que a IA ofereça um melhor desempenho, é instigá-la a fazer perguntas. Ou seja, ao invés de você mandar um prompt completo sobre a geração de uma imagem, por exemplo, é possível solicitar que o chatbot realize uma lista de perguntas sobre o que você quer ver/espera da imagem. Isso pode refinar a resposta dele para algo bem próximo do que você precisa.

O prompet pode ser algo simples, como:

  • Faça-me as perguntas de que você precisa para entender melhor este projeto. [Insira o projeto/prompet em seguida]

Agora, se deseja algo ainda mais refinado, você pode fornecer a IA uma série de informações ricas e detalhadas e, em seguida, utilizar algo como:

  • Antes de começar a tarefa, revise todas as informações fornecidas e faça todas as perguntas necessárias para aumentar as chances de entregar o resultado que procuro. Numere as perguntas e, sempre que possível, formule-as de forma que possam ser respondidas com ‘sim’ ou ‘não’, para facilitar respostas rápidas e claras.

Impeça a produção de informações falsas

A não ser que você tenha pedido (e muito provavelmente não foi o caso), é indicado dizer ao chatbot que ele não pode inventar coisas que não existam, sejam o nome de pessoas, obras, citações, links ou informações.

Para isso, em algum lugar dentro do seu prompt, insira instruções claras do que o chatbot não pode fazer. Por exemplo:

  • Tudo bem se você não tiver alguma informação, mas seja sincero quanto a isso;
  • Não crie informações/dados mentirosos. Não invente nomes, obras, links, números ou qualquer outro dado que não exista;
  • Apure todas as informações fornecidas e insira um link confiável para justificar seu apontamento. Para isso, exclua sites duvidosos, como a Wikipédia.

Crie um personagem para sua IA a cada chat

Aula 1024x683
Professora dando aula (Imagem: Drazen Zigic/Shutterstock)

A inteligência artificial presente nos chatbots foi programada para se adaptar a todo e qualquer contexto. Por isso, uma vez que você a força a assumir um determinado papel ou função/personagem, todo o conteúdo do chat será em torno disso.

Essa técnica é importante porque em vez de a IA dar uma mera importância a uma mensagem de cada vez, todos os comandos deste chat serão colocados dentro do mesmo contexto. Assim, ela pode referenciar dados prévios (que você ou ela tenha enviado) desta conversa em novas mensagens.

Abaixo, constam alguns exemplos atrelados a contextos específicos:

  • Explique-me a diferença entre notícia, nota e reportagem como se fosse um professor universitário aposentado que lecionou por décadas sobre a edição e desenvolvimento de textos jornalísticos. Sua explicação é destinada a um aluno que ainda está na faculdade e busca construir uma base sólida sobre redação.

Se você decidir usar esta técnica, é necessário personalizar o comando de acordo com o personagem ou função que você deseja que a IA assuma.

Caso você tenha dificuldade para lembrar-se do que aprendeu, pode dar um toque mais cômico, ainda que educativo, para o prompt.

  • Você é um estatístico, engenheiro e professor de matemática com mestrado em educação inclusiva. Ensine-me álgebra linear como se os conceitos matemáticos fossem personagens de um reality show.

Leia mais:

Solicite uma explicação do raciocínio ofertado

Pensamento Critico Shutterstock 2476212107 1024x617
Apurar o conteúdo enviado pelo chatbot é imprescindível (Imagem: krungchingpixs/Shutterstock)

Não é indicado aceitar cegamente tudo o que o chatbot responde a você, principalmente se você não entendeu tudo o que ele lhe disse. Isso porque, não raramente, a inteligência artificial pode enviar respostas imprecisas ou incompletas.

Por isso, uma maneira de auxiliar na sua compreensão do assunto abordado e ainda permitir que a própria ferramenta perceba algum erro e se corrija (porque, sim, isso é possível) é você pedir que ela explique como ela chegou a determinado raciocínio.

Algumas alternativas podem ser:

  • Explique o passo a passo de como você chegou a esta conclusão e reflita explicitamente se há algum erro de raciocínio ou imprecisão de dados;
  • Quais dados e alternativas foram utilizados para chegar a esta conclusão? Não se esqueça de citar seu formato de apuração e fontes de informação.

Solicite uma explicação de abordagem antes da resposta final

No ato de enviar um questionamento ou comando ao chatbot, você pode, por exemplo, solicitar que ele explique qual será a abordagem utilizada para enviar a resposta de que você precisa.

Sem esse direcionamento, o Claude simplesmente executa a tarefa imediatamente. Na maior parte dos casos, o resultado acaba exigindo várias correções manuais depois. Já com esse tipo de prompt, a probabilidade de receber uma resposta mais organizada, coerente e bem elaborada aumenta bastante.

  • Antes de responder, descreva rapidamente qual estratégia você vai usar para resolver este problema. Em seguida, apresente a resposta de forma organizada e clara: [insira sua pergunta aqui].

*Fonte de informação: XDA Developers.

O post 5 prompts para obter respostas mais inteligentes no Claude, IA da Anthropic apareceu primeiro em Olhar Digital.

5 prompts para obter respostas mais inteligentes no Claude, IA da Anthropic Read More »

Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA”

A ideia de receber ordens de um algoritmo em vez de um ser humano pode se tornar realidade no mercado de trabalho. De acordo com uma pesquisa recente da Universidade Quinnipiac, divulgada no fim de março de 2026, 15% dos norte-americanos afirmam que estariam dispostos a trabalhar em um emprego em que seu supervisor direto fosse um programa de inteligência artificial (IA).

Embora a vasta maioria (80%) ainda rejeite a ideia de ter a rotina e as tarefas coordenadas por uma máquina, os dados revelam uma mudança de comportamento. O levantamento, que ouviu quase 1.400 adultos, mostra que a aceitação da IA em cargos de liderança começa a ganhar tração, especialmente em funções focadas em produtividade, como a atribuição de tarefas e a definição de cronogramas.

O fim da média gerência?

A disposição de parte dos trabalhadores em aceitar um “chefe robô” coincide com um movimento corporativo que especialistas estão chamando de “The Great Flattening” (ou “O Grande Achatamento”). Segundo análise do portal TechCrunch, empresas de tecnologia já estão utilizando agentes de IA para eliminar camadas intermediárias de gestão, tornando as organizações mais “leves” e diretas.

Exemplos práticos desse movimento já aparecem em gigantes do setor:

  • Amazon: implementou fluxos de trabalho automatizados para substituir responsabilidades que antes cabiam a gerentes médios.
  • Workday: lançou agentes de IA capazes de registrar e aprovar relatórios de despesas de funcionários sem intervenção humana.
  • Uber: engenheiros chegaram a criar um modelo de IA do próprio CEO, Dara Khosrowshahi, para avaliar propostas antes de reuniões presenciais.

Eficiência operacional vs. medo do desemprego

O paradoxo da IA na gestão fica evidente no contraste entre a eficiência e a segurança profissional. O estudo da Quinnipiac aponta que 70% dos entrevistados acreditam que os avanços da tecnologia levarão a uma redução geral nas oportunidades de emprego.

Curiosamente, existe uma desconexão entre a percepção do mercado e a segurança individual: enquanto a maioria prevê um cenário difícil para todos, apenas 30% dos profissionais empregados temem que a IA possa tornar seus cargos específicos obsoletos.

Para a Dra. A Dra. Tamilla Triantoro, professora da Escola de Negócios da Universidade Quinnipiac, afirma que essa tendência indica que o público aceita a IA como uma ferramenta de mercado, mas ainda luta para entender como ela afetará sua própria trajetória de carreira.

O futuro da supervisão

A resistência à supervisão automatizada também está ligada à falta de clareza das empresas. A pesquisa revela que 76% dos americanos sentem que as organizações não são transparentes o suficiente sobre como utilizam a IA.

O relatório conclui que, para que a aceitação de um “chefe de IA” cresça, será necessário mais do que apenas algoritmos eficientes: o mercado exige regulamentação governamental e diretrizes éticas claras, algo que 74% dos participantes sentem que ainda falta por parte das autoridades.

O post Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA” apareceu primeiro em Olhar Digital.

Você trocaria seu gerente por um chatbot? 15% dos profissionais aceitariam um “chefe de IA” Read More »

scientist looking at 202603302215 1024x576

Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa

O uso de ferramentas de inteligência artificial está em alta nos Estados Unidos, mas a confiança do público não acompanha esse crescimento. Uma pesquisa recente da Quinnipiac University revela um cenário contraditório: mais pessoas utilizam IA no dia a dia, mas a maioria ainda desconfia dos resultados gerados.

Segundo o levantamento, que ouviu cerca de 1.400 americanos, 76% afirmam confiar pouco ou apenas ocasionalmente nas respostas fornecidas por sistemas de IA. Apenas 21% dizem confiar na tecnologia na maior parte do tempo, evidenciando um gap significativo entre adoção e credibilidade.

Adoção aumenta, mas percepção segue negativa

Mesmo com a desconfiança, o uso de IA continua avançando. Apenas 27% dos entrevistados disseram nunca ter utilizado ferramentas do tipo, uma queda em relação aos 33% registrados em 2025. A tecnologia já faz parte de atividades como pesquisa, produção de textos, projetos profissionais e análise de dados.

Pesquisa da Quinnipiac University mostra que apenas 21% confiam na IA na maior parte do tempo, revelando um descompasso entre adoção e credibilidade. (ChatGPT / Olhar Digital)

O dado mais revelador está na contradição: 51% dos entrevistados usam IA para pesquisa, mas poucos consideram os resultados confiáveis. Esse comportamento sugere uma relação pragmática, em que a tecnologia é útil, mas ainda vista com cautela.

Entre os principais usos da IA apontados na pesquisa estão:

  • Pesquisa e busca de informações;
  • Produção de textos e conteúdos;
  • Apoio em atividades de trabalho;
  • Análise de dados;
  • Tarefas acadêmicas.

Preocupações superam o entusiasmo

O estudo também mostra que o entusiasmo com a inteligência artificial é limitado. Apenas 6% dos entrevistados disseram estar muito animados com a tecnologia, enquanto 62% afirmam não estar empolgados ou estarem pouco interessados.

O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock)
O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock) – O entusiasmo é baixo, com apenas 6% muito animados, enquanto cerca de 80% demonstram preocupação com impactos da IA no cotidiano. (Imagem: Summit Art Creations/Shutterstock)

Quando o assunto é preocupação, os números se invertem. Cerca de 80% dizem estar muito ou moderadamente preocupados com os impactos da IA. Entre os mais apreensivos estão millennials e baby boomers, com a geração Z logo atrás.

Essa percepção negativa também aparece na avaliação do impacto da tecnologia no cotidiano. Mais da metade dos entrevistados acredita que a IA trará mais prejuízos do que benefícios em suas vidas diárias, enquanto apenas um terço vê efeitos positivos predominantes.

Infraestrutura de IA também enfrenta resistência

Outro ponto relevante da pesquisa envolve a infraestrutura necessária para sustentar o avanço da IA. A construção de data centers, essenciais para operar modelos avançados, enfrenta forte rejeição pública.

Leia mais:

Cerca de 65% dos entrevistados disseram que não gostariam de ter um centro de dados instalado em suas comunidades. Entre as principais preocupações estão o alto consumo de energia elétrica e o uso intensivo de água, fatores que impactam diretamente o custo de vida e o meio ambiente.

O cenário indica que, apesar do avanço tecnológico, a aceitação social da inteligência artificial ainda depende de fatores como transparência, segurança e impacto ambiental.

O post Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa apareceu primeiro em Olhar Digital.

Uso de IA dispara, mas credibilidade segue baixa, revela pesquisa Read More »

evan solomon e openai 1024x577

Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT

Recentemente, o Canadá informou que o presidente-executivo da OpenAI, o empresário Sam Altman, prometeu aumentar os protocolos de segurança do ChatGPT. A mudança deve auxiliar os funcionários de Altman a contatarem a polícia canadense quando um residente do país executar atividades suspeitas via ChatGPT.

A promessa foi garantida em uma carta, redigida pela OpenAI e endereçada ao governo do Canadá.

O envio do documento decorre após um tiroteio que acometeu alunos e funcionários de uma escola na cidade de Tumbler Ridge, na província de British Columbia, no Canadá: a investigação da polícia concluiu que a atiradora tinha um histórico suspeito de conversas com o ChatGPT, teve sua conta encerrada na plataforma, mas a OpenAI nunca entrara em contato com a polícia canadense.

Para quem tem pressa:

  • A OpenAI entrou em contato com o governo do Canadá, por meio de uma carta, e disse estar comprometida a melhorar os protocolos de segurança de sua IA;
  • A atitude ocorre após a polêmica de a empresa saber de um histórico de conversa suspeito de um usuário canadense e não ter acionado a polícia;
  • Meses depois, esse mesmo usuário abriu fogo contra a própria família, estudantes e funcionários de sua cidade.

OpenAI e a promessa de mudar os protocolos de segurança no Canadá

Evan Solomon é um ministro canadense que, dentre vários assuntos, cuida dos interesses do país referente a utilização e segurança de plataformas de inteligência artificial (Crédito das imagens, respectivamente: Centro Nacional de Artes do Canadá e DANIEL CONSTANTE)

Após o contato de Sam Altman com o governo canadense, o Ministro da Inteligência Artificial, Evan Solomon, solicitou que os novos protocolos de segurança fossem adicionados não só agora, mas que a equipe da OpenAI revisasse o histórico passado de conversas dos usuários e contatassem a polícia se identificassem mais suspeitos.

Na quarta-feira (04), o ministro teve uma reunião virtual com Altman pela tarde; à noite, emitiu à mídia um comunicado que resumia os assuntos tratados no encontro com o CEO.

Pedi à OpenAI que tomasse várias medidas, o que Altman concordou em fazer”, disse Solomon. A declaração ainda informa que a OpenAI se comprometeu a avaliar “como eles incluiriam especialistas canadenses em privacidade, saúde mental e aplicação da lei no processo para identificar e revisar casos de alto risco envolvendo usuários canadenses”.

À frente e à esquerda, Sam Altman com um pequeno sorriso; à direita e ao fundo, o logo da OpenAI em uma tela
Sam Altman, CEO da OpenAI (Imagem: FotoField/Shutterstock)

Leia mais:

Ademais, o ministro informou que a OpenAI está comprometida em emitir relatórios que expliquem como os novos protocolos serão desenvolvidos e de que maneira vão identificar infratores reincidentes ou de alto risco.

A empresa também promete cooperar com a investigação das autoridades que ocorre na Colúmbia Britânica, onde Jesse Van Rootselaar, de 18 anos, abriu fogo contra várias pessoas na cidade de Tumbler Ridge meses depois de conversas suspeitas com o ChatGPT.

No episódio violento, 9 pessoas foram mortas (incluindo a autora dos disparos) e outras 27 ficaram feridas.

O post Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT apareceu primeiro em Olhar Digital.

Canadá diz que Sam Altman vai aumentar protocolos de segurança do ChatGPT Read More »

Tela Inicial Gemini 1024x578

Google apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marca

Ontem (03), a gigante de tecnologia Google anunciou em seu blog o novo modelo de inteligência artificial da marca: o Gemini 3.1 Flash-Lite, divulgado como o mais rápido e eficiente dentre a família Gemini 3.

Segundo a própria empresa, a novidade é superior ao modelo Gemini Flash 2.5, é até 25% mais rápida, e apresenta níveis significativos de “processamentos dinâmicos para se adequar à complexidade da tarefa“. O anúncio também foi divulgado em um tuíte na página oficial da empresa no X.

Entendendo as novidades do Gemini 3.1 Flash-Lite

Imagem: Gemini / Reprodução

No X, o Google informou aos seguidores que é possível acessar previamente o Gemini 3.1 Flash-Lite e testá-lo via Google AI Studio ou pelo Vertex AI.

Enquanto o Google AI Studio concentra-se como uma ferramenta web destinada a desenvolvedores e pesquisadores de IA, a Vertex auxilia usuários a customizar modelos de IA com seus próprios dados e recursos de segurança.

A empresa declara o seguinte:

O 3.1 Flash-Lite consegue lidar com tarefas em grande escala, como tradução de alto volume e moderação de conteúdo, onde o custo é uma prioridade. E também consegue lidar com cargas de trabalho mais complexas que exigem raciocínio mais aprofundado, como geração de interfaces de usuário e painéis, criação de simulações ou execução de instruções.

— Google em seu anúncio de lançamento via blog

Interações logas com chatbots podem aumentar os riscos de delírios (Imagem: Summit Art Creations/Shutterstock)
Huma interagindo com inteligência artificial (Imagem: Summit Art Creations/Shutterstock)

Leia mais:

Outro fator compartilhado pela equipe de desenvolvedores é o valor médio para utilização do produto: os usuários só pagam US$ 0,25 a cada 1 milhão de tokens de entrada. Ou seja, na soma de todos os prompts enviados, você paga 25 centavos de dólar a cada 1 milhão de tokens. Já para os tokens de saída, gerados pelas respostas, o valor sobe para US$ 1,50.

Esses valores do novo Gemini 3.1 Flash‑Lite são mais baratos que os modelos anteriores (como o Gemini 2.5) porque foi otimizado para usar menos recursos computacionais sem perder qualidade, cobrando menos por cada milhão de tokens processados: você paga apenas US$ 0,25 pelos tokens que envia e US$ 1,50 pelos tokens que o modelo gera, enquanto ainda mantém respostas rápidas e precisas, tornando-o ideal para aplicações que precisam de alta frequência de interações em tempo real.

O chatbot ainda dá aos usuários “o controle e a flexibilidade para selecionar o quanto o modelo ‘pensa’ para uma tarefa, o que é essencial para gerenciar cargas de trabalho de alta frequência.”

O Gemini 3.1 Flash‑Lite demonstra o esforço do Google em oferecer modelos de IA eficientes, porém, mais baratos, ao reduzir os custos por token processado e acelerar o tempo de resposta.

Com recursos de processamento dinâmico, ele permite que desenvolvedores ajustem o nível de raciocínio do modelo conforme a complexidade da tarefa, tornando-o adequado tanto para aplicações simples quanto para fluxos de trabalho de alta frequência.

O post Google apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marca apareceu primeiro em Olhar Digital.

Google apresenta Gemini 3.1 Flash-Lite, modelo de IA mais rápido da marca Read More »

2 55 1024x576

Estudantes da USP vencem prêmio internacional de IA com chatbot para WhatsApp

Recentemente, três alunos de Ciência da Computação no Instituto de Ciências Matemáticas e de Computação da USP São Carlos criaram um chatbot para o combate de fake news online. O chamado “Tá Certo isso AIanalisa e verifica a veracidade das informações recebidas via mensagens pelo WhatsApp, independentemente do formato (texto, vídeo, áudio ou imagem).

O software foi desenvolvido por Cauê Paiva Lira, Luiz Felipe Costa e Pedro Henrique Silva, equipe vencedora do Programa AI4Good da Brazil Conference. Esse evento é uma conferência internacional que reúne brasileiros nos EUA — incluindo especialistas, líderes, estudantes e empreendedores — para debater e criar estratégias que enfrentem desafios tecnológicos, políticos e socioeconômicos do país.

O evento ocorrerá presencialmente na Universidade Harvard e no Instituto de Tecnologia de Massachusetts (MIT), nos dias 27, 28 e 29 de março.

Para quem tem pressa:

  • Estudantes da USP São Carlos criaram um chatbot que analisa e verifica a veracidade das informações recebidas via WhatsApp, independentemente do formato (texto, vídeo, áudio ou imagem);
  • O software “Tá Certo Isso AI?” foi o vencedor do Programa AI4Good;
  • As informações analisadas pela ferramenta são checadas em meios de comunicação consolidados, sites e portais institucionais e fontes especializadas na checagem de fatos. A ideia é que o bot não faça apenas uma apuração primária, mas que auxilie no processo de combate à desinformação.

Funcionamento do chatbot e curadoria de informações

O softwate “Tá Certo isso AI?” é público e pode ser acessado por qualquer pessoa de diferentes formas.

Na primeira forma, você pode adicionar o telefone 35 8424-8271 nos contatos da sua agenda do celular e salvá-lo. Em seguida, basta abrir uma conversa com este número no WhatsApp.

A segunda maneira é por meio do site oficial do projeto, clicando aqui. Ainda é possível adicionar a ferramenta a grupos de WhatsApp onde, após a adição, é possível marcar o bot com @ na informação que deseja confirmação.

Na análise, o chatbot busca a veracidade das informações em meios de comunicação consolidados, sites e portais institucionais, e fontes especializadas na checagem de fatos. Em entrevista ao Jornal da USP, um dos desenvolvedores do projeto, Luiz Felipe Diniz Costa, afirmou que a ideia é que o bot não faça apenas uma apuração primária.

“O bot não aceita qualquer fonte. Ele faz a checagem apenas em bases que já passaram por esse filtro de confiabilidade, o que reduz o risco de erro e aumenta a qualidade das respostas”, afirmou Luiz Felipe Costa, um dos idealizadores do projeto.

Leia mais:

Idealização do projeto

Jovem interage com diversas plataformas tecnológicas em seu celular – (Imagem criada por inteligência artificial (ChatGPT / Olhar Digital)

O “Tá Certo Isso AI?” começou com a participação dos estudantes no Hackathon 2025, uma maratona de programação onde os alunos tiveram apenas 10 horas para esboçar a ferramenta e saíram vencedores. O tema era justamente “Soluções para mitigar o impacto das fake news na sociedade”.

A partir daí, Cauê afirmou que soube que o edital do AI4Good estava aberto e viu uma oportunidade para continuar o desenvolvimento do projeto. “Foram cerca de 170 grupos inscritos e apenas oito foram selecionados para participar do processo de monitoria e aceleração”, comentou um dos desenvolvedores.

Após a aprovação no processo, foram aproximadamente seis semanas para aprimorar o “Tá Certo isso AI?” e colocá-lo em vigor.

Desenvolvimentos futuros

Microsoft alerta para falha em modelos de IA que ameaça privacidade dos usuários
Usuário utilizando chatbot (Imagem: TippaPatt / Shutterstock)

Para continuar o desenvolvimento da ferramenta, Luiz Costa analisou a proporção que o chatbot tem tomado e vê como uma oportunidade para investimentos no projeto:

Acreditamos que a visibilidade proporcionada pela Brazil Conference pode abrir caminho não apenas para colaborações com órgãos governamentais e veículos de comunicação, já que o enfrentamento à desinformação é um interesse comum a essas esferas, mas também para impulsionar nossas trajetórias profissionais, por meio do desenvolvimento de projetos com impacto social.

— Luiz Costa, um dos idealizadores do “Tá Certo isso AI?”

O post Estudantes da USP vencem prêmio internacional de IA com chatbot para WhatsApp apareceu primeiro em Olhar Digital.

Estudantes da USP vencem prêmio internacional de IA com chatbot para WhatsApp Read More »