GOgenier – Guia de Diagnóstico e Solução de Problemas

Modificado em Qui, 2 Abr na (o) 5:26 PM



Este documento apresenta um guia prático para diagnóstico e resolução de problemas no GOgenier, abordando os principais cenários que impactam o funcionamento da plataforma, o consumo de recursos e a qualidade das soluções implementadas. 

Os tópicos abordados são: 

1. Visão Geral  

2. Custo de LLM está caro, o que fazer? 

    2.1. Revisão do Prompt do Agente 
    2.2. Jornada e Insights Ativos 
    2.3. Configuração da LLM 
    2.4. Atenção nas Integrações (APIs) 
    2.5. Escolha Adequada da LLM por Tipo de Agente  


  1. 3. Agente não está respondendo o que eu quero 


  2.     3.1. Clareza do Prompt 
        3.2. Qualidade e Completude dos Dados 
        3.3. Evitar Respostas Indevidas 
        3.4. Definição Clara de Regras e Comportamentos 
        3.5. Validação de Fluxo e Contexto 
        3.6. Integrações e Dados Externos 
        3.7. Escolha da LLM Adequada  

4. Análise de Logs no Playground  

5. Para que serve o Agente Curador e Como Configurar 
 

1. Visão Geral 

Este guia tem como objetivo apoiar na identificação, análise e resolução de problemas relacionados ao uso da plataforma GOgenier. 

Ao longo da operação, é comum surgirem cenários que impactam diretamente a performance das soluções, o consumo de recursos e o funcionamento geral das funcionalidades disponibilizadas. 

Pensando nisso, este material foi estruturado como um guia prático de diagnóstico, organizado por cenários recorrentes, apresentando para cada um deles: 

  • Possíveis causas do problema  
  • Pontos de validação técnica e funcional  
  • Boas práticas de correção e prevenção  

O objetivo é permitir uma análise mais assertiva e direcionada, reduzindo o tempo de investigação e facilitando a identificação da origem dos problemas. 

 

2. Custo de LLM está caro, o que fazer? 
 
O aumento no custo de utilização de LLMs geralmente está relacionado à forma como os agentes, integrações e configurações da plataforma estão estruturados. 

Em muitos casos, o consumo elevado não está ligado apenas ao volume de interações, mas principalmente a fatores como tamanho do prompt, escolha do modelo e envio de dados desnecessários para processamento. 

Nesta seção, são apresentados os principais pontos de atenção e boas práticas para otimizar o consumo de tokens e reduzir custos operacionais. 
 
2.1. Revisão do Prompt do Agente 

O tamanho do prompt impacta diretamente no consumo de tokens, pois ele é enviado integralmente a cada interação com a LLM. Isso significa que, mesmo em conversas curtas, prompts extensos podem gerar consumo elevado de forma recorrente. 

Além disso, prompts mal estruturados ou com informações redundantes aumentam o custo sem necessariamente melhorar a qualidade das respostas do agente. 

Pontos de atenção: 

  • Validar o tamanho dos campos:  

 

  • Persona do Agente  

  • Papel do Agente  

  • Identificar conteúdos repetidos ou desnecessários  
  • Verificar se há instruções que não são utilizadas na prática  

Boas práticas: 

  • Manter o prompt objetivo, direto e sem redundâncias  

  • Consolidar instruções semelhantes em uma única orientação  

  • Priorizar apenas informações essenciais para o funcionamento do agente  
     

2.2. Jornada e Insights Ativos 

Funcionalidades como Relatório de Jornada e Insights realizam processamentos adicionais sobre as interações, o que pode gerar aumento no consumo de tokens, especialmente em cenários com alto volume de mensagens. 

Esse impacto ocorre porque essas funcionalidades utilizam a LLM para gerar análises e registros complementares, ampliando o volume total de processamento além da resposta do agente. 

Pontos de validação: 

  • Verificar se as funcionalidades de Relatório de Jornada e Insights estão habilitadas  

  • Identificar em quais fluxos estão sendo utilizadas  

  • Avaliar a frequência de uso em cenários de alto volume  

Recomendação: 

  • Manter essas funcionalidades ativas apenas quando houver necessidade real de análise  

  • Desativar em fluxos operacionais onde não agregam valor direto 

 

2.3. Configuração da LLM 

A configuração do modelo de LLM é um ponto crítico para o controle de custos, pois impacta diretamente o consumo de tokens em funcionalidades que utilizam essa definição de forma global. 

A escolha de um modelo mais robusto pode gerar aumento significativo no consumo, mesmo em recursos que não exigem alta complexidade de processamento. 

Pontos de atenção: 

  • Validar qual modelo está configurado em Configurações Gerais  

  • Considerar o impacto dessa configuração em todas as funcionalidades que utilizam a LLM 

Boas práticas: 

  • Utilizar modelos mais leves, como GPT-4.1 mini, principalmente para:
      

  • Geração de Insights  

  • Relatório de Jornada  

Importante: 
Esses recursos utilizam a configuração global da LLM. Portanto, a escolha de um modelo mais robusto pode impactar diretamente no consumo, mesmo em cenários que não exigem maior capacidade de processamento. 
 
Material complementar: 
Para mais detalhes sobre os modelos de LLM e recomendações de uso, consulte a documentação completa sobre o assunto: 

GOgenier - Como Escolher o Melhor LLM para sua Operação 
 

2.4. Atenção nas Integrações (APIs) 

Integrações realizadas via API podem impactar diretamente o consumo de tokens, especialmente quando retornam grandes volumes de dados que são enviados para processamento pela LLM. 

Em muitos casos, esses retornos incluem informações desnecessárias para a resposta do agente, aumentando o consumo sem gerar valor adicional. 
 
Problema comum: 

  • Envio de grandes volumes de dados irrelevantes ou não utilizados na resposta do agente 
     

Pontos de atenção: 

  • Avaliar o conteúdo retornado pelas APIs integradas  

  • Identificar informações que não são utilizadas pelo agente  

  • Verificar se os dados estão estruturados de forma adequada para consumo  
     

Boas práticas: 

  • Filtrar e tratar os dados antes de enviar para a LLM  

  • Retornar apenas os campos realmente relevantes para a resposta  

  • Evitar payloads extensos e não estruturados  
     

2.5. Escolha Adequada da LLM por Tipo de Agente 

A definição do modelo de LLM deve considerar o objetivo e a complexidade de cada agente. Nem todos os cenários exigem o uso de modelos robustos, e a escolha inadequada pode gerar aumento de custo sem ganho proporcional de qualidade. 

A utilização de modelos mais avançados deve ser reservada para casos em que há necessidade real de maior capacidade de interpretação, análise ou personalização. 

Boas práticas: 

  • Utilizar modelos mais leves para tarefas simples e operacionais  

  • Reservar modelos mais avançados para cenários que exigem maior capacidade cognitiva  
     

Exemplos de aplicação 

Agentes simples (baixo consumo recomendado): 

  • FAQ (perguntas e respostas)  

  • Consulta de status (pedido, protocolo, financeiro)  

  • Coleta de dados estruturados  

Indicação: modelos leves como GPT-4.1. mini 
 

Agentes intermediários: 

  • Atendimento com múltiplos caminhos  

  • Interpretação básica de contexto  

  • Apoio a vendas com roteiros definidos  

Indicação: modelos intermediários 
 

Agentes avançados (alto consumo justificado): 

  • Vendas consultivas  

  • Análises mais complexas  

  • Interações abertas com maior nível de personalização  

Indicação: modelos mais robustos como GPT-5.2. 

Material complementar: 

Para mais detalhes sobre os modelos de LLM e recomendações de uso, consulte a documentação completa sobre o assunto: 
GOgenier - Como Escolher o Melhor LLM para sua Operação   

3. Agente não está respondendo o que eu quero 

3.1. Clareza do Prompt 

O agente responde com base no que foi instruído no prompt, e não no que é esperado implicitamente. Isso significa que qualquer ambiguidade, ausência de informação ou instrução incompleta pode impactar diretamente a qualidade da resposta. 

Se o direcionamento fornecido ao agente não for claro e objetivo, a resposta tende a refletir essa falta de precisão. 

Pontos de atenção: 

  • Verificar se as instruções estão claras e objetivas  

  • Identificar possíveis ambiguidades no prompt  

  • Garantir que todas as orientações necessárias estão explicitamente definidas 

Regra de ouro: 
O agente responde o que foi pedido, não o que era esperado. 

 
3.2. Qualidade e Completude dos Dados (Base de Conhecimento) 

A qualidade das respostas do agente está diretamente relacionada à disponibilidade e à estrutura das informações fornecidas. Quando os dados são incompletos, inconsistentes ou não estão acessíveis no momento da interação, o agente tende a gerar respostas imprecisas ou insuficientes. 

Para garantir um bom desempenho, é fundamental assegurar que todas as fontes de informação estejam corretamente configuradas e contenham os dados necessários. 

Fontes de dados: 

  • Base de conhecimento (RAG)  

  • Prompt  

  • Integrações  

Pontos de validação: 

  • O conteúdo necessário para a resposta está disponível?  

  • As informações estão claras e bem estruturadas?  

  • Os dados estão acessíveis no momento da resposta?  

Importante: 
Na ausência de dados adequados, o agente pode tentar completar a resposta com base em inferência, o que aumenta o risco de imprecisão. Por outro lado, quando os dados estão completos e bem estruturados, a tendência é de respostas mais assertivas e confiáveis. 
 

3.3. Evitar Respostas Indevidas 

Quando o agente é instruído a responder sobre um tema sem que as informações necessárias estejam disponíveis, há uma tendência de geração de respostas incorretas ou imprecisas. 

Esse comportamento ocorre porque o agente tenta atender à solicitação mesmo sem possuir dados suficientes, o que pode comprometer a confiabilidade da resposta. 

Pontos de atenção: 

  • Identificar cenários em que o agente pode não possuir informação suficiente  

  • Evitar instruções que incentivem respostas sem base de conhecimento  

  • Garantir que existam regras claras para tratamento de ausência de dados  

Boas práticas: 

  • Incluir regras explícitas no prompt para lidar com falta de informação  

  • Orientar o agente a não gerar respostas quando não houver dados confiáveis  

Exemplos: 

 

  • “Caso não tenha informações sobre o tema, informe que não possui dados suficientes e direcione para atendimento humano.”  

  • “Nunca invente uma resposta sobre o produto X.”  

Importante: 
A definição dessas regras reduz significativamente a ocorrência de respostas incorretas e aumenta a confiabilidade do agente. 
 

3.4. Definição Clara de Regras e Comportamentos 

O agente opera com base em um fluxo lógico definido pelas instruções do prompt. Quanto mais detalhadas e específicas forem essas instruções, maior tende a ser a qualidade e consistência das respostas. 

Instruções genéricas ou pouco claras podem levar a interpretações incorretas, impactando diretamente o comportamento do agente. 

Pontos de atenção: 

  • Verificar se as regras estão descritas de forma clara e objetiva  

  • Evitar instruções genéricas ou abertas à interpretação  

  • Garantir que o fluxo de atendimento esteja bem definido  

Boas práticas: 

  • Estruturar o comportamento do agente como um passo a passo lógico  

  • Definir claramente como o agente deve agir em cada etapa da interação  

  • Incluir orientações específicas para cenários comuns e exceções  

Exemplo: 

  • Atenda bem o cliente (inapropriado, pouco detalhado) 

  • Cumprimente, identifique a necessidade, responda com base na base de conhecimento e, se não souber, direcione para atendimento humano (apropriado, específico e detalhado) 

Importante: 
O agente deve ser tratado como um recurso que executa exatamente o que foi definido. Quanto mais específico for o direcionamento, maior será a assertividade das respostas. 

 

3.5. Validação de Fluxo e Contexto 

O correto funcionamento do agente depende da consistência do fluxo definido e do contexto disponível durante a interação. Problemas nesses pontos podem comprometer a continuidade da conversa e a coerência das respostas. 

Falhas no contexto ou conflitos entre regras podem fazer com que o agente perca informações importantes ou adote comportamentos inconsistentes ao longo da jornada. 

Pontos de atenção: 

  • Verificar se o agente está recebendo o contexto correto da conversa  

  • Identificar possíveis perdas de informação entre interações  

  • Avaliar se existem regras conflitantes ou incoerentes entre si  

Boas práticas: 

  • Garantir que o fluxo de atendimento esteja bem definido e consistente  

  • Revisar regras para evitar sobreposição ou conflito de instruções  

  • Validar o comportamento do agente em diferentes etapas da conversa  

Importante: 
A consistência entre contexto e regras é essencial para garantir respostas coerentes e uma experiência contínua ao longo da interação. 

 

3.6. Integrações e Dados Externos 

As integrações com sistemas externos são uma das principais fontes de dados para o agente, e sua qualidade impacta diretamente a assertividade das respostas. 

Dados incorretos, mal estruturados ou de difícil interpretação podem comprometer o entendimento do agente e resultar em respostas inconsistentes ou imprecisas. 

Pontos de atenção: 

  • Verificar se as integrações estão retornando dados corretamente  

  • Validar se os dados estão estruturados de forma clara e consistente  

  • Avaliar se o agente está interpretando corretamente as informações recebidas  

Boas práticas: 

  • Garantir que os dados retornados pelas APIs sejam organizados e relevantes  

  • Evitar estruturas complexas ou ambíguas que dificultem a interpretação  

  • Validar cenários reais para confirmar o comportamento do agente com dados externos  

Importante: 
Dados mal estruturados ou confusos impactam diretamente a qualidade da resposta, mesmo quando o prompt e as regras estão corretamente definidos. 
 

3.7. Escolha da LLM Adequada 

A escolha do modelo de LLM pode influenciar na qualidade das respostas do agente, especialmente em cenários que exigem maior capacidade de interpretação ou análise. 

Modelos mais simples podem apresentar limitações ao lidar com instruções complexas, enquanto modelos mais avançados podem melhorar o desempenho — desde que o problema não esteja relacionado à ausência de dados ou à definição inadequada de regras. 

Pontos de atenção: 

  • Avaliar se o modelo atual é compatível com o nível de complexidade do agente  

  • Identificar limitações do modelo em cenários mais avançados  

  • Evitar utilizar modelos mais robustos sem necessidade  

Importante: 
Antes de alterar o modelo de LLM, é fundamental validar: 

  • Prompt  

  • Dados  

  • Regras  

A troca de modelo deve ser considerada apenas após garantir que esses três elementos estejam corretamente definidos. 

Material complementar: 
Para mais detalhes sobre os modelos de LLM e recomendações de uso, consulte a documentação completa sobre o assunto: 
GOgenier - Como Escolher o Melhor LLM para sua Operação 


 

4. Análise de Logs no Playground 

O Playground deve ser utilizado como ferramenta de auditoria sempre que houver problemas no comportamento do agente. Ele permite testar o agente de forma isolada, facilitando a identificação da origem dos erros com maior clareza. 
 
 
Ao simular interações diretamente no Playground, é possível analisar o comportamento do agente sem interferências externas, tornando o diagnóstico mais preciso. 

Pontos de validação: 

  • Configuração da LLM  

  • Base de conhecimento (se está carregada corretamente)  

  • Consistência entre modelos utilizados  

  • Limite ou saldo disponível no provedor de LLM  

Boas práticas: 

  • Simular perguntas reais do usuário  

  • Validar se as respostas estão coerentes  

  • Verificar se o agente está utilizando corretamente a base de conhecimento  

  • Observar possíveis mensagens de erro retornadas  
     

Recomendação: 
Sempre que surgir um problema no agente: 

  • Testar o cenário no Playground  

  • Identificar o erro retornado  

  • Corrigir na origem (LLM, dados, configuração ou saldo)  

Importante: 
O Playground funciona como um recurso de diagnóstico direto do agente, permitindo uma análise mais rápida e assertiva dos problemas. 
 

5. Para que serve o Agente Curador e Como Configurar 

O Agente Curador atua como uma camada de controle de qualidade, sendo responsável por analisar as respostas geradas pelo agente principal e avaliar sua aderência às diretrizes definidas. 

Seu papel é garantir que o agente não apenas responda, mas entregue respostas com qualidade, consistência e assertividade. 

Avaliações realizadas: 

  • Correção das respostas  

  • Completude das informações  

  • Aderência às diretrizes definidas  

  • Capacidade de resolução das dúvidas do cliente  

Objetivos: 

  • Identificar respostas incompletas  

  • Detectar respostas incorretas  

  • Apontar falhas de interpretação  

  • Sugerir oportunidades de melhoria  

Como configurar: 

  • Dentro do GOgenier, acesse Insights e selecione “Crie você mesmo com IA”  
     


  • Definir claramente o objetivo do agente curador  

  • Estruturar instruções voltadas para avaliação de qualidade das respostas  

Exemplo de comando: 
Criar um agente responsável por avaliar o desempenho de um agente de suporte ao cliente, verificando se as respostas estão corretas, completas e alinhadas com a base de conhecimento, além de identificar falhas e sugerir melhorias. 

Recomendação: 
Para construção do prompt, é possível utilizar ferramentas como ChatGPT ou Claude, garantindo uma estrutura mais completa e eficiente para o agente curador. 

Este artigo foi útil?

Que bom!

Obrigado pelo seu feedback

Desculpe! Não conseguimos ajudar você

Obrigado pelo seu feedback

Deixe-nos saber como podemos melhorar este artigo!

Selecione pelo menos um dos motivos
A verificação do CAPTCHA é obrigatória.

Feedback enviado

Agradecemos seu esforço e tentaremos corrigir o artigo