Este documento apresenta um guia prático para diagnóstico e resolução de problemas no GOgenier, abordando os principais cenários que impactam o funcionamento da plataforma, o consumo de recursos e a qualidade das soluções implementadas.
Os tópicos abordados são:
1. Visão Geral
2. Custo de LLM está caro, o que fazer?
2.1. Revisão do Prompt do Agente
2.2. Jornada e Insights Ativos
2.3. Configuração da LLM
2.4. Atenção nas Integrações (APIs)
2.5. Escolha Adequada da LLM por Tipo de Agente
3. Agente não está respondendo o que eu quero
3.1. Clareza do Prompt
3.2. Qualidade e Completude dos Dados
3.3. Evitar Respostas Indevidas
3.4. Definição Clara de Regras e Comportamentos
3.5. Validação de Fluxo e Contexto
3.6. Integrações e Dados Externos
3.7. Escolha da LLM Adequada
4. Análise de Logs no Playground
5. Para que serve o Agente Curador e Como Configurar
1. Visão Geral
Este guia tem como objetivo apoiar na identificação, análise e resolução de problemas relacionados ao uso da plataforma GOgenier.
Ao longo da operação, é comum surgirem cenários que impactam diretamente a performance das soluções, o consumo de recursos e o funcionamento geral das funcionalidades disponibilizadas.
Pensando nisso, este material foi estruturado como um guia prático de diagnóstico, organizado por cenários recorrentes, apresentando para cada um deles:
- Possíveis causas do problema
- Pontos de validação técnica e funcional
- Boas práticas de correção e prevenção
O objetivo é permitir uma análise mais assertiva e direcionada, reduzindo o tempo de investigação e facilitando a identificação da origem dos problemas.
2. Custo de LLM está caro, o que fazer?
O aumento no custo de utilização de LLMs geralmente está relacionado à forma como os agentes, integrações e configurações da plataforma estão estruturados.
Em muitos casos, o consumo elevado não está ligado apenas ao volume de interações, mas principalmente a fatores como tamanho do prompt, escolha do modelo e envio de dados desnecessários para processamento.
Nesta seção, são apresentados os principais pontos de atenção e boas práticas para otimizar o consumo de tokens e reduzir custos operacionais.
2.1. Revisão do Prompt do Agente
O tamanho do prompt impacta diretamente no consumo de tokens, pois ele é enviado integralmente a cada interação com a LLM. Isso significa que, mesmo em conversas curtas, prompts extensos podem gerar consumo elevado de forma recorrente.
Além disso, prompts mal estruturados ou com informações redundantes aumentam o custo sem necessariamente melhorar a qualidade das respostas do agente.
Pontos de atenção:
- Validar o tamanho dos campos:
Persona do Agente
Papel do Agente
- Identificar conteúdos repetidos ou desnecessários
- Verificar se há instruções que não são utilizadas na prática
Boas práticas:
Manter o prompt objetivo, direto e sem redundâncias
Consolidar instruções semelhantes em uma única orientação
Priorizar apenas informações essenciais para o funcionamento do agente
2.2. Jornada e Insights Ativos
Funcionalidades como Relatório de Jornada e Insights realizam processamentos adicionais sobre as interações, o que pode gerar aumento no consumo de tokens, especialmente em cenários com alto volume de mensagens.
Esse impacto ocorre porque essas funcionalidades utilizam a LLM para gerar análises e registros complementares, ampliando o volume total de processamento além da resposta do agente.
Pontos de validação:
Verificar se as funcionalidades de Relatório de Jornada e Insights estão habilitadas
Identificar em quais fluxos estão sendo utilizadas
Avaliar a frequência de uso em cenários de alto volume
Recomendação:
Manter essas funcionalidades ativas apenas quando houver necessidade real de análise
Desativar em fluxos operacionais onde não agregam valor direto
2.3. Configuração da LLM
A configuração do modelo de LLM é um ponto crítico para o controle de custos, pois impacta diretamente o consumo de tokens em funcionalidades que utilizam essa definição de forma global.
A escolha de um modelo mais robusto pode gerar aumento significativo no consumo, mesmo em recursos que não exigem alta complexidade de processamento.
Pontos de atenção:
Validar qual modelo está configurado em Configurações Gerais
Considerar o impacto dessa configuração em todas as funcionalidades que utilizam a LLM
Boas práticas:
Utilizar modelos mais leves, como GPT-4.1 mini, principalmente para:
Geração de Insights
Relatório de Jornada
Importante:
Esses recursos utilizam a configuração global da LLM. Portanto, a escolha de um modelo mais robusto pode impactar diretamente no consumo, mesmo em cenários que não exigem maior capacidade de processamento.
Material complementar:
Para mais detalhes sobre os modelos de LLM e recomendações de uso, consulte a documentação completa sobre o assunto:
GOgenier - Como Escolher o Melhor LLM para sua Operação
2.4. Atenção nas Integrações (APIs)
Integrações realizadas via API podem impactar diretamente o consumo de tokens, especialmente quando retornam grandes volumes de dados que são enviados para processamento pela LLM.
Em muitos casos, esses retornos incluem informações desnecessárias para a resposta do agente, aumentando o consumo sem gerar valor adicional.
Problema comum:
Envio de grandes volumes de dados irrelevantes ou não utilizados na resposta do agente
Pontos de atenção:
Avaliar o conteúdo retornado pelas APIs integradas
Identificar informações que não são utilizadas pelo agente
Verificar se os dados estão estruturados de forma adequada para consumo
Boas práticas:
Filtrar e tratar os dados antes de enviar para a LLM
Retornar apenas os campos realmente relevantes para a resposta
Evitar payloads extensos e não estruturados
2.5. Escolha Adequada da LLM por Tipo de Agente
A definição do modelo de LLM deve considerar o objetivo e a complexidade de cada agente. Nem todos os cenários exigem o uso de modelos robustos, e a escolha inadequada pode gerar aumento de custo sem ganho proporcional de qualidade.
A utilização de modelos mais avançados deve ser reservada para casos em que há necessidade real de maior capacidade de interpretação, análise ou personalização.
Boas práticas:
Utilizar modelos mais leves para tarefas simples e operacionais
Reservar modelos mais avançados para cenários que exigem maior capacidade cognitiva
Exemplos de aplicação
Agentes simples (baixo consumo recomendado):
FAQ (perguntas e respostas)
Consulta de status (pedido, protocolo, financeiro)
Coleta de dados estruturados
Indicação: modelos leves como GPT-4.1. mini
Agentes intermediários:
Atendimento com múltiplos caminhos
Interpretação básica de contexto
Apoio a vendas com roteiros definidos
Indicação: modelos intermediários
Agentes avançados (alto consumo justificado):
Vendas consultivas
Análises mais complexas
Interações abertas com maior nível de personalização
Indicação: modelos mais robustos como GPT-5.2.
Material complementar:
Para mais detalhes sobre os modelos de LLM e recomendações de uso, consulte a documentação completa sobre o assunto:
GOgenier - Como Escolher o Melhor LLM para sua Operação
3. Agente não está respondendo o que eu quero
3.1. Clareza do Prompt
O agente responde com base no que foi instruído no prompt, e não no que é esperado implicitamente. Isso significa que qualquer ambiguidade, ausência de informação ou instrução incompleta pode impactar diretamente a qualidade da resposta.
Se o direcionamento fornecido ao agente não for claro e objetivo, a resposta tende a refletir essa falta de precisão.
Pontos de atenção:
Verificar se as instruções estão claras e objetivas
Identificar possíveis ambiguidades no prompt
Garantir que todas as orientações necessárias estão explicitamente definidas
Regra de ouro:
O agente responde o que foi pedido, não o que era esperado.
3.2. Qualidade e Completude dos Dados (Base de Conhecimento)
A qualidade das respostas do agente está diretamente relacionada à disponibilidade e à estrutura das informações fornecidas. Quando os dados são incompletos, inconsistentes ou não estão acessíveis no momento da interação, o agente tende a gerar respostas imprecisas ou insuficientes.
Para garantir um bom desempenho, é fundamental assegurar que todas as fontes de informação estejam corretamente configuradas e contenham os dados necessários.
Fontes de dados:
Base de conhecimento (RAG)
Prompt
Integrações
Pontos de validação:
O conteúdo necessário para a resposta está disponível?
As informações estão claras e bem estruturadas?
Os dados estão acessíveis no momento da resposta?
Importante:
Na ausência de dados adequados, o agente pode tentar completar a resposta com base em inferência, o que aumenta o risco de imprecisão. Por outro lado, quando os dados estão completos e bem estruturados, a tendência é de respostas mais assertivas e confiáveis.
3.3. Evitar Respostas Indevidas
Quando o agente é instruído a responder sobre um tema sem que as informações necessárias estejam disponíveis, há uma tendência de geração de respostas incorretas ou imprecisas.
Esse comportamento ocorre porque o agente tenta atender à solicitação mesmo sem possuir dados suficientes, o que pode comprometer a confiabilidade da resposta.
Pontos de atenção:
Identificar cenários em que o agente pode não possuir informação suficiente
Evitar instruções que incentivem respostas sem base de conhecimento
Garantir que existam regras claras para tratamento de ausência de dados
Boas práticas:
Incluir regras explícitas no prompt para lidar com falta de informação
Orientar o agente a não gerar respostas quando não houver dados confiáveis
Exemplos:
“Caso não tenha informações sobre o tema, informe que não possui dados suficientes e direcione para atendimento humano.”
“Nunca invente uma resposta sobre o produto X.”
Importante:
A definição dessas regras reduz significativamente a ocorrência de respostas incorretas e aumenta a confiabilidade do agente.
3.4. Definição Clara de Regras e Comportamentos
O agente opera com base em um fluxo lógico definido pelas instruções do prompt. Quanto mais detalhadas e específicas forem essas instruções, maior tende a ser a qualidade e consistência das respostas.
Instruções genéricas ou pouco claras podem levar a interpretações incorretas, impactando diretamente o comportamento do agente.
Pontos de atenção:
Verificar se as regras estão descritas de forma clara e objetiva
Evitar instruções genéricas ou abertas à interpretação
Garantir que o fluxo de atendimento esteja bem definido
Boas práticas:
Estruturar o comportamento do agente como um passo a passo lógico
Definir claramente como o agente deve agir em cada etapa da interação
Incluir orientações específicas para cenários comuns e exceções
Exemplo:
Atenda bem o cliente (inapropriado, pouco detalhado)
Cumprimente, identifique a necessidade, responda com base na base de conhecimento e, se não souber, direcione para atendimento humano (apropriado, específico e detalhado)
Importante:
O agente deve ser tratado como um recurso que executa exatamente o que foi definido. Quanto mais específico for o direcionamento, maior será a assertividade das respostas.
3.5. Validação de Fluxo e Contexto
O correto funcionamento do agente depende da consistência do fluxo definido e do contexto disponível durante a interação. Problemas nesses pontos podem comprometer a continuidade da conversa e a coerência das respostas.
Falhas no contexto ou conflitos entre regras podem fazer com que o agente perca informações importantes ou adote comportamentos inconsistentes ao longo da jornada.
Pontos de atenção:
Verificar se o agente está recebendo o contexto correto da conversa
Identificar possíveis perdas de informação entre interações
Avaliar se existem regras conflitantes ou incoerentes entre si
Boas práticas:
Garantir que o fluxo de atendimento esteja bem definido e consistente
Revisar regras para evitar sobreposição ou conflito de instruções
Validar o comportamento do agente em diferentes etapas da conversa
Importante:
A consistência entre contexto e regras é essencial para garantir respostas coerentes e uma experiência contínua ao longo da interação.
3.6. Integrações e Dados Externos
As integrações com sistemas externos são uma das principais fontes de dados para o agente, e sua qualidade impacta diretamente a assertividade das respostas.
Dados incorretos, mal estruturados ou de difícil interpretação podem comprometer o entendimento do agente e resultar em respostas inconsistentes ou imprecisas.
Pontos de atenção:
Verificar se as integrações estão retornando dados corretamente
Validar se os dados estão estruturados de forma clara e consistente
Avaliar se o agente está interpretando corretamente as informações recebidas
Boas práticas:
Garantir que os dados retornados pelas APIs sejam organizados e relevantes
Evitar estruturas complexas ou ambíguas que dificultem a interpretação
Validar cenários reais para confirmar o comportamento do agente com dados externos
Importante:
Dados mal estruturados ou confusos impactam diretamente a qualidade da resposta, mesmo quando o prompt e as regras estão corretamente definidos.
3.7. Escolha da LLM Adequada
A escolha do modelo de LLM pode influenciar na qualidade das respostas do agente, especialmente em cenários que exigem maior capacidade de interpretação ou análise.
Modelos mais simples podem apresentar limitações ao lidar com instruções complexas, enquanto modelos mais avançados podem melhorar o desempenho — desde que o problema não esteja relacionado à ausência de dados ou à definição inadequada de regras.
Pontos de atenção:
Avaliar se o modelo atual é compatível com o nível de complexidade do agente
Identificar limitações do modelo em cenários mais avançados
Evitar utilizar modelos mais robustos sem necessidade
Importante:
Antes de alterar o modelo de LLM, é fundamental validar:
Prompt
Dados
Regras
A troca de modelo deve ser considerada apenas após garantir que esses três elementos estejam corretamente definidos.
Material complementar:
Para mais detalhes sobre os modelos de LLM e recomendações de uso, consulte a documentação completa sobre o assunto:
GOgenier - Como Escolher o Melhor LLM para sua Operação
4. Análise de Logs no Playground
O Playground deve ser utilizado como ferramenta de auditoria sempre que houver problemas no comportamento do agente. Ele permite testar o agente de forma isolada, facilitando a identificação da origem dos erros com maior clareza.
Ao simular interações diretamente no Playground, é possível analisar o comportamento do agente sem interferências externas, tornando o diagnóstico mais preciso.
Pontos de validação:
Configuração da LLM
Base de conhecimento (se está carregada corretamente)
Consistência entre modelos utilizados
Limite ou saldo disponível no provedor de LLM
Boas práticas:
Simular perguntas reais do usuário
Validar se as respostas estão coerentes
Verificar se o agente está utilizando corretamente a base de conhecimento
Observar possíveis mensagens de erro retornadas
Recomendação:
Sempre que surgir um problema no agente:
Testar o cenário no Playground
Identificar o erro retornado
Corrigir na origem (LLM, dados, configuração ou saldo)
Importante:
O Playground funciona como um recurso de diagnóstico direto do agente, permitindo uma análise mais rápida e assertiva dos problemas.
5. Para que serve o Agente Curador e Como Configurar
O Agente Curador atua como uma camada de controle de qualidade, sendo responsável por analisar as respostas geradas pelo agente principal e avaliar sua aderência às diretrizes definidas.
Seu papel é garantir que o agente não apenas responda, mas entregue respostas com qualidade, consistência e assertividade.
Avaliações realizadas:
Correção das respostas
Completude das informações
Aderência às diretrizes definidas
Capacidade de resolução das dúvidas do cliente
Objetivos:
Identificar respostas incompletas
Detectar respostas incorretas
Apontar falhas de interpretação
Sugerir oportunidades de melhoria
Como configurar:
Dentro do GOgenier, acesse Insights e selecione “Crie você mesmo com IA”
Definir claramente o objetivo do agente curador
Estruturar instruções voltadas para avaliação de qualidade das respostas
Exemplo de comando:
Criar um agente responsável por avaliar o desempenho de um agente de suporte ao cliente, verificando se as respostas estão corretas, completas e alinhadas com a base de conhecimento, além de identificar falhas e sugerir melhorias.
Recomendação:
Para construção do prompt, é possível utilizar ferramentas como ChatGPT ou Claude, garantindo uma estrutura mais completa e eficiente para o agente curador.
Este artigo foi útil?
Que bom!
Obrigado pelo seu feedback
Desculpe! Não conseguimos ajudar você
Obrigado pelo seu feedback
Feedback enviado
Agradecemos seu esforço e tentaremos corrigir o artigo
