Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/25/pt: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:30, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    '''Metadata Enrichment, Chunking, Query Rephrasal, Query Reranking''': We noticed that metadata enrichment, chunking, query rephrasal and query re-ranking stages of RAG pipeline have the most impact on the quality of Chatbot responses. LLM response generation quality is highly dependent on retrieval relevancy. Retrieval relevancy is, in turn, highly dependent on document metadata enrichment, chunking, and query rephrasal. We implemented grid search-based auto-ML capabilities to find the right configurations of chunk token-sizes, experimented with various prompt variations, and explored different chunk reranking strategies to find optimal settings for each. While we have made significant improvements in retrieval relevancy and answer quality and accuracy, we believe, we still have more work to do to optimize the full pipeline.

    Enriquecimento de Metadados, Fragmentação, Reformulação de Consultas, Reclassificação de Consultas: Notamos que as etapas de enriquecimento de metadados, fragmentação, reformulação de consultas e reclassificação de consultas do pipeline RAG têm o maior impacto na qualidade das respostas do Chatbot. A qualidade da geração de respostas do LLM é altamente dependente da relevância da recuperação. A relevância da recuperação, por sua vez, depende muito do enriquecimento de metadados dos documentos, da fragmentação e da reformulação de consultas. Implementamos capacidades de auto-ML baseadas em busca em grade para encontrar as configurações corretas de tamanhos de tokens de fragmentos, experimentamos várias variações de prompts e exploramos diferentes estratégias de reclassificação de fragmentos para encontrar as configurações ideais para cada um. Embora tenhamos feito melhorias significativas na relevância da recuperação e na qualidade e precisão das respostas, acreditamos que ainda temos mais trabalho a fazer para otimizar todo o pipeline.