Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/69/pt: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:30, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Active Retrieval augmented generation (FLARE) ([[#bib.bib7|7]]) iteratively synthesizes a hypothetical next sentence. If the generated sentence contains low-probability tokens, FLARE would use the sentence as the new query for retrieval and regenerate the sentence. Mialon ''et al.'' ([[#bib.bib12|12]]) reviews works for advanced augmented generation methods in language model. Self-refine ([[#bib.bib11|11]]) builds an agent to improve the initial answer of RAG through iterative feedback and refinement. ReAct ([[#bib.bib16|16]]) Agent is widely used for handling the complex queries in a recursive manner. On the RAG evaluation front, RAGAS ([[#bib.bib4|4]]) and ARES ([[#bib.bib14|14]]) utilize LLMs as judges and build automatic RAG benchmark to evaluate the RAG system. Zhu ''et al.'' ([[#bib.bib17|17]]) overview the intensive usages of LLM in a RAG pipeline including retriever, data generation, rewriter, and reader. We believe that our work provides a unique perspective on building secure enterprise-grade chatbots via our FACTS framework.

    A Recuperação Ativa aumentada por geração (FLARE) (7) sintetiza iterativamente uma próxima frase hipotética. Se a frase gerada contiver tokens de baixa probabilidade, o FLARE usaria a frase como a nova consulta para recuperação e regeneraria a frase. Mialon et al. (12) revisa trabalhos sobre métodos avançados de geração aumentada em modelos de linguagem. Self-refine (11) constrói um agente para melhorar a resposta inicial do RAG através de feedback e refinamento iterativos. O Agente ReAct (16) é amplamente utilizado para lidar com consultas complexas de maneira recursiva. Na frente de avaliação do RAG, RAGAS (4) e ARES (14) utilizam LLMs como juízes e constroem um benchmark automático de RAG para avaliar o sistema RAG. Zhu et al. (17) apresentam uma visão geral dos usos intensivos de LLM em um pipeline RAG, incluindo recuperador, geração de dados, reescritor e leitor. Acreditamos que nosso trabalho oferece uma perspectiva única sobre a construção de chatbots seguros de nível empresarial através de nossa estrutura FACTS.