Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/69/es: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 08:27, 19 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Active Retrieval augmented generation (FLARE) ([[#bib.bib7|7]]) iteratively synthesizes a hypothetical next sentence. If the generated sentence contains low-probability tokens, FLARE would use the sentence as the new query for retrieval and regenerate the sentence. Mialon ''et al.'' ([[#bib.bib12|12]]) reviews works for advanced augmented generation methods in language model. Self-refine ([[#bib.bib11|11]]) builds an agent to improve the initial answer of RAG through iterative feedback and refinement. ReAct ([[#bib.bib16|16]]) Agent is widely used for handling the complex queries in a recursive manner. On the RAG evaluation front, RAGAS ([[#bib.bib4|4]]) and ARES ([[#bib.bib14|14]]) utilize LLMs as judges and build automatic RAG benchmark to evaluate the RAG system. Zhu ''et al.'' ([[#bib.bib17|17]]) overview the intensive usages of LLM in a RAG pipeline including retriever, data generation, rewriter, and reader. We believe that our work provides a unique perspective on building secure enterprise-grade chatbots via our FACTS framework.

    La generación aumentada por recuperación activa (FLARE) (7) sintetiza iterativamente una oración hipotética siguiente. Si la oración generada contiene tokens de baja probabilidad, FLARE usaría la oración como la nueva consulta para la recuperación y regeneraría la oración. Mialon et al. (12) revisa trabajos sobre métodos avanzados de generación aumentada en modelos de lenguaje. Self-refine (11) construye un agente para mejorar la respuesta inicial de RAG a través de retroalimentación y refinamiento iterativos. El agente ReAct (16) se utiliza ampliamente para manejar consultas complejas de manera recursiva. En el frente de evaluación de RAG, RAGAS (4) y ARES (14) utilizan LLMs como jueces y construyen un punto de referencia automático de RAG para evaluar el sistema RAG. Zhu et al. (17) ofrece una visión general de los usos intensivos de LLM en una línea de RAG, incluyendo el recuperador, la generación de datos, el reescritor y el lector. Creemos que nuestro trabajo proporciona una perspectiva única sobre la construcción de chatbots empresariales seguros a través de nuestro marco FACTS.