Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/69/de: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:23, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Active Retrieval augmented generation (FLARE) ([[#bib.bib7|7]]) iteratively synthesizes a hypothetical next sentence. If the generated sentence contains low-probability tokens, FLARE would use the sentence as the new query for retrieval and regenerate the sentence. Mialon ''et al.'' ([[#bib.bib12|12]]) reviews works for advanced augmented generation methods in language model. Self-refine ([[#bib.bib11|11]]) builds an agent to improve the initial answer of RAG through iterative feedback and refinement. ReAct ([[#bib.bib16|16]]) Agent is widely used for handling the complex queries in a recursive manner. On the RAG evaluation front, RAGAS ([[#bib.bib4|4]]) and ARES ([[#bib.bib14|14]]) utilize LLMs as judges and build automatic RAG benchmark to evaluate the RAG system. Zhu ''et al.'' ([[#bib.bib17|17]]) overview the intensive usages of LLM in a RAG pipeline including retriever, data generation, rewriter, and reader. We believe that our work provides a unique perspective on building secure enterprise-grade chatbots via our FACTS framework.

    Aktive Retrieval-augmented Generation (FLARE) (7) synthetisiert iterativ einen hypothetischen nächsten Satz. Wenn der generierte Satz Tokens mit niedriger Wahrscheinlichkeit enthält, würde FLARE den Satz als neue Abfrage für das Retrieval verwenden und den Satz neu generieren. Mialon et al. (12) überprüft Arbeiten zu fortgeschrittenen Methoden der augmentierten Generierung in Sprachmodellen. Self-refine (11) baut einen Agenten, um die anfängliche Antwort von RAG durch iteratives Feedback und Verfeinerung zu verbessern. Der ReAct (16) Agent wird häufig verwendet, um komplexe Anfragen rekursiv zu bearbeiten. Im Bereich der RAG-Bewertung nutzen RAGAS (4) und ARES (14) LLMs als Richter und erstellen automatische RAG-Benchmarks zur Bewertung des RAG-Systems. Zhu et al. (17) geben einen Überblick über die intensive Nutzung von LLM in einer RAG-Pipeline, einschließlich Retriever, Datengenerierung, Umschreiber und Leser. Wir glauben, dass unsere Arbeit eine einzigartige Perspektive auf den Aufbau sicherer, unternehmensgerechter Chatbots durch unser FACTS-Framework bietet.