Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/69/fr: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:25, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Active Retrieval augmented generation (FLARE) ([[#bib.bib7|7]]) iteratively synthesizes a hypothetical next sentence. If the generated sentence contains low-probability tokens, FLARE would use the sentence as the new query for retrieval and regenerate the sentence. Mialon ''et al.'' ([[#bib.bib12|12]]) reviews works for advanced augmented generation methods in language model. Self-refine ([[#bib.bib11|11]]) builds an agent to improve the initial answer of RAG through iterative feedback and refinement. ReAct ([[#bib.bib16|16]]) Agent is widely used for handling the complex queries in a recursive manner. On the RAG evaluation front, RAGAS ([[#bib.bib4|4]]) and ARES ([[#bib.bib14|14]]) utilize LLMs as judges and build automatic RAG benchmark to evaluate the RAG system. Zhu ''et al.'' ([[#bib.bib17|17]]) overview the intensive usages of LLM in a RAG pipeline including retriever, data generation, rewriter, and reader. We believe that our work provides a unique perspective on building secure enterprise-grade chatbots via our FACTS framework.

    La génération augmentée par récupération active (FLARE) (7) synthétise de manière itérative une phrase hypothétique suivante. Si la phrase générée contient des tokens de faible probabilité, FLARE utiliserait la phrase comme nouvelle requête pour la récupération et régénérerait la phrase. Mialon et al. (12) passe en revue les travaux sur les méthodes avancées de génération augmentée dans le modèle de langage. Self-refine (11) construit un agent pour améliorer la réponse initiale de RAG grâce à un retour d'information et un raffinement itératifs. L'agent ReAct (16) est largement utilisé pour traiter les requêtes complexes de manière récursive. Sur le front de l'évaluation RAG, RAGAS (4) et ARES (14) utilisent les LLMs comme juges et construisent un benchmark RAG automatique pour évaluer le système RAG. Zhu et al. (17) donnent un aperçu des usages intensifs des LLM dans un pipeline RAG, y compris le récupérateur, la génération de données, le réécrivain et le lecteur. Nous croyons que notre travail offre une perspective unique sur la construction de chatbots sécurisés de niveau entreprise via notre cadre FACTS.