Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/68/fr: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:25, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    ChipNemo ([[#bib.bib10|10]]) presents evidence for using a domain adapted language model for improving RAG’s performance on domain specific questions. They finetuned the e5-small-unsupervised model with 3,000 domain specific auto-generated samples. We tried fine-tuning e5-large embeddings model in Scout Bot. Our results did not demonstrate significant improvements. We are presently collecting high quality human-annotated data to repeat the experiments. This could be an important direction to explore in the future for our work. Another interesting technique was presented by Setty ''et. al.'' ([[#bib.bib15|15]]), in improving RAG performance using Hypothetical Document Embeddings (HYDE) technique. HyDE uses an LLM to generate a theoretical document when responding to a query and then does the similarity search with both the original question and hypothetical answer. This is a promising approach but might make the architecture complex.

    ChipNemo (10) présente des preuves de l'utilisation d'un modèle de langage adapté au domaine pour améliorer les performances de RAG sur des questions spécifiques au domaine. Ils ont affiné le modèle e5-small-unsupervised avec 3 000 échantillons auto-générés spécifiques au domaine. Nous avons essayé d'affiner le modèle d'embeddings e5-large dans Scout Bot. Nos résultats n'ont pas montré d'améliorations significatives. Nous collectons actuellement des données annotées par des humains de haute qualité pour répéter les expériences. Cela pourrait être une direction importante à explorer à l'avenir pour notre travail. Une autre technique intéressante a été présentée par Setty et. al. (15), pour améliorer les performances de RAG en utilisant la technique des Hypothetical Document Embeddings (HYDE). HyDE utilise un LLM pour générer un document théorique lors de la réponse à une requête, puis effectue la recherche de similarité avec à la fois la question originale et la réponse hypothétique. C'est une approche prometteuse mais qui pourrait complexifier l'architecture.