Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/68/es: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 08:27, 19 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    ChipNemo ([[#bib.bib10|10]]) presents evidence for using a domain adapted language model for improving RAG’s performance on domain specific questions. They finetuned the e5-small-unsupervised model with 3,000 domain specific auto-generated samples. We tried fine-tuning e5-large embeddings model in Scout Bot. Our results did not demonstrate significant improvements. We are presently collecting high quality human-annotated data to repeat the experiments. This could be an important direction to explore in the future for our work. Another interesting technique was presented by Setty ''et. al.'' ([[#bib.bib15|15]]), in improving RAG performance using Hypothetical Document Embeddings (HYDE) technique. HyDE uses an LLM to generate a theoretical document when responding to a query and then does the similarity search with both the original question and hypothetical answer. This is a promising approach but might make the architecture complex.

    ChipNemo (10) presenta evidencia del uso de un modelo de lenguaje adaptado al dominio para mejorar el rendimiento de RAG en preguntas específicas de dominio. Ajustaron el modelo e5-small-unsupervised con 3,000 muestras autogeneradas específicas del dominio. Intentamos ajustar el modelo de incrustaciones e5-large en Scout Bot. Nuestros resultados no demostraron mejoras significativas. Actualmente estamos recopilando datos de alta calidad anotados por humanos para repetir los experimentos. Esto podría ser una dirección importante a explorar en el futuro para nuestro trabajo. Otra técnica interesante fue presentada por Setty et. al. (15), al mejorar el rendimiento de RAG utilizando la técnica de Embeddings de Documentos Hipotéticos (HYDE). HyDE utiliza un LLM para generar un documento teórico al responder a una consulta y luego realiza la búsqueda de similitud tanto con la pregunta original como con la respuesta hipotética. Este es un enfoque prometedor, pero podría complicar la arquitectura.