Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/68/ko: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:19, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    ChipNemo ([[#bib.bib10|10]]) presents evidence for using a domain adapted language model for improving RAG’s performance on domain specific questions. They finetuned the e5-small-unsupervised model with 3,000 domain specific auto-generated samples. We tried fine-tuning e5-large embeddings model in Scout Bot. Our results did not demonstrate significant improvements. We are presently collecting high quality human-annotated data to repeat the experiments. This could be an important direction to explore in the future for our work. Another interesting technique was presented by Setty ''et. al.'' ([[#bib.bib15|15]]), in improving RAG performance using Hypothetical Document Embeddings (HYDE) technique. HyDE uses an LLM to generate a theoretical document when responding to a query and then does the similarity search with both the original question and hypothetical answer. This is a promising approach but might make the architecture complex.

    ChipNemo (10)는 도메인 적응 언어 모델을 사용하여 RAG의 도메인 특정 질문에 대한 성능을 향상시키는 증거를 제시합니다. 그들은 3,000개의 도메인 특정 자동 생성 샘플로 e5-small-unsupervised 모델을 미세 조정했습니다. 우리는 Scout Bot에서 e5-large 임베딩 모델을 미세 조정하려고 시도했습니다. 우리의 결과는 유의미한 개선을 보여주지 않았습니다. 우리는 현재 실험을 반복하기 위해 고품질의 인간 주석 데이터를 수집하고 있습니다. 이는 우리의 작업에 있어 미래에 탐구할 중요한 방향이 될 수 있습니다. 또 다른 흥미로운 기술은 Setty et. al. (15)에 의해 제시된 Hypothetical Document Embeddings (HYDE) 기법을 사용하여 RAG 성능을 향상시키는 방법입니다. HyDE는 쿼리에 응답할 때 이론적 문서를 생성하기 위해 LLM을 사용한 후 원래 질문과 가설적 답변 모두와 유사성 검색을 수행합니다. 이는 유망한 접근 방식이지만 아키텍처를 복잡하게 만들 수 있습니다.