Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/53/ko: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:19, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    * '''Feedback Loops:''' Incorporating feedback gathered and the RLHF cycle is pivotal for continuous improvement. It allows LLM models to refine both our solutions and Language Models over time, ensuring that the chatbot becomes increasingly proficient. However, if the chosen foundational models don’t offer customization, then it becomes difficult to align the models to human feedback. If the feedback is significant and comes in many areas, then model customization may be an option. As of now, we have begun gathering user feedback but haven’t built our continuous learning pipelines using RLHF yet. Having tools to make this automated is critical to post-production life cycle management of these chatbots.
    • 피드백 루프: 수집된 피드백과 RLHF 사이클을 통합하는 것은 지속적인 개선을 위해 매우 중요합니다. 이는 LLM 모델이 시간에 따라 우리의 솔루션과 언어 모델을 정제할 수 있게 하여 챗봇이 점점 더 능숙해지도록 합니다. 그러나 선택한 기초 모델이 맞춤화를 제공하지 않는다면, 모델을 인간의 피드백에 맞추는 것이 어려워집니다. 피드백이 중요하고 여러 분야에서 제공된다면, 모델 맞춤화가 하나의 옵션이 될 수 있습니다. 현재 우리는 사용자 피드백을 수집하기 시작했지만, 아직 RLHF를 사용한 지속적인 학습 파이프라인을 구축하지 않았습니다. 이를 자동화할 수 있는 도구를 갖추는 것은 이러한 챗봇의 생산 후 라이프 사이클 관리에 필수적입니다.