Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/45/ko: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:19, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Understanding the cost economics of generative AI-based chatbots involves several critical factors. The high costs of major and commercial LLMs can be unsustainable, with expenses adding up significantly across multiple use cases. Additionally, unseen expenses often accumulate as teams test various LLMs to meet specific needs. Moreover, when using commercial LLM vendor APIs, securing sensitive enterprise data requires guardrails to detect and prevent sensitive data leakage, as well as gateways for audit and legally permitted learning. There are also cost versus latency trade-offs to consider, as large LLMs with long context lengths typically have slower response times, impacting overall efficiency.

    생성 AI 기반 챗봇의 비용 경제학을 이해하는 것은 여러 중요한 요소를 포함합니다. 주요 상업적 대형 언어 모델(LLM)의 높은 비용은 지속 가능하지 않을 수 있으며, 여러 사용 사례에서 비용이 상당히 증가할 수 있습니다. 또한, 특정 요구를 충족하기 위해 다양한 LLM을 테스트하는 과정에서 보이지 않는 비용이 종종 누적됩니다. 게다가, 상업적 LLM 벤더 API를 사용할 때 민감한 기업 데이터를 보호하기 위해 민감한 데이터 유출을 감지하고 방지하는 가드레일과 감사 및 법적으로 허용된 학습을 위한 게이트웨이가 필요합니다. 또한, 긴 컨텍스트 길이를 가진 대형 LLM은 일반적으로 응답 시간이 느려 전체 효율성에 영향을 미치므로 비용과 지연 시간 간의 절충점을 고려해야 합니다.