Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/60/ko: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:19, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Building trust is paramount when deploying generative AI chatbots. To mitigate risks, guardrails for hallucinations, toxicity, fairness, transparency, and security are critical. Strong foundational models are increasingly getting better at these guardrails. However, there are still many possibilities of jail breaks, adversarial attacks, and other security issues. Apart from these security risks, generative AI-based chatbots are susceptible to derivative risks (explained below). Since our bots are all internal enterprise chatbots, our focus has been more on the enterprise content security and guardrailing for sensitive data. Below we summarize our learnings and insights for securing RAG-based chatbots based on our experience. Addressing these challenges is imperative to maintaining the integrity and security of RAG-based chatbots within corporate environments.

    신뢰 구축은 생성 AI 챗봇을 배포할 때 가장 중요합니다. 위험을 완화하기 위해 환각, 독성, 공정성, 투명성 및 보안을 위한 가드레일이 필수적입니다. 강력한 기초 모델은 이러한 가드레일에서 점점 더 나아지고 있습니다. 그러나 여전히 탈옥, 적대적 공격 및 기타 보안 문제의 가능성이 많이 있습니다. 이러한 보안 위험 외에도 생성 AI 기반 챗봇은 파생 위험에 취약합니다(아래 설명 참조). 우리의 봇은 모두 내부 기업용 챗봇이기 때문에, 우리는 기업 콘텐츠 보안과 민감한 데이터에 대한 가드레일링에 더 중점을 두었습니다. 아래에서는 우리의 경험을 바탕으로 RAG 기반 챗봇을 보호하기 위한 학습과 통찰을 요약합니다. 이러한 과제를 해결하는 것은 기업 환경 내에서 RAG 기반 챗봇의 무결성과 보안을 유지하는 데 필수적입니다.