Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/60/pt

    From Marovi AI
    Revision as of 07:30, 20 February 2025 by Felipefelixarias (talk | contribs) (Importing a new version from external source)
    (diff) ← Older revision | Latest revision (diff) | Newer revision → (diff)

    Construir confiança é fundamental ao implantar chatbots de IA generativa. Para mitigar riscos, é crucial estabelecer limites para alucinações, toxicidade, justiça, transparência e segurança. Modelos fundamentais robustos estão cada vez melhores nesses aspectos. No entanto, ainda existem muitas possibilidades de falhas de segurança, ataques adversários e outros problemas de segurança. Além desses riscos de segurança, chatbots baseados em IA generativa são suscetíveis a riscos derivados (explicados abaixo). Como nossos bots são todos chatbots empresariais internos, nosso foco tem sido mais na segurança do conteúdo empresarial e na proteção de dados sensíveis. Abaixo, resumimos nossos aprendizados e insights para proteger chatbots baseados em RAG com base em nossa experiência. Abordar esses desafios é imperativo para manter a integridade e a segurança dos chatbots baseados em RAG dentro de ambientes corporativos.