Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/60/fr
La construction de la confiance est primordiale lors du déploiement de chatbots d'IA générative. Pour atténuer les risques, des garde-fous pour les hallucinations, la toxicité, l'équité, la transparence et la sécurité sont essentiels. Les modèles de base solides s'améliorent de plus en plus dans ces garde-fous. Cependant, il existe encore de nombreuses possibilités de contournements, d'attaques adversariales et d'autres problèmes de sécurité. Outre ces risques de sécurité, les chatbots basés sur l'IA générative sont sensibles à des risques dérivés (expliqués ci-dessous). Étant donné que nos bots sont tous des chatbots d'entreprise internes, notre attention s'est davantage portée sur la sécurité du contenu d'entreprise et la mise en place de garde-fous pour les données sensibles. Ci-dessous, nous résumons nos apprentissages et nos idées pour sécuriser les chatbots basés sur RAG en nous basant sur notre expérience. Relever ces défis est impératif pour maintenir l'intégrité et la sécurité des chatbots basés sur RAG dans les environnements d'entreprise.