Translations:FACTS About Building Retrieval Augmented Generation-based Chatbots/67/de: Difference between revisions

    From Marovi AI
    (Importing a new version from external source)
     
    (No difference)

    Latest revision as of 07:23, 20 February 2025

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (FACTS About Building Retrieval Augmented Generation-based Chatbots)
    Our work can be compared with RAG papers on various topics dealing with RAG quality along all the FACTS dimensions we presented (freshness, architecture, costs, testing, and security). Due to lack of space, we contrast our work with selective works. Barnett ''et. al.'' ([[#bib.bib3|3]]) presented seven failure points when engineering RAG systems. In their work, they highlight the challenges of getting retrieval augmented generation right by presenting their findings from having built three chatbots. Wenqi Glantz ([[#bib.bib6|6]]) elaborated 12 RAG pain points and presented solutions. We experienced similar challenges first-hand when building our chatbots. However, none of these works discuss the challenges with complex queries, testing, dealing with document security, and the need for flexible architectures. In our work, we not only build on failure/pain points of RAGs as mentioned above, but also present our 15 control points in RAG pipelines and offer specific solutions for each stage. Also, we extend our insights and present practical techniques for handling complex queries, testing, and security. We present a reference architecture for one of the implementations of agentic architectures for complex query handling, strategies for testing and evaluating subjective query responses, and raised awareness for dealing with document ACLs and security. Furthermore, we present a reference architecture for a flexible generative-AI based Chatbot platform.

    Unsere Arbeit kann mit RAG-Papieren zu verschiedenen Themen verglichen werden, die sich mit der RAG-Qualität in allen von uns vorgestellten FACTS-Dimensionen (Frische, Architektur, Kosten, Tests und Sicherheit) befassen. Aufgrund von Platzmangel vergleichen wir unsere Arbeit mit ausgewählten Arbeiten. Barnett et. al. (3) präsentierten sieben Schwachstellen bei der Entwicklung von RAG-Systemen. In ihrer Arbeit heben sie die Herausforderungen hervor, die mit der korrekten Implementierung von Retrieval-Augmented Generation verbunden sind, indem sie ihre Erkenntnisse aus dem Bau von drei Chatbots präsentieren. Wenqi Glantz (6) erläuterte 12 RAG-Schmerzpunkte und präsentierte Lösungen. Wir haben ähnliche Herausforderungen aus erster Hand erlebt, als wir unsere Chatbots entwickelten. Allerdings diskutiert keine dieser Arbeiten die Herausforderungen bei komplexen Abfragen, Tests, dem Umgang mit Dokumentensicherheit und der Notwendigkeit flexibler Architekturen. In unserer Arbeit bauen wir nicht nur auf den oben genannten Schwach-/Schmerzpunkten von RAGs auf, sondern präsentieren auch unsere 15 Kontrollpunkte in RAG-Pipelines und bieten spezifische Lösungen für jede Phase. Außerdem erweitern wir unsere Erkenntnisse und präsentieren praktische Techniken für den Umgang mit komplexen Abfragen, Tests und Sicherheit. Wir präsentieren eine Referenzarchitektur für eine der Implementierungen agentischer Architekturen zur Handhabung komplexer Abfragen, Strategien für das Testen und Bewerten subjektiver Abfrageantworten und sensibilisieren für den Umgang mit Dokument-ACLs und Sicherheit. Darüber hinaus präsentieren wir eine Referenzarchitektur für eine flexible generative KI-basierte Chatbot-Plattform.