All translations
Enter a message name below to show all available translations.
Found 8 translations.
Name | Current message text |
---|---|
h German (de) | ChipNemo ([[#bib.bib10|10]]) liefert Beweise für die Verwendung eines domänenspezifisch angepassten Sprachmodells zur Verbesserung der Leistung von RAG bei domänenspezifischen Fragen. Sie haben das e5-small-unsupervised Modell mit 3.000 domänenspezifischen, automatisch generierten Beispielen feinabgestimmt. Wir haben versucht, das e5-large Embeddings Modell in Scout Bot feinabzustimmen. Unsere Ergebnisse zeigten keine signifikanten Verbesserungen. Derzeit sammeln wir qualitativ hochwertige, von Menschen annotierte Daten, um die Experimente zu wiederholen. Dies könnte eine wichtige Richtung für unsere zukünftige Arbeit sein. Eine weitere interessante Technik wurde von Setty ''et. al.'' ([[#bib.bib15|15]]) vorgestellt, um die Leistung von RAG mit der Hypothetical Document Embeddings (HYDE) Technik zu verbessern. HyDE verwendet ein LLM, um ein theoretisches Dokument zu generieren, wenn auf eine Anfrage geantwortet wird, und führt dann die Ähnlichkeitssuche sowohl mit der ursprünglichen Frage als auch mit der hypothetischen Antwort durch. Dies ist ein vielversprechender Ansatz, könnte jedoch die Architektur komplex machen. |
h English (en) | ChipNemo ([[#bib.bib10|10]]) presents evidence for using a domain adapted language model for improving RAG’s performance on domain specific questions. They finetuned the e5-small-unsupervised model with 3,000 domain specific auto-generated samples. We tried fine-tuning e5-large embeddings model in Scout Bot. Our results did not demonstrate significant improvements. We are presently collecting high quality human-annotated data to repeat the experiments. This could be an important direction to explore in the future for our work. Another interesting technique was presented by Setty ''et. al.'' ([[#bib.bib15|15]]), in improving RAG performance using Hypothetical Document Embeddings (HYDE) technique. HyDE uses an LLM to generate a theoretical document when responding to a query and then does the similarity search with both the original question and hypothetical answer. This is a promising approach but might make the architecture complex. |
h Spanish (es) | ChipNemo ([[#bib.bib10|10]]) presenta evidencia del uso de un modelo de lenguaje adaptado al dominio para mejorar el rendimiento de RAG en preguntas específicas de dominio. Ajustaron el modelo e5-small-unsupervised con 3,000 muestras autogeneradas específicas del dominio. Intentamos ajustar el modelo de incrustaciones e5-large en Scout Bot. Nuestros resultados no demostraron mejoras significativas. Actualmente estamos recopilando datos de alta calidad anotados por humanos para repetir los experimentos. Esto podría ser una dirección importante a explorar en el futuro para nuestro trabajo. Otra técnica interesante fue presentada por Setty ''et. al.'' ([[#bib.bib15|15]]), al mejorar el rendimiento de RAG utilizando la técnica de Embeddings de Documentos Hipotéticos (HYDE). HyDE utiliza un LLM para generar un documento teórico al responder a una consulta y luego realiza la búsqueda de similitud tanto con la pregunta original como con la respuesta hipotética. Este es un enfoque prometedor, pero podría complicar la arquitectura. |
h French (fr) | ChipNemo ([[#bib.bib10|10]]) présente des preuves de l'utilisation d'un modèle de langage adapté au domaine pour améliorer les performances de RAG sur des questions spécifiques au domaine. Ils ont affiné le modèle e5-small-unsupervised avec 3 000 échantillons auto-générés spécifiques au domaine. Nous avons essayé d'affiner le modèle d'embeddings e5-large dans Scout Bot. Nos résultats n'ont pas montré d'améliorations significatives. Nous collectons actuellement des données annotées par des humains de haute qualité pour répéter les expériences. Cela pourrait être une direction importante à explorer à l'avenir pour notre travail. Une autre technique intéressante a été présentée par Setty ''et. al.'' ([[#bib.bib15|15]]), pour améliorer les performances de RAG en utilisant la technique des Hypothetical Document Embeddings (HYDE). HyDE utilise un LLM pour générer un document théorique lors de la réponse à une requête, puis effectue la recherche de similarité avec à la fois la question originale et la réponse hypothétique. C'est une approche prometteuse mais qui pourrait complexifier l'architecture. |
h Japanese (ja) | ChipNemo([[#bib.bib10|10]])は、ドメイン適応型言語モデルを使用してRAGのドメイン特化型質問に対するパフォーマンスを向上させる証拠を提示しています。彼らは、3,000のドメイン特化型自動生成サンプルを用いてe5-small-unsupervisedモデルを微調整しました。私たちはScout Botでe5-large埋め込みモデルの微調整を試みましたが、結果は大幅な改善を示しませんでした。現在、高品質な人間による注釈付きデータを収集して実験を繰り返しています。これは将来の研究において重要な方向性となる可能性があります。Setty ''et. al.''([[#bib.bib15|15]])によって提示されたもう一つの興味深い技術は、Hypothetical Document Embeddings(HYDE)技術を使用してRAGのパフォーマンスを向上させる方法です。HyDEは、クエリに応答する際に理論的な文書を生成し、その後、元の質問と仮説的な回答の両方で類似性検索を行います。これは有望なアプローチですが、アーキテクチャを複雑にする可能性があります。 |
h Korean (ko) | ChipNemo ([[#bib.bib10|10]])는 도메인 적응 언어 모델을 사용하여 RAG의 도메인 특정 질문에 대한 성능을 향상시키는 증거를 제시합니다. 그들은 3,000개의 도메인 특정 자동 생성 샘플로 e5-small-unsupervised 모델을 미세 조정했습니다. 우리는 Scout Bot에서 e5-large 임베딩 모델을 미세 조정하려고 시도했습니다. 우리의 결과는 유의미한 개선을 보여주지 않았습니다. 우리는 현재 실험을 반복하기 위해 고품질의 인간 주석 데이터를 수집하고 있습니다. 이는 우리의 작업에 있어 미래에 탐구할 중요한 방향이 될 수 있습니다. 또 다른 흥미로운 기술은 Setty ''et. al.'' ([[#bib.bib15|15]])에 의해 제시된 Hypothetical Document Embeddings (HYDE) 기법을 사용하여 RAG 성능을 향상시키는 방법입니다. HyDE는 쿼리에 응답할 때 이론적 문서를 생성하기 위해 LLM을 사용한 후 원래 질문과 가설적 답변 모두와 유사성 검색을 수행합니다. 이는 유망한 접근 방식이지만 아키텍처를 복잡하게 만들 수 있습니다. |
h Portuguese (pt) | ChipNemo ([[#bib.bib10|10]]) apresenta evidências do uso de um modelo de linguagem adaptado ao domínio para melhorar o desempenho do RAG em perguntas específicas de domínio. Eles ajustaram o modelo e5-small-unsupervised com 3.000 amostras auto-geradas específicas de domínio. Tentamos ajustar o modelo de embeddings e5-large no Scout Bot. Nossos resultados não demonstraram melhorias significativas. Atualmente, estamos coletando dados de alta qualidade anotados por humanos para repetir os experimentos. Esta pode ser uma direção importante a explorar no futuro para o nosso trabalho. Outra técnica interessante foi apresentada por Setty ''et. al.'' ([[#bib.bib15|15]]), ao melhorar o desempenho do RAG usando a técnica de Embeddings de Documentos Hipotéticos (HyDE). HyDE usa um LLM para gerar um documento teórico ao responder a uma consulta e, em seguida, faz a busca de similaridade tanto com a pergunta original quanto com a resposta hipotética. Esta é uma abordagem promissora, mas pode tornar a arquitetura complexa. |
h Chinese (zh) | ChipNemo([[#bib.bib10|10]])提供了使用领域适应语言模型来提高RAG在特定领域问题上的表现的证据。他们对e5-small-unsupervised模型进行了微调,使用了3,000个领域特定的自动生成样本。我们尝试在Scout Bot中微调e5-large嵌入模型。我们的结果没有显示出显著的改进。目前,我们正在收集高质量的人类注释数据以重复实验。这可能是我们未来工作中值得探索的重要方向。Setty ''et. al.''([[#bib.bib15|15]])提出了另一种有趣的技术,即使用假设文档嵌入(HYDE)技术来提高RAG性能。HyDE在响应查询时使用LLM生成理论文档,然后对原始问题和假设答案进行相似性搜索。这是一种有前途的方法,但可能会使架构变得复杂。 |