All translations

Enter a message name below to show all available translations.

Message

Found 8 translations.

NameCurrent message text
 h German (de)'''Sollten LLMs feinabgestimmt werden oder nicht?''' Eine wichtige Entscheidung ist, ob LLMs feinabgestimmt werden sollen, wobei das Gleichgewicht zwischen der Nutzung von Grundmodellen und domänenspezifischen Anpassungen gewahrt werden muss. Einheitslösungen passen nicht immer, wenn es um LLMs geht. Einige Anwendungsfälle funktionieren gut mit Grundmodellen, während andere Anpassungen erfordern. Bei der Betrachtung von Anpassungen stehen mehrere Optionen zur Verfügung, darunter Prompt-Engineering, P-Tuning, parameter-effizientes Fein-Tuning (PEFT) und vollständiges Fein-Tuning (FT). Fein-Tuning erfordert erhebliche Investitionen in die Datenkennzeichnung, das Training und die Evaluierungen, die jeweils zeitaufwändig und kostspielig sein können. Die Automatisierung von Test- und Qualitätsbewertungsprozessen wird entscheidend, um Effizienz und Genauigkeit bei der Anpassung von LLMs sicherzustellen. Abbildung [[#S3.F3|3]] zeigt die von uns durchgeführten Bewertungen des Kompromisses zwischen Genauigkeit und Latenzzeit, bei denen wir das GPT-4-Modell von OpenAI mit einigen der Open-Source-Modelle anhand von etwa 245 Anfragen aus dem NVHelp-Bot-Bereich verglichen haben. Unsere Ergebnisse zeigen, dass das Llama3-70B-Modell in mehreren Aspekten der Antwortqualität herausragt, während es eine akzeptable Latenz beibehält.
 h English (en)'''To Fine-tune LLMs or not?''' A key decision is whether to fine-tune LLMs, balancing the use of foundational models with domain-specific customizations. One size doesn’t fit all when it comes to LLMs. Some use cases may work well with foundational models, while others require customization. When considering customization, several options are available, including prompt engineering, P-tuning, parameter-efficient fine-tuning (PEFT), and full fine-tuning (FT). Fine-tuning requires significant investment in data labeling, training, and evaluations, each of which can be time-consuming and costly. Automating testing and quality evaluation processes become critical to ensuring efficiency and accuracy when customizing LLMs. Figure [[#S3.F3|3]] shows the accuracy vs latency tradeoff evaluations we have done comparing OpenAI’s GPT-4 model with some of the open-source models on about 245 queries from NVHelp bot domain. Our results show that the Llama3-70B model excels in several aspects of answer quality while maintaining acceptable latency.
 h Spanish (es)¿Afinar o no afinar los LLMs? Una decisión clave es si afinar los LLMs, equilibrando el uso de modelos fundamentales con personalizaciones específicas del dominio. No hay una solución única para todos cuando se trata de LLMs. Algunos casos de uso pueden funcionar bien con modelos fundamentales, mientras que otros requieren personalización. Al considerar la personalización, hay varias opciones disponibles, incluyendo la ingeniería de prompts, P-tuning, afinación de parámetros eficiente (PEFT) y afinación completa (FT). Afinar requiere una inversión significativa en etiquetado de datos, entrenamiento y evaluaciones, cada uno de los cuales puede ser costoso y consumir mucho tiempo. Automatizar los procesos de prueba y evaluación de calidad se vuelve crítico para garantizar la eficiencia y precisión al personalizar los LLMs. La Figura [[#S3.F3|3]] muestra las evaluaciones de la compensación entre precisión y latencia que hemos realizado comparando el modelo GPT-4 de OpenAI con algunos de los modelos de código abierto en aproximadamente 245 consultas del dominio del bot NVHelp. Nuestros resultados muestran que el modelo Llama3-70B sobresale en varios aspectos de la calidad de las respuestas mientras mantiene una latencia aceptable.
 h French (fr)'''Faut-il affiner les LLMs ou non ?''' Une décision clé est de savoir s'il faut affiner les LLMs, en équilibrant l'utilisation des modèles de base avec des personnalisations spécifiques au domaine. Une seule solution ne convient pas à tous lorsqu'il s'agit de LLMs. Certains cas d'utilisation peuvent bien fonctionner avec des modèles de base, tandis que d'autres nécessitent une personnalisation. Lorsqu'on envisage la personnalisation, plusieurs options sont disponibles, y compris l'ingénierie des invites, le P-tuning, l'affinage efficace des paramètres (PEFT) et l'affinage complet (FT). L'affinage nécessite un investissement significatif dans l'étiquetage des données, la formation et les évaluations, chacun pouvant être chronophage et coûteux. L'automatisation des processus de test et d'évaluation de la qualité devient cruciale pour garantir l'efficacité et la précision lors de la personnalisation des LLMs. La figure [[#S3.F3|3]] montre les évaluations du compromis entre précision et latence que nous avons effectuées en comparant le modèle GPT-4 d'OpenAI avec certains des modèles open-source sur environ 245 requêtes du domaine NVHelp bot. Nos résultats montrent que le modèle Llama3-70B excelle dans plusieurs aspects de la qualité des réponses tout en maintenant une latence acceptable.
 h Japanese (ja)'''LLMをファインチューニングするか否か?''' 重要な決定は、基盤モデルの使用とドメイン固有のカスタマイズのバランスを取るために、LLMをファインチューニングするかどうかです。LLMに関しては、一つのサイズがすべてに適合するわけではありません。基盤モデルでうまく機能するユースケースもあれば、カスタマイズが必要なものもあります。カスタマイズを検討する際には、プロンプトエンジニアリング、Pチューニング、パラメータ効率の良いファインチューニング(PEFT)、および完全なファインチューニング(FT)など、いくつかのオプションがあります。ファインチューニングには、データラベリング、トレーニング、評価への多大な投資が必要であり、それぞれが時間とコストを要する可能性があります。LLMをカスタマイズする際には、テストと品質評価プロセスの自動化が効率と精度を確保するために重要になります。図[[#S3.F3|3]]は、OpenAIのGPT-4モデルといくつかのオープンソースモデルをNVHelpボットドメインの約245のクエリで比較した際の精度対レイテンシーのトレードオフ評価を示しています。我々の結果は、Llama3-70Bモデルが回答の質のいくつかの側面で優れており、許容可能なレイテンシーを維持していることを示しています。
 h Korean (ko)'''LLM을 미세 조정할 것인가, 말 것인가?''' LLM을 미세 조정할지 여부는 기본 모델 사용과 도메인별 맞춤화 사이의 균형을 맞추는 중요한 결정입니다. LLM에 있어서는 하나의 크기가 모두에게 맞지 않습니다. 일부 사용 사례는 기본 모델로 잘 작동할 수 있지만, 다른 경우에는 맞춤화가 필요합니다. 맞춤화를 고려할 때, 프롬프트 엔지니어링, P-튜닝, 파라미터 효율적 미세 조정(PEFT), 전체 미세 조정(FT) 등 여러 옵션이 있습니다. 미세 조정은 데이터 라벨링, 훈련, 평가에 상당한 투자가 필요하며, 이는 시간과 비용이 많이 들 수 있습니다. LLM을 맞춤화할 때 효율성과 정확성을 보장하기 위해 테스트 및 품질 평가 프로세스를 자동화하는 것이 중요합니다. 그림 [[#S3.F3|3]]은 OpenAI의 GPT-4 모델과 일부 오픈 소스 모델을 NVHelp 봇 도메인의 약 245개 쿼리에 대해 비교한 정확도 대 지연 시간 트레이드오프 평가를 보여줍니다. 우리의 결과는 Llama3-70B 모델이 여러 측면에서 답변 품질에 뛰어나면서도 수용 가능한 지연 시간을 유지한다는 것을 보여줍니다.
 h Portuguese (pt)'''Ajustar ou não ajustar os LLMs?''' Uma decisão crucial é se deve ajustar os LLMs, equilibrando o uso de modelos fundamentais com personalizações específicas de domínio. Um único modelo não atende a todas as necessidades quando se trata de LLMs. Alguns casos de uso podem funcionar bem com modelos fundamentais, enquanto outros exigem personalização. Ao considerar a personalização, várias opções estão disponíveis, incluindo engenharia de prompts, P-tuning, ajuste fino eficiente em parâmetros (PEFT) e ajuste fino completo (FT). O ajuste fino requer um investimento significativo em rotulagem de dados, treinamento e avaliações, cada um dos quais pode ser demorado e caro. Automatizar os processos de teste e avaliação de qualidade torna-se crítico para garantir eficiência e precisão ao personalizar LLMs. A Figura [[#S3.F3|3]] mostra as avaliações de tradeoff entre precisão e latência que fizemos comparando o modelo GPT-4 da OpenAI com alguns dos modelos de código aberto em cerca de 245 consultas do domínio do bot NVHelp. Nossos resultados mostram que o modelo Llama3-70B se destaca em vários aspectos da qualidade das respostas, mantendo uma latência aceitável.
 h Chinese (zh)是否微调大型语言模型(LLMs)?这是一个关键决策,涉及在使用基础模型与领域特定定制之间的平衡。对于LLMs来说,没有一种通用的解决方案。一些用例可能适合使用基础模型,而另一些则需要定制。在考虑定制时,有多种选择,包括提示工程、P-tuning、参数高效微调(PEFT)和完全微调(FT)。微调需要在数据标注、训练和评估方面进行大量投资,这些过程都可能耗时且成本高昂。自动化测试和质量评估过程对于确保在定制LLMs时的效率和准确性至关重要。图[[#S3.F3|3]]展示了我们在NVHelp bot领域的约245个查询中,比较OpenAI的GPT-4模型与一些开源模型的准确性与延迟权衡评估。我们的结果显示,Llama3-70B模型在保持可接受延迟的同时,在多个方面的答案质量上表现出色。