All translations
Enter a message name below to show all available translations.
Found 8 translations.
Name | Current message text |
---|---|
h German (de) | '''Größere vs. kleinere Modelle''': Größere kommerzielle LLMs und kleinere Open-Source-LLMs werden zunehmend für viele Anwendungsfälle praktikabel und bieten damit kostengünstige Alternativen für Unternehmen. Da Open-Source-Modelle mit größeren kommerziellen Modellen aufholen, bieten sie zunehmend eine vergleichbare Genauigkeit, wie in unserer empirischen Bewertung des NVHelp-Bots in Abbildung [[#S3.F3|3]] gezeigt, und haben im Allgemeinen eine bessere Latenzleistung im Vergleich zu größeren Modellen. Darüber hinaus kann die GPU-Optimierung von Inferenzmodellen die Verarbeitungszeiten weiter beschleunigen. Open-Source-Modelle, die mit NVIDIAs Tensor RT-LLM-Inferenzbibliotheken optimiert wurden, haben beispielsweise eine schnellere Leistung gezeigt als nicht optimierte Modelle. Diese Strategien helfen, die Notwendigkeit von Kosteneffizienz mit der Aufrechterhaltung hoher Leistungs- und Sicherheitsstandards in Einklang zu bringen. |
h English (en) | '''Bigger Vs. Smaller Models''': Larger, commercial LLMs, smaller open source LLMs are increasingly becoming viable for many use cases, thereby offering cost effective alternatives to companies. As open-source models are catching up with larger, commercial models, they are increasingly offering close-comparable accuracy, as demonstrated in our NVHelp bot empirical evaluation in Figure [[#S3.F3|3]], and generally have better latency performance compared to larger models. Additionally, GPU optimization of inference models can further speed up processing times. Open-source models optimized with NVIDIA’s Tensor RT-LLM inference libraries, for instance, have shown faster performance than non-optimized models. These strategies help balance the need for cost-efficiency with maintaining high performance and security standards. |
h Spanish (es) | '''Modelos Más Grandes Vs. Más Pequeños''': Los LLMs comerciales más grandes y los LLMs de código abierto más pequeños están convirtiéndose cada vez más en opciones viables para muchos casos de uso, ofreciendo así alternativas rentables para las empresas. A medida que los modelos de código abierto se acercan a los modelos comerciales más grandes, están ofreciendo una precisión comparable, como se demuestra en nuestra evaluación empírica del bot NVHelp en la Figura [[#S3.F3|3]], y generalmente tienen un mejor rendimiento de latencia en comparación con los modelos más grandes. Además, la optimización de modelos de inferencia en GPU puede acelerar aún más los tiempos de procesamiento. Los modelos de código abierto optimizados con las bibliotecas de inferencia Tensor RT-LLM de NVIDIA, por ejemplo, han mostrado un rendimiento más rápido que los modelos no optimizados. Estas estrategias ayudan a equilibrar la necesidad de rentabilidad con el mantenimiento de altos estándares de rendimiento y seguridad. |
h French (fr) | '''Modèles Plus Grands Vs. Plus Petits''': Les grands LLM commerciaux et les petits LLM open source deviennent de plus en plus viables pour de nombreux cas d'utilisation, offrant ainsi des alternatives rentables aux entreprises. Alors que les modèles open source rattrapent les modèles commerciaux plus grands, ils offrent de plus en plus une précision comparable, comme le démontre notre évaluation empirique du bot NVHelp dans la Figure [[#S3.F3|3]], et ont généralement de meilleures performances de latence par rapport aux modèles plus grands. De plus, l'optimisation GPU des modèles d'inférence peut encore accélérer les temps de traitement. Les modèles open source optimisés avec les bibliothèques d'inférence Tensor RT-LLM de NVIDIA, par exemple, ont montré des performances plus rapides que les modèles non optimisés. Ces stratégies aident à équilibrer le besoin d'efficacité économique tout en maintenant des normes élevées de performance et de sécurité. |
h Japanese (ja) | '''大規模モデル対小規模モデル''': 大規模な商用LLMと小規模なオープンソースLLMは、多くのユースケースにおいてますます実用的になり、企業にとってコスト効率の良い代替手段を提供しています。オープンソースモデルは大規模な商用モデルに追いつきつつあり、我々のNVHelpボットの実証評価で示されているように、精度がほぼ同等であることが増えています(図[[#S3.F3|3]])。また、一般的に大規模モデルと比較してレイテンシー性能が優れています。さらに、推論モデルのGPU最適化により処理時間をさらに短縮することができます。例えば、NVIDIAのTensor RT-LLM推論ライブラリで最適化されたオープンソースモデルは、非最適化モデルよりも高速なパフォーマンスを示しています。これらの戦略は、コスト効率の必要性と高いパフォーマンスおよびセキュリティ基準の維持を両立させるのに役立ちます。 |
h Korean (ko) | '''더 큰 모델 대 더 작은 모델''': 더 큰 상업용 LLM과 더 작은 오픈 소스 LLM은 점점 더 많은 사용 사례에 대해 실행 가능한 대안이 되고 있으며, 이를 통해 기업에 비용 효율적인 대안을 제공합니다. 오픈 소스 모델이 더 큰 상업용 모델을 따라잡으면서, [[#S3.F3|3]]의 NVHelp 봇 실증 평가에서 입증된 바와 같이 점점 더 유사한 정확도를 제공하고 있으며, 일반적으로 더 큰 모델에 비해 더 나은 지연 성능을 가지고 있습니다. 또한, GPU 최적화를 통해 추론 모델의 처리 시간을 더욱 단축할 수 있습니다. 예를 들어, NVIDIA의 Tensor RT-LLM 추론 라이브러리로 최적화된 오픈 소스 모델은 비최적화 모델보다 더 빠른 성능을 보여주었습니다. 이러한 전략은 비용 효율성을 유지하면서 높은 성능과 보안 표준을 유지하는 데 도움을 줍니다. |
h Portuguese (pt) | '''Modelos Maiores Vs. Menores''': Modelos LLMs comerciais maiores e modelos LLMs de código aberto menores estão se tornando cada vez mais viáveis para muitos casos de uso, oferecendo assim alternativas econômicas para as empresas. À medida que os modelos de código aberto se aproximam dos modelos comerciais maiores, eles estão oferecendo uma precisão comparável, como demonstrado em nossa avaliação empírica do bot NVHelp na Figura [[#S3.F3|3]], e geralmente apresentam melhor desempenho de latência em comparação com modelos maiores. Além disso, a otimização de modelos de inferência em GPUs pode acelerar ainda mais os tempos de processamento. Modelos de código aberto otimizados com as bibliotecas de inferência Tensor RT-LLM da NVIDIA, por exemplo, mostraram desempenho mais rápido do que modelos não otimizados. Essas estratégias ajudam a equilibrar a necessidade de eficiência de custos com a manutenção de altos padrões de desempenho e segurança. |
h Chinese (zh) | 《大模型与小模型》:大型商业LLM和小型开源LLM在许多用例中越来越具有可行性,从而为公司提供了具有成本效益的替代方案。随着开源模型逐渐赶上大型商业模型,它们在准确性上越来越接近,如我们在NVHelp机器人实证评估中的图3所示,并且通常在延迟性能上优于大型模型。此外,GPU优化的推理模型可以进一步加快处理时间。例如,使用NVIDIA的Tensor RT-LLM推理库优化的开源模型,性能比未优化的模型更快。这些策略有助于在保持高性能和安全标准的同时,平衡成本效益的需求。 |