All translations

Enter a message name below to show all available translations.

Message

Found 8 translations.

NameCurrent message text
 h German (de)Das Testen generativer KI-Lösungen kann ein langwieriger Prozess sein, da die Validierung menschlicher Antworten erforderlich ist. LLMs werden zunehmend im Rahmen des „LLM-as-a-judge“-Ansatzes eingesetzt. Es ist jedoch ratsam, Vorsicht walten zu lassen, wenn LLMs als menschliche Stellvertreter verwendet werden, da die Verwendung von LLMs als Richter zu selbst erfüllenden Prophezeiungen führen kann, die ihre inhärenten Vorurteile in Bewertungen verstärken.
 h English (en)Testing generative AI solutions can be a lengthy process due to the need for human response validation. LLMs are increasingly being employed using ‘LLM-as-a-judge’ approach. However, it is advisable to use caution when using LLMs as human proxy, as using LLMs as judges can lead to self-fulfilling prophecy type of scenarios reinforcing their inherent biases in evaluations as well.
 h Spanish (es)Probar soluciones de IA generativa puede ser un proceso largo debido a la necesidad de validación de respuestas humanas. Los modelos de lenguaje grande (LLM, por sus siglas en inglés) se están utilizando cada vez más con el enfoque de 'LLM-como-juez'. Sin embargo, es recomendable tener precaución al usar LLMs como sustitutos humanos, ya que utilizarlos como jueces puede llevar a escenarios de tipo profecía autocumplida, reforzando también sus sesgos inherentes en las evaluaciones.
 h French (fr)Tester des solutions d'IA générative peut être un processus long en raison de la nécessité de valider les réponses humaines. Les LLM sont de plus en plus utilisés selon l'approche « LLM-as-a-judge ». Cependant, il est conseillé de faire preuve de prudence lors de l'utilisation des LLM comme substitut humain, car les utiliser comme juges peut conduire à des scénarios de prophétie auto-réalisatrice, renforçant ainsi leurs biais inhérents dans les évaluations.
 h Japanese (ja)生成AIソリューションのテストは、人間の応答の検証が必要なため、時間がかかることがあります。LLMは「LLM-as-a-judge」アプローチを使用してますます採用されています。しかし、LLMを人間の代理として使用する際には注意が必要です。LLMを判定者として使用すると、評価における固有のバイアスを強化する自己成就的予言のようなシナリオを引き起こす可能性があるためです。
 h Korean (ko)생성 AI 솔루션을 테스트하는 것은 인간의 응답 검증이 필요하기 때문에 시간이 오래 걸릴 수 있습니다. LLM은 'LLM-as-a-judge' 접근 방식을 사용하여 점점 더 많이 사용되고 있습니다. 그러나 LLM을 인간 대리인으로 사용할 때는 주의가 필요합니다. LLM을 심판으로 사용하는 것은 평가에서 내재된 편견을 강화하는 자기 충족적 예언 시나리오로 이어질 수 있기 때문입니다.
 h Portuguese (pt)Testar soluções de IA generativa pode ser um processo demorado devido à necessidade de validação de respostas humanas. Os LLMs estão sendo cada vez mais utilizados na abordagem de 'LLM-como-juiz'. No entanto, é aconselhável ter cautela ao usar LLMs como substitutos humanos, pois usá-los como juízes pode levar a cenários de profecia autorrealizável, reforçando também seus preconceitos inerentes nas avaliações.
 h Chinese (zh)由于需要人工响应验证,测试生成式人工智能解决方案可能是一个漫长的过程。越来越多地使用“LLM-as-a-judge”方法来应用大型语言模型。然而,建议在将大型语言模型作为人类代理时要谨慎,因为将大型语言模型作为评判者可能导致自我实现预言类型的情景,从而在评估中强化其固有的偏见。