All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Language Models are Few-Shot Learners''' is a 2020 paper by Brown et al. from OpenAI that introduced '''GPT-3''', a 175-billion-parameter autoregressive language model. The paper demonstrated that sufficiently large language models can perform a wide variety of NLP tasks through '''in-context learning''' — simply by conditioning on a few examples provided in the prompt — without any gradient updates or {{Term|fine-tuning}}.
 h Spanish (es)'''Language Models are Few-Shot Learners''' es un artículo de 2020 de Brown et al. de OpenAI que introdujo '''GPT-3''', un modelo de lenguaje autorregresivo de 175 mil millones de parámetros. El artículo demostró que los modelos de lenguaje suficientemente grandes pueden realizar una amplia variedad de tareas de PLN mediante el '''aprendizaje en contexto''' — simplemente condicionando sobre unos pocos ejemplos proporcionados en el prompt — sin ninguna actualización de gradientes ni {{Term|fine-tuning|ajuste fino}}.
 h Chinese (zh)'''Language Models are Few-Shot Learners''' 是 OpenAI 的 Brown 等人于 2020 年发表的论文,介绍了 '''GPT-3''',一个具有 1750 亿参数的自回归语言模型。该论文证明,足够大的语言模型可以通过'''上下文学习'''执行各种各样的 NLP 任务——只需以提示中提供的少量示例为条件——而无需任何梯度更新或 {{Term|fine-tuning|微调}}。