All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''GPT-3''': A 175-billion-parameter autoregressive {{Term|transformer}} language model, over 100 times larger than GPT-2, trained on a diverse corpus of internet text. * '''In-context learning''': Demonstration that large language models can learn tasks from examples presented in the prompt without parameter updates. * '''Scaling laws for few-shot performance''': Evidence that few-shot performance scales smoothly with model size across three orders of magnitude (125M to 175B parameters). * Analysis of the social impacts and potential misuse of large language models, including bias, fairness, and energy consumption. |
| h Spanish (es) | * '''GPT-3''': Un modelo de lenguaje autorregresivo de tipo {{Term|transformer|transformer}} con 175 mil millones de parámetros, más de 100 veces mayor que GPT-2, entrenado sobre un corpus diverso de texto de internet. * '''Aprendizaje en contexto''': Demostración de que los grandes modelos de lenguaje pueden aprender tareas a partir de ejemplos presentados en el prompt sin actualización de parámetros. * '''Leyes de escalado para el rendimiento few-shot''': Evidencia de que el rendimiento few-shot escala de forma suave con el tamaño del modelo a lo largo de tres órdenes de magnitud (de 125M a 175B parámetros). * Análisis de los impactos sociales y el posible mal uso de los grandes modelos de lenguaje, incluyendo sesgo, equidad y consumo energético. |
| h Chinese (zh) | * '''GPT-3''':一个具有 1750 亿参数的自回归 {{Term|transformer|transformer}} 语言模型,比 GPT-2 大 100 倍以上,在多样化的互联网文本语料库上训练。 * '''上下文学习''':证明大型语言模型可以从提示中提供的示例中学习任务,而无需更新参数。 * '''少样本性能的缩放规律''':证据表明少样本性能随模型规模在三个数量级范围内(1.25 亿到 1750 亿参数)平滑缩放。 * 对大型语言模型的社会影响和潜在滥用的分析,包括偏见、公平性和能源消耗。 |