All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''GPT-3''': A 175-billion-parameter autoregressive {{Term|transformer}} language model, over 100 times larger than GPT-2, trained on a diverse corpus of internet text.
* '''In-context learning''': Demonstration that large language models can learn tasks from examples presented in the prompt without parameter updates.
* '''Scaling laws for few-shot performance''': Evidence that few-shot performance scales smoothly with model size across three orders of magnitude (125M to 175B parameters).
* Analysis of the social impacts and potential misuse of large language models, including bias, fairness, and energy consumption.
 h Spanish (es)* '''GPT-3''': Un modelo de lenguaje autorregresivo de tipo {{Term|transformer|transformer}} con 175 mil millones de parámetros, más de 100 veces mayor que GPT-2, entrenado sobre un corpus diverso de texto de internet.
* '''Aprendizaje en contexto''': Demostración de que los grandes modelos de lenguaje pueden aprender tareas a partir de ejemplos presentados en el prompt sin actualización de parámetros.
* '''Leyes de escalado para el rendimiento few-shot''': Evidencia de que el rendimiento few-shot escala de forma suave con el tamaño del modelo a lo largo de tres órdenes de magnitud (de 125M a 175B parámetros).
* Análisis de los impactos sociales y el posible mal uso de los grandes modelos de lenguaje, incluyendo sesgo, equidad y consumo energético.
 h Chinese (zh)* '''GPT-3''':一个具有 1750 亿参数的自回归 {{Term|transformer|transformer}} 语言模型,比 GPT-2 大 100 倍以上,在多样化的互联网文本语料库上训练。
* '''上下文学习''':证明大型语言模型可以从提示中提供的示例中学习任务,而无需更新参数。
* '''少样本性能的缩放规律''':证据表明少样本性能随模型规模在三个数量级范围内(1.25 亿到 1750 亿参数)平滑缩放。
* 对大型语言模型的社会影响和潜在滥用的分析,包括偏见、公平性和能源消耗。