All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''Masked language modeling''' (MLM): A {{Term|pre-training}} objective that randomly masks input tokens and trains the model to predict them from bidirectional context, enabling true bidirectional representation learning.
* '''Next sentence prediction''' (NSP): A binary classification {{Term|pre-training}} task that teaches the model to understand relationships between sentence pairs.
* A simple and effective '''{{Term|fine-tuning}} paradigm''': Adding a single output layer to the pre-trained model suffices for a wide range of NLP tasks, from classification to question answering.
* Demonstration that deep bidirectional {{Term|pre-training}} is critically important for learning general-purpose language representations.
 h Spanish (es)* '''Modelado de lenguaje enmascarado''' (MLM): Un objetivo de {{Term|pre-training|preentrenamiento}} que enmascara aleatoriamente tokens de entrada y entrena al modelo para predecirlos a partir del contexto bidireccional, permitiendo un aprendizaje genuinamente bidireccional de representaciones.
* '''Predicción de la siguiente oración''' (NSP): Una tarea de {{Term|pre-training|preentrenamiento}} de clasificación binaria que enseña al modelo a comprender las relaciones entre pares de oraciones.
* Un paradigma de '''{{Term|fine-tuning|ajuste fino}}''' simple y eficaz: añadir una única capa de salida al modelo preentrenado basta para una amplia variedad de tareas de PLN, desde la clasificación hasta la respuesta a preguntas.
* Demostración de que el {{Term|pre-training|preentrenamiento}} bidireccional profundo es de importancia crítica para aprender representaciones lingüísticas de propósito general.
 h Chinese (zh)* '''掩码语言建模'''(MLM):一种 {{Term|pre-training|预训练}} 目标,随机掩盖输入 token 并训练模型从双向上下文中预测它们,从而实现真正的双向表征学习。
* '''下一句预测'''(NSP):一种二分类 {{Term|pre-training|预训练}} 任务,教模型理解句对之间的关系。
* 一种简单有效的 '''{{Term|fine-tuning|微调}} 范式''':在预训练模型上添加一个单独的输出层,就足以应对从分类到问答的各种自然语言处理任务。
* 证明深度双向 {{Term|pre-training|预训练}} 对于学习通用语言表征至关重要。