All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''Data augmentation''' complements transfer learning by artificially expanding the effective size of the target dataset.
* '''{{Term|learning rate}} warmup''' helps stabilise early training when {{Term|fine-tuning}} large pretrained models.
* '''Early stopping''' on a validation set prevents {{Term|overfitting}} during {{Term|fine-tuning}}, especially with small datasets.
* '''Layer-wise {{Term|learning rate}} decay''' assigns smaller rates to earlier (more general) layers and larger rates to later (more task-specific) layers.
* '''Intermediate task transfer''' — {{Term|fine-tuning}} on a related intermediate task before the final target (e.g., NLI before sentiment analysis) can further improve results.
 h Spanish (es)* El '''aumento de datos''' complementa el aprendizaje por transferencia al expandir artificialmente el tamaño efectivo del conjunto de datos objetivo.
* El '''calentamiento de la {{Term|learning rate|tasa de aprendizaje}}''' ayuda a estabilizar el entrenamiento inicial cuando se realiza {{Term|fine-tuning|ajuste fino}} en modelos preentrenados grandes.
* La '''parada temprana''' sobre un conjunto de validación previene el {{Term|overfitting|sobreajuste}} durante el {{Term|fine-tuning|ajuste fino}}, especialmente con conjuntos de datos pequeños.
* El '''decaimiento de {{Term|learning rate|tasa de aprendizaje}} por capas''' asigna tasas más pequeñas a las capas anteriores (más generales) y tasas más grandes a las capas posteriores (más específicas de la tarea).
* '''Transferencia mediante tareas intermedias''' — el {{Term|fine-tuning|ajuste fino}} sobre una tarea intermedia relacionada antes del objetivo final (por ejemplo, NLI antes del análisis de sentimientos) puede mejorar aún más los resultados.
 h Chinese (zh)* '''数据增强'''通过人为扩大目标数据集的有效规模来补充迁移学习。
* '''{{Term|learning rate|学习率}}预热'''有助于在对大型预训练模型进行{{Term|fine-tuning|微调}}时稳定早期训练。
* 在验证集上的'''早停'''可防止{{Term|fine-tuning|微调}}过程中的{{Term|overfitting|过拟合}},尤其是在小数据集上。
* '''逐层{{Term|learning rate|学习率}}衰减'''为较早(更通用)的层分配较小的学习率,为较晚(更特定于任务)的层分配较大的学习率。
* '''中间任务迁移''' — 在最终目标之前对相关的中间任务进行{{Term|fine-tuning|微调}}(例如,在情感分析之前进行 NLI)可以进一步改善结果。