All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''Data augmentation''' complements transfer learning by artificially expanding the effective size of the target dataset. * '''{{Term|learning rate}} warmup''' helps stabilise early training when {{Term|fine-tuning}} large pretrained models. * '''Early stopping''' on a validation set prevents {{Term|overfitting}} during {{Term|fine-tuning}}, especially with small datasets. * '''Layer-wise {{Term|learning rate}} decay''' assigns smaller rates to earlier (more general) layers and larger rates to later (more task-specific) layers. * '''Intermediate task transfer''' — {{Term|fine-tuning}} on a related intermediate task before the final target (e.g., NLI before sentiment analysis) can further improve results. |
| h Spanish (es) | * El '''aumento de datos''' complementa el aprendizaje por transferencia al expandir artificialmente el tamaño efectivo del conjunto de datos objetivo. * El '''calentamiento de la {{Term|learning rate|tasa de aprendizaje}}''' ayuda a estabilizar el entrenamiento inicial cuando se realiza {{Term|fine-tuning|ajuste fino}} en modelos preentrenados grandes. * La '''parada temprana''' sobre un conjunto de validación previene el {{Term|overfitting|sobreajuste}} durante el {{Term|fine-tuning|ajuste fino}}, especialmente con conjuntos de datos pequeños. * El '''decaimiento de {{Term|learning rate|tasa de aprendizaje}} por capas''' asigna tasas más pequeñas a las capas anteriores (más generales) y tasas más grandes a las capas posteriores (más específicas de la tarea). * '''Transferencia mediante tareas intermedias''' — el {{Term|fine-tuning|ajuste fino}} sobre una tarea intermedia relacionada antes del objetivo final (por ejemplo, NLI antes del análisis de sentimientos) puede mejorar aún más los resultados. |
| h Chinese (zh) | * '''数据增强'''通过人为扩大目标数据集的有效规模来补充迁移学习。 * '''{{Term|learning rate|学习率}}预热'''有助于在对大型预训练模型进行{{Term|fine-tuning|微调}}时稳定早期训练。 * 在验证集上的'''早停'''可防止{{Term|fine-tuning|微调}}过程中的{{Term|overfitting|过拟合}},尤其是在小数据集上。 * '''逐层{{Term|learning rate|学习率}}衰减'''为较早(更通用)的层分配较小的学习率,为较晚(更特定于任务)的层分配较大的学习率。 * '''中间任务迁移''' — 在最终目标之前对相关的中间任务进行{{Term|fine-tuning|微调}}(例如,在情感分析之前进行 NLI)可以进一步改善结果。 |