All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | # Start with a model large enough to overfit the training data — this confirms the model has sufficient capacity. # Add regularization incrementally ({{Term|dropout}}, {{Term|weight decay}}, augmentation) and monitor validation performance. # Use early stopping as a safety net. # Prefer more training data over stronger regularization whenever possible — regularization is a substitute for data, not a replacement. # Tune the regularization strength (<math>\lambda</math>, {{Term|dropout}} rate) using a validation set, never the test set. |
| h Spanish (es) | # Comenzar con un modelo lo suficientemente grande como para sobreajustar los datos de entrenamiento — esto confirma que el modelo tiene capacidad suficiente. # Añadir regularización de forma incremental ({{Term|dropout}}, {{Term|weight decay|decaimiento de pesos}}, aumento de datos) y monitorizar el rendimiento de validación. # Utilizar la detención temprana como red de seguridad. # Preferir más datos de entrenamiento antes que una regularización más fuerte siempre que sea posible — la regularización es un sustituto de los datos, no un reemplazo. # Ajustar la fuerza de regularización (<math>\lambda</math>, tasa de {{Term|dropout}}) utilizando un conjunto de validación, nunca el conjunto de prueba. |
| h Chinese (zh) | # 从一个足够大、能够过拟合训练数据的模型开始——这确认了该模型具有足够的容量。 # 逐步添加正则化({{Term|dropout}}、{{Term|weight decay|权重衰减}}、数据增强)并监控验证性能。 # 使用早停作为安全网。 # 在可能的情况下,优先选择更多的训练数据而非更强的正则化——正则化是数据的替代品,而非替换品。 # 使用验证集(绝不使用测试集)来调整正则化强度(<math>\lambda</math>、{{Term|dropout}} 比率)。 |