All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)# Start with a model large enough to overfit the training data — this confirms the model has sufficient capacity.
# Add regularization incrementally ({{Term|dropout}}, {{Term|weight decay}}, augmentation) and monitor validation performance.
# Use early stopping as a safety net.
# Prefer more training data over stronger regularization whenever possible — regularization is a substitute for data, not a replacement.
# Tune the regularization strength (<math>\lambda</math>, {{Term|dropout}} rate) using a validation set, never the test set.
 h Spanish (es)# Comenzar con un modelo lo suficientemente grande como para sobreajustar los datos de entrenamiento — esto confirma que el modelo tiene capacidad suficiente.
# Añadir regularización de forma incremental ({{Term|dropout}}, {{Term|weight decay|decaimiento de pesos}}, aumento de datos) y monitorizar el rendimiento de validación.
# Utilizar la detención temprana como red de seguridad.
# Preferir más datos de entrenamiento antes que una regularización más fuerte siempre que sea posible — la regularización es un sustituto de los datos, no un reemplazo.
# Ajustar la fuerza de regularización (<math>\lambda</math>, tasa de {{Term|dropout}}) utilizando un conjunto de validación, nunca el conjunto de prueba.
 h Chinese (zh)# 从一个足够大、能够过拟合训练数据的模型开始——这确认了该模型具有足够的容量。
# 逐步添加正则化({{Term|dropout}}、{{Term|weight decay|权重衰减}}、数据增强)并监控验证性能。
# 使用早停作为安全网。
# 在可能的情况下,优先选择更多的训练数据而非更强的正则化——正则化是数据的替代品,而非替换品。
# 使用验证集(绝不使用测试集)来调整正则化强度(<math>\lambda</math>、{{Term|dropout}} 比率)。