All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)The gradient of the regularization term is <math>\lambda \theta</math>, so each weight is multiplicatively shrunk toward zero at every update — hence the name '''{{Term|weight decay}}'''. The {{Term|hyperparameter}} <math>\lambda</math> controls the regularization strength.
 h Spanish (es)El gradiente del término de regularización es <math>\lambda \theta</math>, por lo que cada peso se reduce multiplicativamente hacia cero en cada actualización — de ahí el nombre '''{{Term|weight decay|decaimiento de pesos}}'''. El {{Term|hyperparameter|hiperparámetro}} <math>\lambda</math> controla la fuerza de la regularización.
 h Chinese (zh)正则化项的梯度为 <math>\lambda \theta</math>,因此在每次更新时,每个权重都会被乘性地收缩为零——因此得名'''{{Term|weight decay|权重衰减}}'''。{{Term|hyperparameter|超参数}} <math>\lambda</math> 控制正则化强度。