All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | The gradient of the regularization term is <math>\lambda \theta</math>, so each weight is multiplicatively shrunk toward zero at every update — hence the name '''{{Term|weight decay}}'''. The {{Term|hyperparameter}} <math>\lambda</math> controls the regularization strength. |
| h Spanish (es) | El gradiente del término de regularización es <math>\lambda \theta</math>, por lo que cada peso se reduce multiplicativamente hacia cero en cada actualización — de ahí el nombre '''{{Term|weight decay|decaimiento de pesos}}'''. El {{Term|hyperparameter|hiperparámetro}} <math>\lambda</math> controla la fuerza de la regularización. |
| h Chinese (zh) | 正则化项的梯度为 <math>\lambda \theta</math>,因此在每次更新时,每个权重都会被乘性地收缩为零——因此得名'''{{Term|weight decay|权重衰减}}'''。{{Term|hyperparameter|超参数}} <math>\lambda</math> 控制正则化强度。 |