All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''{{Term|batch normalization}}''' — normalising layer inputs reduces internal covariate shift and has a mild regularizing effect. * '''Label smoothing''' — replaces {{Term|one-hot encoding|one-hot}} targets with a mixture, e.g. <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, preventing overconfidence. * '''Noise injection''' — adding Gaussian noise to inputs, weights, or gradients during training. |
| h Spanish (es) | * '''{{Term|batch normalization|normalización por lotes}}''' — normalizar las entradas de las capas reduce el desplazamiento interno de covariables y tiene un leve efecto regularizador. * '''Suavizado de etiquetas''' — reemplaza los objetivos {{Term|one-hot encoding|one-hot}} por una mezcla, p. ej. <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, evitando el exceso de confianza. * '''Inyección de ruido''' — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento. |
| h Chinese (zh) | * '''{{Term|batch normalization|批量归一化}}'''——对层的输入进行归一化可以减少内部协变量偏移,并具有轻微的正则化效果。 * '''标签平滑'''——用混合分布替换 {{Term|one-hot encoding|独热}}目标,例如 <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>,防止过度自信。 * '''噪声注入'''——在训练期间向输入、权重或梯度中添加高斯噪声。 |