All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''{{Term|batch normalization}}''' — normalising layer inputs reduces internal covariate shift and has a mild regularizing effect.
* '''Label smoothing''' — replaces {{Term|one-hot encoding|one-hot}} targets with a mixture, e.g. <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, preventing overconfidence.
* '''Noise injection''' — adding Gaussian noise to inputs, weights, or gradients during training.
 h Spanish (es)* '''{{Term|batch normalization|normalización por lotes}}''' — normalizar las entradas de las capas reduce el desplazamiento interno de covariables y tiene un leve efecto regularizador.
* '''Suavizado de etiquetas''' — reemplaza los objetivos {{Term|one-hot encoding|one-hot}} por una mezcla, p. ej. <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, evitando el exceso de confianza.
* '''Inyección de ruido''' — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.
 h Chinese (zh)* '''{{Term|batch normalization|批量归一化}}'''——对层的输入进行归一化可以减少内部协变量偏移,并具有轻微的正则化效果。
* '''标签平滑'''——用混合分布替换 {{Term|one-hot encoding|独热}}目标,例如 <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>,防止过度自信。
* '''噪声注入'''——在训练期间向输入、权重或梯度中添加高斯噪声。