Translations:Overfitting and Regularization/34/es
- Normalización por lotes — normalizar las entradas de cada capa reduce el desplazamiento de covariables interno y tiene un leve efecto regularizador.
- Suavizado de etiquetas — sustituye los objetivos one-hot por una mezcla, p. ej. $ y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C $, evitando la sobreconfianza.
- Inyección de ruido — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.