Translations:Overfitting and Regularization/34/es
- Normalización por lotes (batch normalization) — normalizar las entradas de cada capa reduce el cambio interno de covariables y tiene un efecto regularizador suave.
- Suavizado de etiquetas (label smoothing) — reemplaza los objetivos one-hot por una mezcla, por ejemplo $ y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C $, evitando un exceso de confianza.
- Inyección de ruido — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.