Translations:Overfitting and Regularization/34/es
- normalización por lotes — normalizar las entradas de las capas reduce el desplazamiento interno de covariables y tiene un leve efecto regularizador.
- Suavizado de etiquetas — reemplaza los objetivos one-hot por una mezcla, p. ej. $ y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C $, evitando el exceso de confianza.
- Inyección de ruido — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.