Translations:Overfitting and Regularization/22/es
Dropout (Srivastava et al., 2014) es una técnica de regularización específica para redes neuronales. Durante el entrenamiento, cada neurona se «descarta» aleatoriamente (se pone a cero) con probabilidad $ p $ en cada pase hacia adelante. Esto evita que las neuronas se coadapten y obliga a la red a aprender representaciones redundantes.