Translations:Overfitting and Regularization/22/es
Dropout (Srivastava et al., 2014) es una técnica de regularización específica para redes neuronales. Durante el entrenamiento, cada neurona se "descarta" aleatoriamente (se establece en cero) con probabilidad $ p $ en cada paso hacia adelante. Esto evita que las neuronas se coadapten y obliga a la red a aprender representaciones redundantes.