Translations:Overfitting and Regularization/22/es
dropout (Srivastava et al., 2014) es una técnica de regularización específica para redes neuronales. Durante el entrenamiento, cada neurona se "descarta" aleatoriamente (se pone a cero) con probabilidad $ p $ en cada paso hacia adelante. Esto impide que las neuronas se coadapten y obliga a la red a aprender representaciones redundantes.