All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en){{Term|dropout}} provides an efficient approximation to model combination. During each training step, each neuron (including input units) is retained with a probability <math>p</math> and dropped (set to zero) with probability <math>1 - p</math>. This means that on each training case, a different "thinned" sub-network is sampled. At test time, all neurons are used but their outputs are scaled by <math>p</math> to approximate the expected output of the ensemble.
 h Spanish (es)El {{Term|dropout|dropout}} proporciona una aproximación eficiente a la combinación de modelos. En cada paso de entrenamiento, cada neurona (incluidas las unidades de entrada) se mantiene con probabilidad <math>p</math> y se descarta (se pone a cero) con probabilidad <math>1 - p</math>. Esto significa que en cada caso de entrenamiento se muestrea una subred "adelgazada" diferente. En el momento de la prueba, se utilizan todas las neuronas, pero sus salidas se escalan por <math>p</math> para aproximar la salida esperada del conjunto.
 h Chinese (zh){{Term|dropout|Dropout}} 提供了一种高效的模型组合近似方法。在每个训练步骤中,每个神经元(包括输入单元)以概率 <math>p</math> 被保留,以概率 <math>1 - p</math> 被丢弃(置零)。这意味着在每个训练样本上都会采样出一个不同的“稀疏化”子网络。在测试时,使用所有神经元,但其输出按 <math>p</math> 缩放,以近似集成的期望输出。