All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''{{Term|dropout}} {{Term|regularization}}''': A training procedure that randomly omits neurons during each forward and backward pass, preventing neurons from developing overly specialized co-adaptations.
* '''Ensemble interpretation''': Theoretical motivation of {{Term|dropout}} as approximate model averaging over <math>2^n</math> possible thinned networks (where <math>n</math> is the number of droppable units), with shared weights.
* '''Comprehensive empirical evaluation''': Demonstration of consistent improvements across diverse domains including vision, speech recognition, text classification, and computational biology.
* '''Practical guidelines''': Recommendations for {{Term|dropout}} rates (<math>p = 0.5</math> for hidden units, <math>p = 0.8</math> for input units) and interactions with other {{Term|hyperparameter|hyperparameters}}.
 h Spanish (es)* '''{{Term|regularization|Regularización}} mediante {{Term|dropout|dropout}}''': un procedimiento de entrenamiento que omite aleatoriamente neuronas en cada paso hacia adelante y hacia atrás, evitando que las neuronas desarrollen coadaptaciones excesivamente especializadas.
* '''Interpretación como conjunto''': motivación teórica del {{Term|dropout|dropout}} como promedio aproximado de modelos sobre <math>2^n</math> redes adelgazadas posibles (donde <math>n</math> es el número de unidades susceptibles de descartarse), con pesos compartidos.
* '''Evaluación empírica exhaustiva''': demostración de mejoras consistentes en diversos dominios, incluyendo visión por computadora, reconocimiento de voz, clasificación de textos y biología computacional.
* '''Pautas prácticas''': recomendaciones de tasas de {{Term|dropout|dropout}} (<math>p = 0.5</math> para unidades ocultas, <math>p = 0.8</math> para unidades de entrada) e interacciones con otros {{Term|hyperparameter|hiperparámetros}}.
 h Chinese (zh)* '''{{Term|dropout|Dropout}} {{Term|regularization|正则化}}''':一种训练过程,在每次前向和反向传播中随机省略神经元,防止神经元形成过度特化的共适应。
* '''集成解释''':将 {{Term|dropout|dropout}} 在理论上视为对 <math>2^n</math> 个可能的稀疏化网络(其中 <math>n</math> 是可丢弃单元的数量)的近似模型平均,且这些网络共享权重。
* '''全面的实证评估''':在视觉、语音识别、文本分类和计算生物学等多个不同领域展示了一致的改进。
* '''实用指南''':关于 {{Term|dropout|dropout}} 比率的建议(隐藏单元 <math>p = 0.5</math>,输入单元 <math>p = 0.8</math>)以及与其他{{Term|hyperparameter|超参数}}的相互作用。