All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | {{Term|dropout}} became standard practice in neural network training throughout the 2010s, included by default in most {{Term|deep learning}} frameworks. Its conceptual simplicity and consistent effectiveness made it one of the most cited papers in machine learning. The idea of stochastic {{Term|regularization}} through random perturbation during training influenced many subsequent techniques, including DropConnect, DropBlock, stochastic depth, and data augmentation strategies. |
| h Spanish (es) | El {{Term|dropout|dropout}} se convirtió en una práctica estándar en el entrenamiento de redes neuronales a lo largo de la década de 2010, incluido por defecto en la mayoría de los frameworks de {{Term|deep learning|aprendizaje profundo}}. Su simplicidad conceptual y su eficacia consistente lo convirtieron en uno de los artículos más citados en aprendizaje automático. La idea de la {{Term|regularization|regularización}} estocástica mediante perturbación aleatoria durante el entrenamiento influyó en muchas técnicas posteriores, incluyendo DropConnect, DropBlock, profundidad estocástica y estrategias de aumento de datos. |
| h Chinese (zh) | 在整个 2010 年代,{{Term|dropout|dropout}} 成为神经网络训练的标准做法,并在大多数{{Term|deep learning|深度学习}}框架中作为默认选项被包含。其概念上的简洁性和一致的有效性使其成为机器学习领域被引用最多的论文之一。在训练过程中通过随机扰动实现的随机{{Term|regularization|正则化}}思想影响了许多后续技术,包括 DropConnect、DropBlock、随机深度和数据增强策略。 |