All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | While {{Term|batch normalization}} and other techniques have reduced the necessity of {{Term|dropout}} in some convolutional architectures, {{Term|dropout}} remains widely used in fully connected layers, {{Term|transformer}} models, and whenever {{Term|overfitting}} is a concern. The paper established randomized {{Term|regularization}} as a core principle in {{Term|deep learning}} methodology. |
| h Spanish (es) | Aunque la {{Term|batch normalization|normalización por lotes}} y otras técnicas han reducido la necesidad de {{Term|dropout|dropout}} en algunas arquitecturas convolucionales, el {{Term|dropout|dropout}} sigue siendo ampliamente utilizado en capas totalmente conectadas, modelos {{Term|transformer|transformer}} y siempre que el {{Term|overfitting|sobreajuste}} sea una preocupación. El artículo estableció la {{Term|regularization|regularización}} aleatorizada como un principio fundamental en la metodología del {{Term|deep learning|aprendizaje profundo}}. |
| h Chinese (zh) | 尽管{{Term|batch normalization|批归一化}}和其他技术降低了 {{Term|dropout|dropout}} 在某些卷积架构中的必要性,但 {{Term|dropout|dropout}} 在全连接层、{{Term|transformer|Transformer}} 模型以及任何需要关注{{Term|overfitting|过拟合}}的场景中仍然被广泛使用。该论文将随机化{{Term|regularization|正则化}}确立为{{Term|deep learning|深度学习}}方法论中的核心原则。 |