All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | {{Term|batch normalization}} became one of the most ubiquitous components in {{Term|deep learning}} architectures. It was adopted almost universally in convolutional networks throughout the late 2010s and remains standard in many architectures. The technique's success inspired a family of normalization methods, including {{Term|layer normalization}} (preferred in {{Term|transformer|Transformers}} and recurrent networks), instance normalization (used in style transfer), and group normalization (useful for small batch sizes). |
| h Spanish (es) | La {{Term|batch normalization|normalización por lotes}} se convirtió en uno de los componentes más omnipresentes de las arquitecturas de {{Term|deep learning|aprendizaje profundo}}. Se adoptó de forma casi universal en las redes convolucionales a finales de la década de 2010 y sigue siendo estándar en muchas arquitecturas. El éxito de la técnica inspiró una familia de métodos de normalización, incluida la {{Term|layer normalization|normalización por capas}} (preferida en los {{Term|transformer|Transformers}} y las redes recurrentes), la normalización por instancia (utilizada en la transferencia de estilo) y la normalización por grupos (útil para tamaños de lote pequeños). |
| h Chinese (zh) | {{Term|batch normalization|批归一化}}成为{{Term|deep learning|深度学习}}架构中最普遍的组件之一。在 2010 年代后期,它几乎在所有卷积网络中都被采用,并且在许多架构中仍然是标准做法。该技术的成功启发了一系列归一化方法,包括{{Term|layer normalization|层归一化}}(在{{Term|transformer|Transformer}} 和循环网络中更受青睐)、实例归一化(用于风格迁移)和组归一化(适用于小批量大小)。 |