All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | '''Batch normalization''' (often abbreviated '''BatchNorm''' or '''BN''') is a technique for improving the speed, stability, and performance of deep neural networks by normalizing the inputs to each layer. Introduced by Ioffe and Szegedy in 2015, it has become a standard component in most modern {{Term|deep learning}} architectures. |
| h Spanish (es) | La '''normalización por lotes''' (a menudo abreviada como '''BatchNorm''' o '''BN''') es una técnica para mejorar la velocidad, la estabilidad y el rendimiento de las redes neuronales profundas mediante la normalización de las entradas de cada capa. Introducida por Ioffe y Szegedy en 2015, se ha convertido en un componente estándar en la mayoría de las arquitecturas modernas de {{Term|deep learning|aprendizaje profundo}}. |
| h Chinese (zh) | '''批归一化'''(通常缩写为 '''BatchNorm''' 或 '''BN''')是一种通过对每一层的输入进行归一化来提高深度神经网络速度、稳定性和性能的技术。它由 Ioffe 和 Szegedy 于 2015 年提出,已成为大多数现代{{Term|deep learning|深度学习}}架构中的标准组件。 |