All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | {{Term|batch normalization}} addresses this by normalizing the inputs to each layer using statistics computed over the current {{Term|mini-batch}}. This ensures that each layer receives inputs with a stable mean and {{Term|variance}}, regardless of changes in preceding layers. The technique is applied as a differentiable transformation inserted into the network architecture, making it compatible with standard {{Term|backpropagation}} and {{Term|stochastic gradient descent}}. |
| h Spanish (es) | La {{Term|batch normalization|normalización por lotes}} aborda esto normalizando las entradas de cada capa mediante estadísticas calculadas sobre el {{Term|mini-batch|minilote}} actual. Esto garantiza que cada capa reciba entradas con una {{Term|expectation|media}} y una {{Term|variance|varianza}} estables, independientemente de los cambios en las capas anteriores. La técnica se aplica como una transformación diferenciable insertada en la arquitectura de la red, lo que la hace compatible con la {{Term|backpropagation|retropropagación}} estándar y el {{Term|stochastic gradient descent|descenso de gradiente estocástico}}. |
| h Chinese (zh) | {{Term|batch normalization|批归一化}}通过使用基于当前{{Term|mini-batch|小批量}}计算的统计量对每层的输入进行归一化来解决这一问题。这确保了每一层都能获得{{Term|expectation|均值}}和{{Term|variance|方差}}稳定的输入,无论前面的层如何变化。该技术作为可微变换插入到网络架构中,使其与标准{{Term|backpropagation|反向传播}}和{{Term|stochastic gradient descent|随机梯度下降}}兼容。 |