All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift''' is a 2015 paper by Ioffe and Szegedy from Google that introduced '''{{Term|batch normalization}}''' ({{Term|batch normalization|BatchNorm}}), a technique for normalizing layer inputs during neural network training. By reducing what the authors termed '''internal {{Term|covariate shift}}''' — the change in the distribution of network {{Term|activation function|activations}} as parameters are updated — {{Term|batch normalization}} allowed the use of much higher {{Term|learning rate|learning rates}}, reduced {{Term|recall|sensitivity}} to initialization, and in some cases acted as a {{Term|regularization|regularizer}}, eliminating the need for {{Term|dropout}}.
 h Spanish (es)'''Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift''' es un artículo de 2015 de Ioffe y Szegedy de Google que introdujo la '''{{Term|batch normalization|normalización por lotes}}''' (BatchNorm), una técnica para normalizar las entradas de las capas durante el entrenamiento de redes neuronales. Al reducir lo que los autores denominaron '''desplazamiento covariante interno''' (internal covariate shift) — el cambio en la distribución de las {{Term|activation function|activaciones}} de la red a medida que se actualizan los parámetros —, la {{Term|batch normalization|normalización por lotes}} permitió el uso de {{Term|learning rate|tasas de aprendizaje}} mucho más altas, redujo la sensibilidad a la inicialización y, en algunos casos, actuó como un regularizador, eliminando la necesidad de {{Term|dropout}}.
 h Chinese (zh)'''Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift''' 是 Google 的 Ioffe 和 Szegedy 于 2015 年发表的论文,提出了 '''{{Term|batch normalization|批归一化}}'''(BatchNorm),一种用于在神经网络训练期间归一化层输入的技术。通过减少作者所称的'''内部协变量偏移'''(internal covariate shift)——即随着参数更新,网络{{Term|activation function|激活值}}分布的变化——{{Term|batch normalization|批归一化}}允许使用高得多的{{Term|learning rate|学习率}},降低了对初始化的敏感性,并且在某些情况下充当正则化器,消除了对 {{Term|dropout}} 的需要。