All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)Training deep neural networks is complicated by the fact that each layer's input distribution changes during training as the parameters of all preceding layers are updated. This phenomenon, which the authors called internal {{Term|covariate shift}}, forces the use of lower {{Term|learning rate|learning rates}} and careful parameter initialization, slowing training considerably.
 h Spanish (es)El entrenamiento de redes neuronales profundas se complica por el hecho de que la distribución de entrada de cada capa cambia durante el entrenamiento a medida que se actualizan los parámetros de todas las capas anteriores. Este fenómeno, al que los autores llamaron {{Term|covariate shift|desplazamiento de covariables}} interno, obliga a usar {{Term|learning rate|tasas de aprendizaje}} más bajas y una inicialización cuidadosa de los parámetros, ralentizando considerablemente el entrenamiento.
 h Chinese (zh)深度神经网络的训练之所以复杂,是因为随着所有前面层的参数更新,每一层的输入分布在训练过程中会发生变化。作者将这一现象称为内部 {{Term|covariate shift|协变量偏移}},它迫使使用较低的{{Term|learning rate|学习率}}和谨慎的参数初始化,大大减慢了训练速度。