All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | The original motivation for batch normalization was to address '''internal {{Term|covariate shift}}''' — the phenomenon where the distribution of each layer's inputs changes during training as the parameters of preceding layers are updated. This shifting distribution forces each layer to continuously adapt, slowing down {{Term|convergence}} and requiring careful initialization and small {{Term|learning rate|learning rates}}. |
| h Spanish (es) | La motivación original de la normalización por lotes era abordar el '''{{Term|covariate shift|desplazamiento de covariables}} interno''' — el fenómeno por el cual la distribución de las entradas de cada capa cambia durante el entrenamiento a medida que se actualizan los parámetros de las capas anteriores. Esta distribución cambiante obliga a cada capa a adaptarse continuamente, ralentizando la {{Term|convergence|convergencia}} y requiriendo una inicialización cuidadosa y {{Term|learning rate|tasas de aprendizaje}} pequeñas. |
| h Chinese (zh) | 批归一化的最初动机是解决'''内部 {{Term|covariate shift|协变量偏移}}'''——即在训练过程中,由于前面层的参数被更新,每一层输入的分布会发生变化的现象。这种不断变化的分布迫使每一层持续适应,减缓 {{Term|convergence|收敛}},并要求谨慎的初始化和较小的 {{Term|learning rate|学习率}}。 |