All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''{{Term|batch normalization}}''': A method that normalizes each {{Term|scalar}} feature independently over the {{Term|mini-batch}}, using learnable scale and shift parameters to preserve representational {{Term|capacity}}.
* '''Internal {{Term|covariate shift}} hypothesis''': Identification and formalization of the problem of shifting input distributions during training as a contributor to optimization difficulty.
* '''Training acceleration''': Demonstration that {{Term|batch normalization}} enables 14x faster {{Term|convergence}} to the same {{Term|accuracy}} level on ImageNet, and allows the use of much higher {{Term|learning rate|learning rates}}.
* '''{{Term|inception}}-{{Term|batch normalization|BN}} architecture''': A batch-normalized version of {{Term|googlenet}} ({{Term|inception}}) that exceeded the original's {{Term|accuracy}} and approached human-level performance on ImageNet.
 h Spanish (es)* '''{{Term|batch normalization|Normalización por lotes}}''': Un método que normaliza cada característica {{Term|scalar|escalar}} de forma independiente sobre el {{Term|mini-batch|minilote}}, utilizando parámetros aprendibles de escala y desplazamiento para preservar la {{Term|capacity|capacidad}} de representación.
* '''Hipótesis del {{Term|covariate shift|desplazamiento de covariables}} interno''': Identificación y formalización del problema de las distribuciones de entrada cambiantes durante el entrenamiento como factor que contribuye a la dificultad de optimización.
* '''Aceleración del entrenamiento''': Demostración de que la {{Term|batch normalization|normalización por lotes}} permite una {{Term|convergence|convergencia}} 14x más rápida al mismo nivel de {{Term|accuracy|exactitud}} en ImageNet, y permite el uso de {{Term|learning rate|tasas de aprendizaje}} mucho más altas.
* '''Arquitectura {{Term|inception|Inception}}-{{Term|batch normalization|BN}}''': Una versión con normalización por lotes de {{Term|googlenet|GoogLeNet}} ({{Term|inception|Inception}}) que superó la {{Term|accuracy|exactitud}} original y se aproximó al rendimiento humano en ImageNet.
 h Chinese (zh)* '''{{Term|batch normalization|批归一化}}''':一种在{{Term|mini-batch|小批量}}上独立归一化每个{{Term|scalar|标量}}特征的方法,使用可学习的缩放和平移参数以保持表征{{Term|capacity|容量}}。
* '''内部 {{Term|covariate shift|协变量偏移}}假说''':对训练过程中输入分布漂移这一造成优化困难问题的识别与形式化。
* '''训练加速''':证明{{Term|batch normalization|批归一化}}在 ImageNet 上达到相同{{Term|accuracy|准确率}}水平时{{Term|convergence|收敛}}速度提升 14 倍,并允许使用更高的{{Term|learning rate|学习率}}。
* '''{{Term|inception|Inception}}-{{Term|batch normalization|BN}} 架构''':{{Term|googlenet|GoogLeNet}}({{Term|inception|Inception}})的批归一化版本,超越了原始模型的{{Term|accuracy|准确率}},在 ImageNet 上接近人类水平表现。