Translations:Batch Normalization Accelerating Deep Network Training/20/zh
- 批归一化网络仅用7% 的训练步数就达到了原始 Inception 模型的精度(加速 14 倍)。
- BN-Inception(带有批归一化和其他修改)实现了 4.82% 的 top-5 验证误差,超过了原始 GoogLeNet(6.67%)的精度,接近人类水平。
- 使用批归一化允许使用比基线高 10 倍的学习率进行训练而不发散。
- 在某些配置上,批归一化消除了对 dropout 的需要而不损失精度,进一步简化了架构并减少了训练时间。