Translations:Batch Normalization Accelerating Deep Network Training/20/zh

    From Marovi AI
    • 批歸一化網絡僅用7% 的訓練步數就達到了原始 Inception 模型的精度(加速 14 倍)。
    • BN-Inception(帶有批歸一化和其他修改)實現了 4.82% 的 top-5 驗證誤差,超過了原始 GoogLeNet(6.67%)的精度,接近人類水平。
    • 使用批歸一化允許使用比基線高 10 倍的學習率進行訓練而不發散。
    • 在某些配置上,批歸一化消除了對 dropout 的需要而不損失精度,進一步簡化了架構並減少了訓練時間。