Translations:Adam A Method for Stochastic Optimization/23/zh

    From Marovi AI
    • MNIST 上的 邏輯回歸:Adam 的收斂速度快於帶動量SGDadagradrmsprop
    • MNIST 上的 多層神經網絡:Adam 取得了最低的訓練代價,收斂速度與競爭方法相當或更好。
    • CIFAR-10 上的 卷積神經網絡:Adam 的表現與精心調優的動量學習率時間表下的 SGD 相當。
    • 變分自編碼器(VAE):Adam 被成功用於優化變分下界,展示了其在生成模型中的適用性。