All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''{{Term|logistic regression}}''' on MNIST: Adam converged faster than {{Term|stochastic gradient descent|SGD}} with {{Term|momentum}}, {{Term|adagrad}}, and RMSProp.
* '''Multi-layer neural networks''' on MNIST: Adam achieved the lowest training cost, with {{Term|convergence}} speed comparable to or better than competing methods.
* '''Convolutional neural networks''' on CIFAR-10: Adam performed comparably to {{Term|stochastic gradient descent|SGD}} with carefully tuned {{Term|momentum}} and {{Term|learning rate}} schedules.
* '''Variational autoencoders''' (VAEs): Adam was used successfully to optimize the variational lower bound, demonstrating its applicability to generative models.
 h Spanish (es)* '''{{Term|logistic regression|Regresión logística}}''' en MNIST: Adam convergió más rápido que el {{Term|stochastic gradient descent|SGD}} con {{Term|momentum|momentum}}, {{Term|adagrad|adagrad}} y RMSProp.
* '''Redes neuronales multicapa''' en MNIST: Adam alcanzó el menor coste de entrenamiento, con una velocidad de {{Term|convergence|convergencia}} comparable o superior a la de los métodos competidores.
* '''Redes neuronales convolucionales''' en CIFAR-10: Adam tuvo un rendimiento comparable al del {{Term|stochastic gradient descent|SGD}} con {{Term|momentum|momentum}} y planificaciones de {{Term|learning rate|tasa de aprendizaje}} cuidadosamente ajustadas.
* '''Autoencoders variacionales''' (VAEs): Adam se utilizó con éxito para optimizar la cota inferior variacional, demostrando su aplicabilidad a modelos generativos.
 h Chinese (zh)* MNIST 上的 '''{{Term|logistic regression|逻辑回归}}''':Adam 比带 {{Term|momentum|动量}} 的 {{Term|stochastic gradient descent|SGD}}、{{Term|adagrad|adagrad}} 和 RMSProp 收敛更快。
* MNIST 上的 '''多层神经网络''':Adam 实现了最低的训练代价,{{Term|convergence|收敛}} 速度与竞争方法相当或更优。
* CIFAR-10 上的 '''卷积神经网络''':Adam 的表现与精心调优了 {{Term|momentum|动量}} 和 {{Term|learning rate|学习率}} 调度的 {{Term|stochastic gradient descent|SGD}} 相当。
* '''变分自编码器'''(VAEs):Adam 被成功用于优化变分下界,展示了其在生成模型上的适用性。