All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''{{Term|logistic regression}}''' on MNIST: Adam converged faster than {{Term|stochastic gradient descent|SGD}} with {{Term|momentum}}, {{Term|adagrad}}, and RMSProp. * '''Multi-layer neural networks''' on MNIST: Adam achieved the lowest training cost, with {{Term|convergence}} speed comparable to or better than competing methods. * '''Convolutional neural networks''' on CIFAR-10: Adam performed comparably to {{Term|stochastic gradient descent|SGD}} with carefully tuned {{Term|momentum}} and {{Term|learning rate}} schedules. * '''Variational autoencoders''' (VAEs): Adam was used successfully to optimize the variational lower bound, demonstrating its applicability to generative models. |
| h Spanish (es) | * '''{{Term|logistic regression|Regresión logística}}''' en MNIST: Adam convergió más rápido que el {{Term|stochastic gradient descent|SGD}} con {{Term|momentum|momentum}}, {{Term|adagrad|adagrad}} y RMSProp. * '''Redes neuronales multicapa''' en MNIST: Adam alcanzó el menor coste de entrenamiento, con una velocidad de {{Term|convergence|convergencia}} comparable o superior a la de los métodos competidores. * '''Redes neuronales convolucionales''' en CIFAR-10: Adam tuvo un rendimiento comparable al del {{Term|stochastic gradient descent|SGD}} con {{Term|momentum|momentum}} y planificaciones de {{Term|learning rate|tasa de aprendizaje}} cuidadosamente ajustadas. * '''Autoencoders variacionales''' (VAEs): Adam se utilizó con éxito para optimizar la cota inferior variacional, demostrando su aplicabilidad a modelos generativos. |
| h Chinese (zh) | * MNIST 上的 '''{{Term|logistic regression|逻辑回归}}''':Adam 比带 {{Term|momentum|动量}} 的 {{Term|stochastic gradient descent|SGD}}、{{Term|adagrad|adagrad}} 和 RMSProp 收敛更快。 * MNIST 上的 '''多层神经网络''':Adam 实现了最低的训练代价,{{Term|convergence|收敛}} 速度与竞争方法相当或更优。 * CIFAR-10 上的 '''卷积神经网络''':Adam 的表现与精心调优了 {{Term|momentum|动量}} 和 {{Term|learning rate|学习率}} 调度的 {{Term|stochastic gradient descent|SGD}} 相当。 * '''变分自编码器'''(VAEs):Adam 被成功用于优化变分下界,展示了其在生成模型上的适用性。 |