All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | '''Adam: A Method for Stochastic Optimization''' is a 2015 paper by Kingma and Ba that introduced the '''Adam''' optimizer, an algorithm for first-order gradient-based optimization of stochastic {{Term|loss function|objective functions}}. Adam combines the {{Term|advantage|advantages}} of two earlier methods — '''{{Term|adagrad}}''' (which adapts {{Term|learning rate|learning rates}} per parameter) and '''{{Term|rmsprop}}''' (which uses a running average of squared gradients) — into a single algorithm with {{Term|bias}}-corrected moment estimates. Adam has become the default optimizer for training neural networks across most domains. |
| h Spanish (es) | '''Adam: A Method for Stochastic Optimization''' es un artículo de 2015 de Kingma y Ba que introdujo el optimizador '''Adam''', un algoritmo para la optimización basada en gradientes de primer orden de {{Term|loss function|funciones objetivo}} estocásticas. Adam combina las {{Term|advantage|ventajas}} de dos métodos anteriores — '''{{Term|adagrad}}''' (que adapta las {{Term|learning rate|tasas de aprendizaje}} por parámetro) y '''{{Term|rmsprop}}''' (que utiliza un promedio móvil de gradientes al cuadrado) — en un único algoritmo con estimaciones de momentos corregidas por {{Term|bias|sesgo}}. Adam se ha convertido en el optimizador por defecto para entrenar redes neuronales en la mayoría de los dominios. |
| h Chinese (zh) | '''Adam: A Method for Stochastic Optimization''' 是 Kingma 和 Ba 于 2015 年发表的论文,提出了 '''Adam''' 优化器,这是一种基于一阶梯度对随机{{Term|loss function|目标函数}}进行优化的算法。Adam 将两种早期方法的{{Term|advantage|优势}}融合在一起 —— '''{{Term|adagrad}}'''(为每个参数自适应调整{{Term|learning rate|学习率}})和 '''{{Term|rmsprop}}'''(使用平方梯度的滑动平均)—— 形成一个具有{{Term|bias|偏差}}校正矩估计的统一算法。Adam 已成为大多数领域中训练神经网络的默认优化器。 |