All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''Adam optimizer''': An adaptive {{Term|learning rate}} method that maintains per-parameter {{Term|learning rate|learning rates}} based on bias-corrected estimates of the first and second moments of the gradients.
* '''Bias correction''': A mechanism to counteract the initialization bias of the moment estimates toward zero, which is especially important in the initial steps of training.
* '''AdaMax variant''': A generalization based on the infinity norm that can sometimes outperform Adam on problems with sparse gradients.
* '''Practical defaults''': Recommended {{Term|hyperparameter}} values (<math>\beta_1 = 0.9</math>, <math>\beta_2 = 0.999</math>, <math>\epsilon = 10^{-8}</math>) that work well across a wide range of problems.
 h Spanish (es)* '''Optimizador Adam''': Un método con {{Term|learning rate|tasa de aprendizaje}} adaptativa que mantiene {{Term|learning rate|tasas de aprendizaje}} por parámetro basadas en estimaciones corregidas por sesgo del primer y segundo momentos de los gradientes.
* '''Corrección de sesgo''': Un mecanismo para contrarrestar el sesgo de inicialización de las estimaciones de momento hacia cero, especialmente importante en los pasos iniciales del entrenamiento.
* '''Variante AdaMax''': Una generalización basada en la norma infinito que en ocasiones puede superar a Adam en problemas con gradientes dispersos.
* '''Valores por defecto prácticos''': Valores recomendados de los {{Term|hyperparameter|hiperparámetros}} (<math>\beta_1 = 0.9</math>, <math>\beta_2 = 0.999</math>, <math>\epsilon = 10^{-8}</math>) que funcionan bien en una amplia variedad de problemas.
 h Chinese (zh)* '''Adam 优化器''':一种自适应 {{Term|learning rate|学习率}} 方法,基于对梯度一阶矩和二阶矩的偏差校正估计,为每个参数维护各自的 {{Term|learning rate|学习率}}。
* '''偏差校正''':一种用于抵消矩估计在初始化时偏向零的偏差的机制,在训练的最初几步尤为重要。
* '''AdaMax 变体''':基于无穷范数的一种推广,在稀疏梯度问题上有时能够优于 Adam。
* '''实用的默认值''':推荐的 {{Term|hyperparameter|超参数}}取值(<math>\beta_1 = 0.9</math>、<math>\beta_2 = 0.999</math>、<math>\epsilon = 10^{-8}</math>),在各种问题中都能良好工作。