All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)For a convex function with Lipschitz-continuous gradients (constant <math>L</math>), gradient descent with a fixed {{Term|learning rate}} <math>\eta \leq 1/L</math> converges at a rate of <math>O(1/t)</math>. If the function is additionally '''strongly convex''' with parameter <math>\mu > 0</math>, {{Term|convergence}} accelerates to a linear (exponential) rate:
 h Spanish (es)Para una función convexa con gradientes Lipschitz-continuos (constante <math>L</math>), el descenso de gradiente con una {{Term|learning rate|tasa de aprendizaje}} fija <math>\eta \leq 1/L</math> converge a una tasa de <math>O(1/t)</math>. Si además la función es '''fuertemente convexa''' con parámetro <math>\mu > 0</math>, la {{Term|convergence|convergencia}} se acelera a una tasa lineal (exponencial):
 h Chinese (zh)对于具有 Lipschitz 连续梯度(常数 <math>L</math>)的凸函数,使用固定 {{Term|learning rate|学习率}} <math>\eta \leq 1/L</math> 的梯度下降以 <math>O(1/t)</math> 的速率收敛。如果该函数还是参数为 <math>\mu > 0</math> 的 '''强凸''' 函数,则 {{Term|convergence|收敛}} 会加速到线性(指数)速率: