All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | For a convex function with Lipschitz-continuous gradients (constant <math>L</math>), gradient descent with a fixed {{Term|learning rate}} <math>\eta \leq 1/L</math> converges at a rate of <math>O(1/t)</math>. If the function is additionally '''strongly convex''' with parameter <math>\mu > 0</math>, {{Term|convergence}} accelerates to a linear (exponential) rate: |
| h Spanish (es) | Para una función convexa con gradientes Lipschitz-continuos (constante <math>L</math>), el descenso de gradiente con una {{Term|learning rate|tasa de aprendizaje}} fija <math>\eta \leq 1/L</math> converge a una tasa de <math>O(1/t)</math>. Si además la función es '''fuertemente convexa''' con parámetro <math>\mu > 0</math>, la {{Term|convergence|convergencia}} se acelera a una tasa lineal (exponencial): |
| h Chinese (zh) | 对于具有 Lipschitz 连续梯度(常数 <math>L</math>)的凸函数,使用固定 {{Term|learning rate|学习率}} <math>\eta \leq 1/L</math> 的梯度下降以 <math>O(1/t)</math> 的速率收敛。如果该函数还是参数为 <math>\mu > 0</math> 的 '''强凸''' 函数,则 {{Term|convergence|收敛}} 会加速到线性(指数)速率: |