Translations:Gradient Descent/20/es
Para una función convexa con gradientes Lipschitz-continuos (constante $ L $), el descenso de gradiente con una tasa de aprendizaje fija $ \eta \leq 1/L $ converge a una tasa de $ O(1/t) $. Si además la función es fuertemente convexa con parámetro $ \mu > 0 $, la convergencia se acelera a una tasa lineal (exponencial):