All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | '''Stochastic {{Term|gradient descent}}''' (often abbreviated '''{{Term|SGD|SGD}}''') is an iterative optimisation algorithm used to minimise an {{Term|objective function|objective function}} written as a sum of differentiable sub-functions. It is the workhorse behind modern machine-learning training, powering everything from {{Term|logistic regression}} to deep neural networks. |
| h Spanish (es) | El '''descenso de gradiente estocástico''' (a menudo abreviado como '''{{Term|SGD|SGD}}''') es un algoritmo iterativo de optimización utilizado para minimizar una {{Term|objective function|función objetivo}} expresada como una suma de subfunciones diferenciables. Es el motor del entrenamiento moderno de aprendizaje automático, impulsando desde la regresión logística hasta las redes neuronales profundas. |
| h Chinese (zh) | '''随机梯度下降'''(通常缩写为 '''{{Term|SGD|SGD}}''')是一种迭代优化算法,用于最小化以可微子函数之和形式表示的{{Term|objective function|目标函数}}。它是现代机器学习训练的主力,驱动着从逻辑回归到深度神经网络的各种模型。 |