All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Stochastic {{Term|gradient descent}}''' (often abbreviated '''{{Term|SGD|SGD}}''') is an iterative optimisation algorithm used to minimise an {{Term|objective function|objective function}} written as a sum of differentiable sub-functions. It is the workhorse behind modern machine-learning training, powering everything from {{Term|logistic regression}} to deep neural networks.
 h Spanish (es)El '''descenso de gradiente estocástico''' (a menudo abreviado como '''{{Term|SGD|SGD}}''') es un algoritmo iterativo de optimización utilizado para minimizar una {{Term|objective function|función objetivo}} expresada como una suma de subfunciones diferenciables. Es el motor del entrenamiento moderno de aprendizaje automático, impulsando desde la regresión logística hasta las redes neuronales profundas.
 h Chinese (zh)'''随机梯度下降'''(通常缩写为 '''{{Term|SGD|SGD}}''')是一种迭代优化算法,用于最小化以可微子函数之和形式表示的{{Term|objective function|目标函数}}。它是现代机器学习训练的主力,驱动着从逻辑回归到深度神经网络的各种模型。