All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)Full batch gradient descent computes the exact gradient and therefore follows a smooth trajectory toward the minimum. [[Stochastic Gradient Descent|Stochastic gradient descent]] uses a single sample to estimate the gradient, drastically reducing computation per {{Term|training step|step}} at the cost of a noisier trajectory. {{Term|mini-batch}} gradient descent strikes a balance and is the most common choice in practice, with typical {{Term|batch size|batch sizes}} between 32 and 512.
 h Spanish (es)El descenso de gradiente por lote completo calcula el gradiente exacto y, por tanto, sigue una trayectoria suave hacia el mínimo. El [[Stochastic Gradient Descent|descenso de gradiente estocástico]] utiliza una sola muestra para estimar el gradiente, reduciendo drásticamente el cómputo por {{Term|training step|paso}} a costa de una trayectoria más ruidosa. El descenso de gradiente por {{Term|mini-batch|minilotes}} alcanza un equilibrio y es la opción más habitual en la práctica, con {{Term|batch size|tamaños de lote}} típicos entre 32 y 512.
 h Chinese (zh)全批量梯度下降计算精确的梯度,因此沿着平滑的轨迹向最小值前进。[[Stochastic Gradient Descent|随机梯度下降]]使用单个样本来估计梯度,大幅减少了每{{Term|training step|步}}的计算量,代价是轨迹更嘈杂。{{Term|mini-batch|小批量}}梯度下降在两者之间取得平衡,是实践中最常见的选择,典型的{{Term|batch size|批量大小}}介于 32 到 512 之间。