All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Backpropagation''' (short for '''backward propagation of errors''') is an algorithm for efficiently computing the gradient of a {{Term|loss function}} with respect to every weight in a neural network. Combined with an optimisation method such as [[Gradient Descent|gradient descent]], it forms the standard training procedure for modern {{Term|deep learning}} models.
 h Spanish (es)'''Retropropagación''' (abreviatura de '''propagación hacia atrás de los errores''') es un algoritmo para calcular eficientemente el gradiente de una {{Term|loss function|función de pérdida}} con respecto a cada peso en una red neuronal. Combinada con un método de optimización como el [[Gradient Descent|descenso de gradiente]], constituye el procedimiento de entrenamiento estándar de los modelos modernos de {{Term|deep learning|aprendizaje profundo}}.
 h Chinese (zh)'''反向传播'''('''backward propagation of errors''' 的缩写)是一种用于高效计算神经网络中{{Term|loss function|损失函数}}相对于每个权重的梯度的算法。它与诸如[[Gradient Descent|梯度下降]]之类的优化方法相结合,构成了现代{{Term|deep learning|深度学习}}模型的标准训练流程。