All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)In a neural network the loss <math>L</math> depends on the output, which depends on the {{Term|activation function|activations}} of the last hidden layer, which depend on the {{Term|activation function|activations}} of the previous layer, and so on back to the input. The chain rule allows us to decompose the gradient into a product of local derivatives, one for each layer.
 h Spanish (es)En una red neuronal, la pérdida <math>L</math> depende de la salida, que a su vez depende de las {{Term|activation function|activaciones}} de la última capa oculta, las cuales dependen de las {{Term|activation function|activaciones}} de la capa anterior, y así sucesivamente hasta la entrada. La regla de la cadena permite descomponer el gradiente en un producto de derivadas locales, una por cada capa.
 h Chinese (zh)在神经网络中,损失 <math>L</math> 依赖于输出,输出依赖于最后一个隐藏层的{{Term|activation function|激活值}},这些激活值又依赖于前一层的{{Term|activation function|激活值}},依此类推直至输入。链式法则使我们能够将梯度分解为局部导数的乘积,每一层对应一个导数。