All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | In a neural network the loss <math>L</math> depends on the output, which depends on the {{Term|activation function|activations}} of the last hidden layer, which depend on the {{Term|activation function|activations}} of the previous layer, and so on back to the input. The chain rule allows us to decompose the gradient into a product of local derivatives, one for each layer. |
| h Spanish (es) | En una red neuronal, la pérdida <math>L</math> depende de la salida, que a su vez depende de las {{Term|activation function|activaciones}} de la última capa oculta, las cuales dependen de las {{Term|activation function|activaciones}} de la capa anterior, y así sucesivamente hasta la entrada. La regla de la cadena permite descomponer el gradiente en un producto de derivadas locales, una por cada capa. |
| h Chinese (zh) | 在神经网络中,损失 <math>L</math> 依赖于输出,输出依赖于最后一个隐藏层的{{Term|activation function|激活值}},这些激活值又依赖于前一层的{{Term|activation function|激活值}},依此类推直至输入。链式法则使我们能够将梯度分解为局部导数的乘积,每一层对应一个导数。 |