All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | # '''Defining a loss function''' — a measure of how far the network's predictions are from the true targets (see [[Loss Functions]]). # '''Forward pass''' — computing the output of the network for a given input by propagating values layer by layer. # '''Backward pass (backpropagation)''' — computing the gradient of the loss with respect to every weight by applying the chain rule in reverse through the network (see [[Backpropagation]]). # '''Parameter update''' — adjusting the weights using an optimisation algorithm such as [[Gradient Descent]] or one of its variants. # '''Iteration''' — repeating steps 2–4 over many passes (epochs) through the training data. |
| h Spanish (es) | # '''Definir una función de pérdida''' — una medida de cuán lejos están las predicciones de la red de los objetivos verdaderos (véase [[Loss Functions]]). # '''Pase hacia adelante''' — calcular la salida de la red para una entrada dada propagando los valores capa por capa. # '''Pase hacia atrás (retropropagación)''' — calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase [[Backpropagation]]). # '''Actualización de parámetros''' — ajustar los pesos utilizando un algoritmo de optimización como [[Gradient Descent]] o alguna de sus variantes. # '''Iteración''' — repetir los pasos 2–4 durante muchas pasadas (épocas) sobre los datos de entrenamiento. |
| h Chinese (zh) | # '''定义损失函数''' — 衡量网络预测与真实目标之间差距的指标(参见 [[Loss Functions]])。 # '''前向传播''' — 通过逐层传播值,为给定输入计算网络的输出。 # '''反向传播''' — 通过在网络中反向应用链式法则,计算损失相对于每个权重的梯度(参见 [[Backpropagation]])。 # '''参数更新''' — 使用诸如 [[Gradient Descent]] 或其变体之类的优化算法调整权重。 # '''迭代''' — 在训练数据上重复步骤 2–4 多次(轮次)。 |