Translations:Neural Networks/24/es: Difference between revisions
(Batch translate Neural Networks unit 24 → es) Tag: translation |
(Batch translate Neural Networks unit 24 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
# '''Definir una función de pérdida''' — una medida de cuán lejos están las predicciones de la red de los objetivos | # '''Definir una {{Term|loss function|función de pérdida}}''' — una medida de cuán lejos están las predicciones de la red de los objetivos reales (véase [[Loss Functions]]). | ||
# ''' | # '''Paso hacia adelante''' — calcular la salida de la red para una entrada dada propagando los valores capa por capa. | ||
# ''' | # '''Paso hacia atrás ({{Term|backpropagation|retropropagación}})''' — calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase [[Backpropagation]]). | ||
# '''Actualización de parámetros''' — ajustar los pesos | # '''Actualización de parámetros''' — ajustar los pesos mediante un algoritmo de optimización como [[Gradient Descent]] o alguna de sus variantes. | ||
# '''Iteración''' — repetir los pasos 2–4 | # '''Iteración''' — repetir los pasos 2–4 a lo largo de muchas pasadas ({{Term|epoch|épocas}}) sobre los datos de entrenamiento. | ||
Latest revision as of 23:41, 27 April 2026
- Definir una función de pérdida — una medida de cuán lejos están las predicciones de la red de los objetivos reales (véase Loss Functions).
- Paso hacia adelante — calcular la salida de la red para una entrada dada propagando los valores capa por capa.
- Paso hacia atrás (retropropagación) — calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase Backpropagation).
- Actualización de parámetros — ajustar los pesos mediante un algoritmo de optimización como Gradient Descent o alguna de sus variantes.
- Iteración — repetir los pasos 2–4 a lo largo de muchas pasadas (épocas) sobre los datos de entrenamiento.