Translations:Neural Networks/24/es: Difference between revisions
([deploy-bot] Translate Neural Networks unit 24 to es) Tag: translation |
(Batch translate Neural Networks unit 24 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
# '''Definir una función de pérdida''' | # '''Definir una función de pérdida''': una medida de cuán lejos están las predicciones de la red de los objetivos verdaderos (véase [[Loss Functions]]). | ||
# '''Pase hacia adelante''' | # '''Pase hacia adelante (forward pass)''': calcular la salida de la red para una entrada dada propagando los valores capa por capa. | ||
# '''Pase hacia atrás ( | # '''Pase hacia atrás (backpropagation)''': calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase [[Backpropagation]]). | ||
# '''Actualización de parámetros''' | # '''Actualización de parámetros''': ajustar los pesos usando un algoritmo de optimización como [[Gradient Descent]] o alguna de sus variantes. | ||
# '''Iteración''' | # '''Iteración''': repetir los pasos 2–4 a lo largo de muchas pasadas (épocas) por los datos de entrenamiento. | ||
Revision as of 03:35, 27 April 2026
- Definir una función de pérdida: una medida de cuán lejos están las predicciones de la red de los objetivos verdaderos (véase Loss Functions).
- Pase hacia adelante (forward pass): calcular la salida de la red para una entrada dada propagando los valores capa por capa.
- Pase hacia atrás (backpropagation): calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase Backpropagation).
- Actualización de parámetros: ajustar los pesos usando un algoritmo de optimización como Gradient Descent o alguna de sus variantes.
- Iteración: repetir los pasos 2–4 a lo largo de muchas pasadas (épocas) por los datos de entrenamiento.