Translations:Neural Networks/24/es: Difference between revisions

    From Marovi AI
    (Batch translate Neural Networks unit 24 → es)
    Tag: translation
    (Batch translate Neural Networks unit 24 → es)
    Tag: translation
    Line 1: Line 1:
    # '''Definir una función de pérdida''': una medida de cuán lejos están las predicciones de la red de los objetivos verdaderos (véase [[Loss Functions]]).
    # '''Definir una función de pérdida''' una medida de cuán lejos están las predicciones de la red de los objetivos verdaderos (véase [[Loss Functions]]).
    # '''Pase hacia adelante (forward pass)''': calcular la salida de la red para una entrada dada propagando los valores capa por capa.
    # '''Pase hacia adelante''' calcular la salida de la red para una entrada dada propagando los valores capa por capa.
    # '''Pase hacia atrás (backpropagation)''': calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase [[Backpropagation]]).
    # '''Pase hacia atrás (retropropagación)''' calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase [[Backpropagation]]).
    # '''Actualización de parámetros''': ajustar los pesos usando un algoritmo de optimización como [[Gradient Descent]] o alguna de sus variantes.
    # '''Actualización de parámetros''' ajustar los pesos utilizando un algoritmo de optimización como [[Gradient Descent]] o alguna de sus variantes.
    # '''Iteración''': repetir los pasos 2–4 a lo largo de muchas pasadas (épocas) por los datos de entrenamiento.
    # '''Iteración''' repetir los pasos 2–4 durante muchas pasadas (épocas) sobre los datos de entrenamiento.

    Revision as of 22:02, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Neural Networks)
    # '''Defining a {{Term|loss function}}''' — a measure of how far the network's predictions are from the true targets (see [[Loss Functions]]).
    # '''Forward pass''' — computing the output of the network for a given input by propagating values layer by layer.
    # '''Backward pass ({{Term|backpropagation}})''' — computing the gradient of the loss with respect to every weight by applying the chain rule in reverse through the network (see [[Backpropagation]]).
    # '''Parameter update''' — adjusting the weights using an optimisation algorithm such as [[Gradient Descent]] or one of its variants.
    # '''Iteration''' — repeating steps 2–4 over many passes ({{Term|epoch|epochs}}) through the training data.
    1. Definir una función de pérdida — una medida de cuán lejos están las predicciones de la red de los objetivos verdaderos (véase Loss Functions).
    2. Pase hacia adelante — calcular la salida de la red para una entrada dada propagando los valores capa por capa.
    3. Pase hacia atrás (retropropagación) — calcular el gradiente de la pérdida con respecto a cada peso aplicando la regla de la cadena en sentido inverso a través de la red (véase Backpropagation).
    4. Actualización de parámetros — ajustar los pesos utilizando un algoritmo de optimización como Gradient Descent o alguna de sus variantes.
    5. Iteración — repetir los pasos 2–4 durante muchas pasadas (épocas) sobre los datos de entrenamiento.