Translations:Overfitting and Regularization/34/es: Difference between revisions

    From Marovi AI
    (Batch translate Overfitting and Regularization unit 34 → es)
    Tag: translation
     
    (Batch translate Overfitting and Regularization unit 34 → es)
    Tag: translation
    Line 1: Line 1:
    * '''Batch normalization''' — normalizar las entradas de las capas reduce el desplazamiento covariable interno y tiene un leve efecto regularizador.
    * '''Normalización por lotes''' (batch normalization) — normalizar las entradas de cada capa reduce el cambio interno de covariables y tiene un efecto regularizador suave.
    * '''Suavizado de etiquetas (label smoothing)''' — reemplaza los objetivos one-hot por una mezcla, p. ej. <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, evitando el exceso de confianza.
    * '''Suavizado de etiquetas''' (label smoothing) — reemplaza los objetivos one-hot por una mezcla, por ejemplo <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, evitando un exceso de confianza.
    * '''Inyección de ruido''' — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.
    * '''Inyección de ruido''' — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.

    Revision as of 22:04, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Overfitting and Regularization)
    * '''{{Term|batch normalization}}''' — normalising layer inputs reduces internal covariate shift and has a mild regularizing effect.
    * '''Label smoothing''' — replaces {{Term|one-hot encoding|one-hot}} targets with a mixture, e.g. <math>y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C</math>, preventing overconfidence.
    * '''Noise injection''' — adding Gaussian noise to inputs, weights, or gradients during training.
    • Normalización por lotes (batch normalization) — normalizar las entradas de cada capa reduce el cambio interno de covariables y tiene un efecto regularizador suave.
    • Suavizado de etiquetas (label smoothing) — reemplaza los objetivos one-hot por una mezcla, por ejemplo $ y_{\text{smooth}} = (1 - \epsilon)\, y + \epsilon / C $, evitando un exceso de confianza.
    • Inyección de ruido — añadir ruido gaussiano a las entradas, los pesos o los gradientes durante el entrenamiento.