Translations:Convolutional Neural Networks/31/es: Difference between revisions

    From Marovi AI
    (Batch translate Convolutional Neural Networks unit 31 → es)
    Tag: translation
    (Batch translate Convolutional Neural Networks unit 31 → es)
    Tag: translation
     
    Line 1: Line 1:
    * Utiliza modelos preentrenados (transfer learning) cuando los datos etiquetados son limitados.
    * Usa modelos preentrenados (transfer learning) cuando los datos etiquetados sean limitados.
    * Prefiere kernels pequeños (<math>3 \times 3</math>) apilados en profundidad — dos capas <math>3 \times 3</math> tienen el mismo campo receptivo que una capa <math>5 \times 5</math>, pero con menos parámetros.
    * Prefiere kernels pequeños (<math>3 \times 3</math>) apilados en profundidad — dos capas <math>3 \times 3</math> tienen el mismo campo receptivo que una capa <math>5 \times 5</math> pero con menos parámetros.
    * Aplica batch normalisation después de la convolución y antes de la activación.
    * Aplica la {{Term|batch normalization|normalización por lotes}} después de la convolución y antes de la {{Term|activation function|activación}}.
    * Utiliza data augmentation con generosidad para reducir el [[Overfitting and Regularization|sobreajuste]].
    * Usa aumento de datos generosamente para reducir el [[Overfitting and Regularization|sobreajuste]].
    * Sustituye las capas totalmente conectadas por global average pooling para reducir parámetros.
    * Reemplaza las capas totalmente conectadas con global average {{Term|pooling|pooling}} para reducir parámetros.

    Latest revision as of 23:37, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Convolutional Neural Networks)
    * Use pretrained models (transfer learning) when labelled data is limited.
    * Prefer small kernels (<math>3 \times 3</math>) stacked in depth — two <math>3 \times 3</math> layers have the same receptive field as one <math>5 \times 5</math> layer but with fewer parameters.
    * Apply {{Term|batch normalization|batch normalisation}} after convolution and before {{Term|activation function|activation}}.
    * Use data augmentation generously to reduce [[Overfitting and Regularization|overfitting]].
    * Replace fully connected layers with global average {{Term|pooling}} to reduce parameters.
    • Usa modelos preentrenados (transfer learning) cuando los datos etiquetados sean limitados.
    • Prefiere kernels pequeños ($ 3 \times 3 $) apilados en profundidad — dos capas $ 3 \times 3 $ tienen el mismo campo receptivo que una capa $ 5 \times 5 $ pero con menos parámetros.
    • Aplica la normalización por lotes después de la convolución y antes de la activación.
    • Usa aumento de datos generosamente para reducir el sobreajuste.
    • Reemplaza las capas totalmente conectadas con global average pooling para reducir parámetros.