Translations:Convolutional Neural Networks/31/es: Difference between revisions

    From Marovi AI
    (Batch translate Convolutional Neural Networks unit 31 -> es)
    Tag: translation
     
    (Batch translate Convolutional Neural Networks unit 31 → es)
    Tag: translation
    Line 1: Line 1:
    * Utilice modelos preentrenados (transfer learning) cuando los datos etiquetados sean limitados.
    * Utiliza modelos preentrenados (transfer learning) cuando los datos etiquetados son limitados.
    * Prefiera kernels pequeños (<math>3 \times 3</math>) apilados en profundidad — dos capas <math>3 \times 3</math> tienen el mismo campo receptivo que una capa <math>5 \times 5</math> pero con menos parámetros.
    * Prefiere kernels pequeños (<math>3 \times 3</math>) apilados en profundidad — dos capas <math>3 \times 3</math> tienen el mismo campo receptivo que una capa <math>5 \times 5</math>, pero con menos parámetros.
    * Aplique batch normalisation después de la convolución y antes de la activación.
    * Aplica batch normalisation después de la convolución y antes de la activación.
    * Utilice generosamente la aumentación de datos para reducir el [[Overfitting and Regularization|sobreajuste]].
    * Utiliza data augmentation con generosidad para reducir el [[Overfitting and Regularization|sobreajuste]].
    * Reemplace las capas totalmente conectadas con global average pooling para reducir parámetros.
    * Sustituye las capas totalmente conectadas por global average pooling para reducir parámetros.

    Revision as of 21:58, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Convolutional Neural Networks)
    * Use pretrained models (transfer learning) when labelled data is limited.
    * Prefer small kernels (<math>3 \times 3</math>) stacked in depth — two <math>3 \times 3</math> layers have the same receptive field as one <math>5 \times 5</math> layer but with fewer parameters.
    * Apply {{Term|batch normalization|batch normalisation}} after convolution and before {{Term|activation function|activation}}.
    * Use data augmentation generously to reduce [[Overfitting and Regularization|overfitting]].
    * Replace fully connected layers with global average {{Term|pooling}} to reduce parameters.
    • Utiliza modelos preentrenados (transfer learning) cuando los datos etiquetados son limitados.
    • Prefiere kernels pequeños ($ 3 \times 3 $) apilados en profundidad — dos capas $ 3 \times 3 $ tienen el mismo campo receptivo que una capa $ 5 \times 5 $, pero con menos parámetros.
    • Aplica batch normalisation después de la convolución y antes de la activación.
    • Utiliza data augmentation con generosidad para reducir el sobreajuste.
    • Sustituye las capas totalmente conectadas por global average pooling para reducir parámetros.