Translations:Convolutional Neural Networks/22/es: Difference between revisions

    From Marovi AI
    (Batch translate Convolutional Neural Networks unit 22 → es)
    Tag: translation
    (Batch translate Convolutional Neural Networks unit 22 → es)
    Tag: translation
     
    Line 3: Line 3:
    ! Arquitectura !! Año !! Contribución clave !! Profundidad
    ! Arquitectura !! Año !! Contribución clave !! Profundidad
    |-
    |-
    | '''LeNet-5''' || 1998 || Pionera de las CNN para el reconocimiento de dígitos manuscritos (MNIST) || 5 capas
    | '''LeNet-5''' || 1998 || Pionera de las CNN para reconocimiento de dígitos manuscritos (MNIST) || 5 capas
    |-
    |-
    | '''AlexNet''' || 2012 || Ganó ImageNet; popularizó ReLU, dropout y entrenamiento en GPU || 8 capas
    | '''AlexNet''' || 2012 || Ganó ImageNet; popularizó ReLU, {{Term|dropout|dropout}}, entrenamiento en GPU || 8 capas
    |-
    |-
    | '''VGGNet''' || 2014 || Mostró que la profundidad importa; usó únicamente filtros <math>3 \times 3</math> || 16–19 capas
    | '''VGGNet''' || 2014 || Demostró que la profundidad importa; usó solo filtros <math>3 \times 3</math> en toda la red || 16–19 capas
    |-
    |-
    | '''GoogLeNet (Inception)''' || 2014 || Introdujo módulos inception con tamaños de filtro paralelos || 22 capas
    | '''GoogLeNet (Inception)''' || 2014 || Introdujo módulos inception con tamaños de filtro paralelos || 22 capas

    Latest revision as of 23:37, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Convolutional Neural Networks)
    {| class="wikitable"
    |-
    ! Architecture !! Year !! Key contribution !! Depth
    |-
    | '''LeNet-5''' || 1998 || Pioneered CNNs for handwritten digit recognition (MNIST) || 5 layers
    |-
    | '''AlexNet''' || 2012 || Won ImageNet; popularised ReLU, {{Term|dropout}}, GPU training || 8 layers
    |-
    | '''VGGNet''' || 2014 || Showed depth matters; used only <math>3 \times 3</math> filters throughout || 16–19 layers
    |-
    | '''GoogLeNet (Inception)''' || 2014 || Introduced inception modules with parallel filter sizes || 22 layers
    |-
    | '''ResNet''' || 2015 || Introduced residual connections enabling very deep networks || 50–152+ layers
    |-
    | '''DenseNet''' || 2017 || Connected each layer to every subsequent layer via dense blocks || 121–264 layers
    |-
    | '''EfficientNet''' || 2019 || Compound scaling of depth, width, and resolution || Variable
    |}
    Arquitectura Año Contribución clave Profundidad
    LeNet-5 1998 Pionera de las CNN para reconocimiento de dígitos manuscritos (MNIST) 5 capas
    AlexNet 2012 Ganó ImageNet; popularizó ReLU, dropout, entrenamiento en GPU 8 capas
    VGGNet 2014 Demostró que la profundidad importa; usó solo filtros $ 3 \times 3 $ en toda la red 16–19 capas
    GoogLeNet (Inception) 2014 Introdujo módulos inception con tamaños de filtro paralelos 22 capas
    ResNet 2015 Introdujo conexiones residuales que permiten redes muy profundas 50–152+ capas
    DenseNet 2017 Conectó cada capa con todas las capas posteriores mediante bloques densos 121–264 capas
    EfficientNet 2019 Escalado compuesto de profundidad, anchura y resolución Variable