| Arquitectura |
Año |
Contribución clave |
Profundidad
|
| LeNet-5 |
1998 |
Pionera de las CNN para reconocimiento de dígitos manuscritos (MNIST) |
5 capas
|
| AlexNet |
2012 |
Ganó ImageNet; popularizó ReLU, dropout, entrenamiento en GPU |
8 capas
|
| VGGNet |
2014 |
Demostró que la profundidad importa; usó solo filtros $ 3 \times 3 $ en toda la red |
16–19 capas
|
| GoogLeNet (Inception) |
2014 |
Introdujo módulos inception con tamaños de filtro paralelos |
22 capas
|
| ResNet |
2015 |
Introdujo conexiones residuales que permiten redes muy profundas |
50–152+ capas
|
| DenseNet |
2017 |
Conectó cada capa con todas las capas posteriores mediante bloques densos |
121–264 capas
|
| EfficientNet |
2019 |
Escalado compuesto de profundidad, anchura y resolución |
Variable
|