Translations:Convolutional Neural Networks/22/zh
| 架构 | 年份 | 关键贡献 | 深度 |
|---|---|---|---|
| LeNet-5 | 1998 | 开创了用于手写数字识别(MNIST)的 CNN | 5 层 |
| AlexNet | 2012 | 赢得 ImageNet;推广了 ReLU、Dropout 和 GPU 训练 | 8 层 |
| VGGNet | 2014 | 表明深度很重要;全程仅使用 $ 3 \times 3 $ 滤波器 | 16–19 层 |
| GoogLeNet(Inception) | 2014 | 引入了具有并行滤波器尺寸的 Inception 模块 | 22 层 |
| ResNet | 2015 | 引入残差连接,使训练非常深的网络成为可能 | 50–152+ 层 |
| DenseNet | 2017 | 通过密集块将每一层连接到所有后续层 | 121–264 层 |
| EfficientNet | 2019 | 深度、宽度和分辨率的复合缩放 | 可变 |