Translations:Convolutional Neural Networks/22/zh
| 架構 | 年份 | 主要貢獻 | 深度 |
|---|---|---|---|
| LeNet-5 | 1998 | 開創性地將 CNN 用於手寫數字識別(MNIST) | 5 層 |
| AlexNet | 2012 | 贏得 ImageNet;推廣了 ReLU、dropout 和 GPU 訓練 | 8 層 |
| VGGNet | 2014 | 表明深度很重要;全網絡僅使用 $ 3 \times 3 $ 濾波器 | 16–19 層 |
| GoogLeNet (Inception) | 2014 | 引入了具有並行濾波器尺寸的 inception 模塊 | 22 層 |
| ResNet | 2015 | 引入了殘差連接,使非常深的網絡成為可能 | 50–152+ 層 |
| DenseNet | 2017 | 通過密集塊將每一層連接到後續每一層 | 121–264 層 |
| EfficientNet | 2019 | 對深度、寬度和分辨率進行複合縮放 | 可變 |