Translations:Convolutional Neural Networks/22/zh: Difference between revisions
(Batch translate Convolutional Neural Networks unit 22 -> zh) Tag: translation |
(Batch translate Convolutional Neural Networks unit 22 → zh) Tag: translation |
||
| Line 7: | Line 7: | ||
| '''AlexNet''' || 2012 || 赢得 ImageNet;推广了 ReLU、dropout 和 GPU 训练 || 8 层 | | '''AlexNet''' || 2012 || 赢得 ImageNet;推广了 ReLU、dropout 和 GPU 训练 || 8 层 | ||
|- | |- | ||
| '''VGGNet''' || 2014 || | | '''VGGNet''' || 2014 || 证明深度很重要;全程仅使用 <math>3 \times 3</math> 滤波器 || 16–19 层 | ||
|- | |- | ||
| '''GoogLeNet (Inception)''' || 2014 || 引入了具有并行滤波器尺寸的 inception 模块 || 22 层 | | '''GoogLeNet (Inception)''' || 2014 || 引入了具有并行滤波器尺寸的 inception 模块 || 22 层 | ||
|- | |- | ||
| '''ResNet''' || 2015 || | | '''ResNet''' || 2015 || 引入残差连接,使非常深的网络成为可能 || 50–152+ 层 | ||
|- | |- | ||
| '''DenseNet''' || 2017 || | | '''DenseNet''' || 2017 || 通过密集块将每一层与所有后续层相连接 || 121–264 层 | ||
|- | |- | ||
| '''EfficientNet''' || 2019 || 对深度、宽度和分辨率进行复合缩放 || 可变 | | '''EfficientNet''' || 2019 || 对深度、宽度和分辨率进行复合缩放 || 可变 | ||
|} | |} | ||
Revision as of 21:58, 27 April 2026
| 架构 | 年份 | 关键贡献 | 深度 |
|---|---|---|---|
| LeNet-5 | 1998 | 开创了用于手写数字识别(MNIST)的 CNN | 5 层 |
| AlexNet | 2012 | 赢得 ImageNet;推广了 ReLU、dropout 和 GPU 训练 | 8 层 |
| VGGNet | 2014 | 证明深度很重要;全程仅使用 $ 3 \times 3 $ 滤波器 | 16–19 层 |
| GoogLeNet (Inception) | 2014 | 引入了具有并行滤波器尺寸的 inception 模块 | 22 层 |
| ResNet | 2015 | 引入残差连接,使非常深的网络成为可能 | 50–152+ 层 |
| DenseNet | 2017 | 通过密集块将每一层与所有后续层相连接 | 121–264 层 |
| EfficientNet | 2019 | 对深度、宽度和分辨率进行复合缩放 | 可变 |