Translations:Convolutional Neural Networks/22/zh: Difference between revisions
(Batch translate Convolutional Neural Networks unit 22 → zh) Tag: translation |
(Batch translate Convolutional Neural Networks unit 22 → zh) Tag: translation |
||
| Line 1: | Line 1: | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
! 架构 !! 年份 !! | ! 架构 !! 年份 !! 主要贡献 !! 深度 | ||
|- | |- | ||
| '''LeNet-5''' || 1998 || | | '''LeNet-5''' || 1998 || 开创性地将 CNN 用于手写数字识别(MNIST) || 5 层 | ||
|- | |- | ||
| '''AlexNet''' || 2012 || 赢得 ImageNet;推广了 | | '''AlexNet''' || 2012 || 赢得 ImageNet;推广了 ReLU、{{Term|dropout|dropout}} 和 GPU 训练 || 8 层 | ||
|- | |- | ||
| '''VGGNet''' || 2014 || | | '''VGGNet''' || 2014 || 表明深度很重要;全网络仅使用 <math>3 \times 3</math> 滤波器 || 16–19 层 | ||
|- | |- | ||
| '''GoogLeNet (Inception)''' || 2014 || 引入了具有并行滤波器尺寸的 inception 模块 || 22 层 | | '''GoogLeNet (Inception)''' || 2014 || 引入了具有并行滤波器尺寸的 inception 模块 || 22 层 | ||
|- | |- | ||
| '''ResNet''' || 2015 || | | '''ResNet''' || 2015 || 引入了残差连接,使非常深的网络成为可能 || 50–152+ 层 | ||
|- | |- | ||
| '''DenseNet''' || 2017 || | | '''DenseNet''' || 2017 || 通过密集块将每一层连接到后续每一层 || 121–264 层 | ||
|- | |- | ||
| '''EfficientNet''' || 2019 || 对深度、宽度和分辨率进行复合缩放 || 可变 | | '''EfficientNet''' || 2019 || 对深度、宽度和分辨率进行复合缩放 || 可变 | ||
|} | |} | ||
Latest revision as of 23:37, 27 April 2026
| 架构 | 年份 | 主要贡献 | 深度 |
|---|---|---|---|
| LeNet-5 | 1998 | 开创性地将 CNN 用于手写数字识别(MNIST) | 5 层 |
| AlexNet | 2012 | 赢得 ImageNet;推广了 ReLU、dropout 和 GPU 训练 | 8 层 |
| VGGNet | 2014 | 表明深度很重要;全网络仅使用 $ 3 \times 3 $ 滤波器 | 16–19 层 |
| GoogLeNet (Inception) | 2014 | 引入了具有并行滤波器尺寸的 inception 模块 | 22 层 |
| ResNet | 2015 | 引入了残差连接,使非常深的网络成为可能 | 50–152+ 层 |
| DenseNet | 2017 | 通过密集块将每一层连接到后续每一层 | 121–264 层 |
| EfficientNet | 2019 | 对深度、宽度和分辨率进行复合缩放 | 可变 |