All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''Residual learning framework''': A reformulation where network layers learn residual functions <math>F(x) = H(x) - x</math> rather than unreferenced mappings <math>H(x)</math>, with identity shortcut connections passing the input directly to deeper layers.
* '''Extremely deep networks''': Successful training of networks with 152 layers for ImageNet and over 1,000 layers on CIFAR-10, far exceeding the depth of prior architectures.
* '''State-of-the-art results''': First place in the ILSVRC 2015 classification, detection, and localization tracks, as well as first place in the COCO 2015 detection and segmentation tracks.
* '''Generalizable insight''': The residual learning principle proved applicable far beyond image classification, influencing architectures across all areas of {{Term|deep learning}}.
 h Spanish (es)* '''Marco de aprendizaje residual''': Una reformulación en la que las capas de la red aprenden funciones residuales <math>F(x) = H(x) - x</math> en lugar de mapeos no referenciados <math>H(x)</math>, con conexiones de atajo de identidad que pasan la entrada directamente a las capas más profundas.
* '''Redes extremadamente profundas''': Entrenamiento exitoso de redes con 152 capas para ImageNet y más de 1.000 capas en CIFAR-10, superando con creces la profundidad de arquitecturas anteriores.
* '''Resultados de vanguardia''': Primer lugar en las pruebas de clasificación, detección y localización de ILSVRC 2015, así como primer lugar en las pruebas de detección y segmentación de COCO 2015.
* '''Visión generalizable''': El principio de aprendizaje residual demostró ser aplicable mucho más allá de la clasificación de imágenes, influyendo en arquitecturas en todas las áreas del {{Term|deep learning|aprendizaje profundo}}.
 h Chinese (zh)* '''残差学习框架''':一种重新表述,其中网络层学习残差函数 <math>F(x) = H(x) - x</math> 而不是无参考映射 <math>H(x)</math>,并通过恒等捷径连接将输入直接传递到更深的层。
* '''极深的网络''':成功训练了 ImageNet 上 152 层的网络以及 CIFAR-10 上超过 1000 层的网络,远超先前架构的深度。
* '''最先进的结果''':在 ILSVRC 2015 分类、检测和定位赛道中获得第一名,并在 COCO 2015 检测和分割赛道中获得第一名。
* '''可泛化的洞见''':残差学习原理被证明远不止适用于图像分类,影响了{{Term|deep learning|深度学习}}所有领域的架构。