<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Deep_Residual_Learning_for_Image_Recognition%2Fes</id>
	<title>Deep Residual Learning for Image Recognition/es - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Deep_Residual_Learning_for_Image_Recognition%2Fes"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Deep_Residual_Learning_for_Image_Recognition/es&amp;action=history"/>
	<updated>2026-04-27T19:26:39Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Deep_Residual_Learning_for_Image_Recognition/es&amp;diff=6440&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Deep Residual Learning for Image Recognition unit 27 -&gt; es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Deep_Residual_Learning_for_Image_Recognition/es&amp;diff=6440&amp;oldid=prev"/>
		<updated>2026-04-27T04:15:43Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Deep Residual Learning for Image Recognition unit 27 -&amp;gt; es&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;lt;languages /&amp;gt;&lt;br /&gt;
&lt;br /&gt;
{{PaperInfobox&lt;br /&gt;
| topic_area  = Deep Learning&lt;br /&gt;
| difficulty  = Research&lt;br /&gt;
| authors     = Kaiming He; Xiangyu Zhang; Shaoqing Ren; Jian Sun&lt;br /&gt;
| year        = 2016&lt;br /&gt;
| venue       = CVPR&lt;br /&gt;
| arxiv_id    = 1512.03385&lt;br /&gt;
| source_url  = https://arxiv.org/abs/1512.03385&lt;br /&gt;
| pdf_url     = https://arxiv.org/pdf/1512.03385&lt;br /&gt;
}}&lt;br /&gt;
{{ContentMeta | generated_by = claude-opus | model_used = claude-opus-4-6 | generated_date = 2026-03-13}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Deep Residual Learning for Image Recognition&amp;#039;&amp;#039;&amp;#039; es un artículo de 2016 de He et al. de Microsoft Research que introdujo las &amp;#039;&amp;#039;&amp;#039;redes residuales&amp;#039;&amp;#039;&amp;#039; (ResNets), un marco para entrenar redes neuronales extremadamente profundas mediante &amp;#039;&amp;#039;&amp;#039;conexiones de salto&amp;#039;&amp;#039;&amp;#039; (también llamadas conexiones de atajo). El artículo demostró que las redes con más de 100 capas podían entrenarse de manera efectiva, obteniendo el primer lugar en la competencia de clasificación de imágenes ILSVRC 2015 con una tasa de error top-5 del 3,57%.&lt;br /&gt;
&lt;br /&gt;
== Resumen ==&lt;br /&gt;
&lt;br /&gt;
A medida que las redes neuronales se hicieron más profundas a mediados de la década de 2010, los investigadores observaron un &amp;#039;&amp;#039;&amp;#039;problema de degradación&amp;#039;&amp;#039;&amp;#039; contraintuitivo: agregar más capas a una red eventualmente causaba que la precisión de entrenamiento se degradara, no por sobreajuste sino por dificultad de optimización. Una red simple de 56 capas tuvo peor desempeño que una red de 20 capas tanto en los conjuntos de entrenamiento como de prueba, lo que indica que las redes más profundas eran más difíciles de optimizar en lugar de simplemente ser más propensas al sobreajuste.&lt;br /&gt;
&lt;br /&gt;
He et al. propusieron que en lugar de aprender directamente las asignaciones subyacentes deseadas, las capas deberían aprender &amp;#039;&amp;#039;&amp;#039;funciones residuales&amp;#039;&amp;#039;&amp;#039; con referencia a las entradas de la capa. Esta reformulación, implementada mediante conexiones de atajo que omiten una o más capas, hizo sustancialmente más fácil optimizar redes muy profundas y permitió el entrenamiento de arquitecturas con hasta 152 capas (y experimentalmente más de 1.000 capas) sin degradación.&lt;br /&gt;
&lt;br /&gt;
== Contribuciones Clave ==&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Marco de aprendizaje residual&amp;#039;&amp;#039;&amp;#039;: Una reformulación donde las capas de la red aprenden funciones residuales &amp;lt;math&amp;gt;F(x) = H(x) - x&amp;lt;/math&amp;gt; en lugar de asignaciones no referenciadas &amp;lt;math&amp;gt;H(x)&amp;lt;/math&amp;gt;, con conexiones de atajo de identidad que pasan la entrada directamente a capas más profundas.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Redes extremadamente profundas&amp;#039;&amp;#039;&amp;#039;: Entrenamiento exitoso de redes con 152 capas para ImageNet y más de 1.000 capas en CIFAR-10, superando ampliamente la profundidad de arquitecturas anteriores.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Resultados de vanguardia&amp;#039;&amp;#039;&amp;#039;: Primer lugar en las competencias de clasificación, detección y localización del ILSVRC 2015, así como primer lugar en las competencias de detección y segmentación del COCO 2015.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Conocimiento generalizable&amp;#039;&amp;#039;&amp;#039;: El principio de aprendizaje residual demostró ser aplicable mucho más allá de la clasificación de imágenes, influyendo en arquitecturas en todas las áreas del aprendizaje profundo.&lt;br /&gt;
&lt;br /&gt;
== Métodos ==&lt;br /&gt;
&lt;br /&gt;
La idea central es engañosamente simple. Para una pila de capas destinadas a ajustar una asignación deseada &amp;lt;math&amp;gt;H(x)&amp;lt;/math&amp;gt;, en lugar de ajustar &amp;lt;math&amp;gt;H(x)&amp;lt;/math&amp;gt; directamente, se encarga a las capas ajustar el residuo:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;F(x) := H(x) - x&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La asignación original se reformula entonces como &amp;lt;math&amp;gt;H(x) = F(x) + x&amp;lt;/math&amp;gt;. Esto se implementa agregando una &amp;#039;&amp;#039;&amp;#039;conexión de atajo de identidad&amp;#039;&amp;#039;&amp;#039; que omite una o más capas:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y = F(x, \{W_i\}) + x&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde &amp;lt;math&amp;gt;F(x, \{W_i\})&amp;lt;/math&amp;gt; representa la asignación residual a aprender (típicamente dos o tres capas convolucionales con normalización por lotes y activaciones ReLU). La suma es elemento por elemento y requiere que &amp;lt;math&amp;gt;F&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; tengan las mismas dimensiones. Cuando las dimensiones difieren (por ejemplo, en etapas de submuestreo), se aplica una proyección lineal &amp;lt;math&amp;gt;W_s&amp;lt;/math&amp;gt; al atajo:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;math&amp;gt;y = F(x, \{W_i\}) + W_s x&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La hipótesis es que es más fácil para una red aprender una pequeña perturbación residual &amp;lt;math&amp;gt;F(x) \approx 0&amp;lt;/math&amp;gt; que aprender una asignación de identidad desde cero. Si la función óptima está cerca de la identidad, la formulación residual facilita que el optimizador empuje los pesos hacia cero en lugar de ajustar una identidad a través de capas no lineales.&lt;br /&gt;
&lt;br /&gt;
El artículo presentó varias variantes de ResNet: ResNet-18, ResNet-34, ResNet-50, ResNet-101 y ResNet-152. Las variantes más profundas (50+) usan un &amp;#039;&amp;#039;&amp;#039;diseño de cuello de botella&amp;#039;&amp;#039;&amp;#039; con convoluciones 1x1, 3x3 y 1x1 para reducir el costo computacional manteniendo la capacidad representacional.&lt;br /&gt;
&lt;br /&gt;
== Resultados ==&lt;br /&gt;
&lt;br /&gt;
En el conjunto de validación de ImageNet, ResNet-152 logró una tasa de error top-5 del 3,57% utilizando un conjunto de modelos, superando todos los enfoques anteriores y ganando la competencia ILSVRC 2015. Como modelo único, ResNet-152 logró un error top-5 del 4,49%, sustancialmente por debajo del ganador de 2014, GoogLeNet (6,67%).&lt;br /&gt;
&lt;br /&gt;
La evidencia crítica para el marco de aprendizaje residual provino de comparaciones controladas: una ResNet de 34 capas superó a una ResNet de 18 capas, mientras que una red simple de 34 capas tuvo un desempeño &amp;#039;&amp;#039;peor&amp;#039;&amp;#039; que una red simple de 18 capas. Esto demostró directamente que las conexiones de salto resolvían el problema de degradación.&lt;br /&gt;
&lt;br /&gt;
En CIFAR-10, los autores entrenaron redes con más de 1.000 capas, demostrando que las redes residuales extremadamente profundas aún podían optimizarse, aunque una red de 1202 capas mostró un sobreajuste leve en comparación con una variante de 110 capas debido al pequeño tamaño del conjunto de datos.&lt;br /&gt;
&lt;br /&gt;
Las representaciones aprendidas por las ResNets también se transfirieron bien a otras tareas, logrando resultados de vanguardia en los benchmarks de detección y segmentación de objetos PASCAL VOC y MS COCO. La generalidad de estas mejoras confirmó que los beneficios del aprendizaje residual se extendían mucho más allá de la clasificación a tareas de predicción densa. Los extractores de características basados en ResNet se convirtieron en el backbone estándar para Faster R-CNN, Mask R-CNN y Feature Pyramid Networks.&lt;br /&gt;
&lt;br /&gt;
== Impacto ==&lt;br /&gt;
&lt;br /&gt;
ResNet es uno de los artículos más citados e influyentes en aprendizaje profundo. La conexión residual se convirtió en un bloque de construcción fundamental adoptado en prácticamente todas las arquitecturas profundas posteriores, incluyendo los Transformers (que usan conexiones residuales alrededor de cada subcapa de attention y feed-forward), DenseNets, U-Nets y arquitecturas convolucionales modernas. La idea de que las asignaciones de identidad facilitan la optimización en redes profundas moldeó profundamente tanto la comprensión teórica como el diseño práctico de arquitecturas.&lt;br /&gt;
&lt;br /&gt;
ResNet ganó el premio al Mejor Artículo de 2016 en CVPR. A partir de 2026, las variantes de ResNet siguen siendo líneas base competitivas en visión por computadora y se encuentran entre las arquitecturas backbone más utilizadas para el aprendizaje por transferencia.&lt;br /&gt;
&lt;br /&gt;
La simplicidad matemática de la conexión residual — sumar la entrada a la salida de un bloque — desmiente su profundo impacto. Esta única idea permitió entrenar redes que eran un orden de magnitud más profundas de lo que era previamente factible, y el principio ha demostrado ser esencial en arquitecturas muy alejadas del contexto original de clasificación de imágenes, incluyendo síntesis de voz, procesamiento de lenguaje natural y computación científica.&lt;br /&gt;
&lt;br /&gt;
El trabajo teórico posterior demostró que las conexiones de salto ayudan a que los gradientes fluyan a través de redes muy profundas al proporcionar caminos más cortos durante la backpropagation, mitigando efectivamente el problema del vanishing gradient que durante mucho tiempo aquejó al entrenamiento de redes profundas. El artículo ha acumulado más de 200.000 citas, lo que lo convierte en uno de los trabajos más referenciados en toda la ciencia.&lt;br /&gt;
&lt;br /&gt;
Los modelos ResNet preentrenados están disponibles en todos los principales frameworks de aprendizaje profundo, lo que los convierte en uno de los puntos de partida más accesibles para el aprendizaje por transferencia en visión por computadora.&lt;br /&gt;
&lt;br /&gt;
== Véase también ==&lt;br /&gt;
&lt;br /&gt;
* [[ImageNet Classification with Deep CNNs]]&lt;br /&gt;
* [[Batch Normalization Accelerating Deep Network Training]]&lt;br /&gt;
* [[Dropout A Simple Way to Prevent Overfitting]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* He, K., Zhang, X., Ren, S., &amp;amp; Sun, J. (2016). Deep Residual Learning for Image Recognition. &amp;#039;&amp;#039;Proceedings of CVPR 2016&amp;#039;&amp;#039;. [https://arxiv.org/abs/1512.03385 arXiv:1512.03385]&lt;br /&gt;
* Simonyan, K. &amp;amp; Zisserman, A. (2015). Very Deep Convolutional Networks for Large-Scale Image Recognition. &amp;#039;&amp;#039;ICLR 2015&amp;#039;&amp;#039;.&lt;br /&gt;
* He, K., Zhang, X., Ren, S., &amp;amp; Sun, J. (2016). Identity Mappings in Deep Residual Networks. &amp;#039;&amp;#039;ECCV 2016&amp;#039;&amp;#039;. arXiv:1603.05027.&lt;br /&gt;
&lt;br /&gt;
[[Category:Deep Learning]] [[Category:Research]] [[Category:Research Papers]]&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>