<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Searching_for_Activation_Functions%2Fes</id>
	<title>Searching for Activation Functions/es - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Searching_for_Activation_Functions%2Fes"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Searching_for_Activation_Functions/es&amp;action=history"/>
	<updated>2026-04-27T15:47:19Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Searching_for_Activation_Functions/es&amp;diff=12904&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Searching for Activation Functions unit 30 → es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Searching_for_Activation_Functions/es&amp;diff=12904&amp;oldid=prev"/>
		<updated>2026-04-27T07:58:40Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Searching for Activation Functions unit 30 → es&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;&amp;lt;languages /&amp;gt;&lt;br /&gt;
{{PaperTabs}}&lt;br /&gt;
{{PaperInfobox&lt;br /&gt;
 | topic_area  = Machine Learning&lt;br /&gt;
 | difficulty  = Research&lt;br /&gt;
 | authors     = Prajit Ramachandran; Barret Zoph; Quoc V. Le&lt;br /&gt;
 | year        = 2017&lt;br /&gt;
 | arxiv_id    = 1710.05941&lt;br /&gt;
 | source_url  = https://arxiv.org/abs/1710.05941&lt;br /&gt;
 | pdf_url     = https://arxiv.org/pdf/1710.05941.pdf&lt;br /&gt;
}}&lt;br /&gt;
{{ContentMeta&lt;br /&gt;
 | generated_by   = claude-code-direct&lt;br /&gt;
 | model_used     = claude-opus-4-7&lt;br /&gt;
 | generated_date = 2026-04-27&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
&amp;#039;&amp;#039;&amp;#039;Searching for Activation Functions&amp;#039;&amp;#039;&amp;#039; es un artículo de 2017 de Prajit Ramachandran, Barret Zoph y Quoc V. Le, de Google Brain, que utiliza búsqueda automatizada para descubrir funciones de activación escalares para redes neuronales profundas. La búsqueda produce una familia de funciones simples y no monótonas, de las cuales los autores destacan una — &amp;#039;&amp;#039;&amp;#039;Swish&amp;#039;&amp;#039;&amp;#039;, definida como &amp;lt;math&amp;gt;f(x) = x \cdot \sigma(\beta x)&amp;lt;/math&amp;gt; — y muestran que iguala o supera de forma consistente a la ReLU en modelos profundos sobre benchmarks de clasificación de imágenes y traducción automática. El artículo se presentó en el track de talleres de [[International Conference on Learning Representations|ICLR]] 2018.&lt;br /&gt;
&lt;br /&gt;
== Resumen ==&lt;br /&gt;
&lt;br /&gt;
Las funciones de activación están en el corazón de toda red profunda y tienen un efecto importante sobre la optimización y la generalización. A pesar de una larga lista de alternativas diseñadas a mano — Leaky ReLU, PReLU, ELU, SELU, GELU, Softplus — la [[Rectified linear unit|ReLU]] &amp;lt;math&amp;gt;f(x) = \max(x, 0)&amp;lt;/math&amp;gt; ha seguido siendo el valor por defecto de facto, ya que las funciones competidoras tendían a producir mejoras inconsistentes entre modelos y conjuntos de datos.&lt;br /&gt;
&lt;br /&gt;
En lugar de diseñar a mano otra función de activación más, los autores aplican [[Neural architecture search|búsqueda automatizada]] sobre un espacio composicional de primitivas unarias y binarias. La mejor función descubierta, a la que llaman Swish, es estructuralmente cercana a ReLU pero suave y no monótona. Los autores muestran que reemplazar simplemente las ReLU por Swish mejora la precisión en una amplia variedad de arquitecturas tipo preentrenadas con un ajuste mínimo de hiperparámetros, y que el resultado es lo bastante robusto como para generalizar desde las pequeñas redes hijas en CIFAR-10 usadas durante la búsqueda hasta modelos a escala de ImageNet y de traducción.&lt;br /&gt;
&lt;br /&gt;
== Contribuciones principales ==&lt;br /&gt;
&lt;br /&gt;
* Un espacio de búsqueda composicional para funciones de activación escalares, construido a partir de una pequeña biblioteca de funciones unarias (p. ej. &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;x^2&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\sigma(x)&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\tanh(x)&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\sin(x)&amp;lt;/math&amp;gt;) y binarias (p. ej. &amp;lt;math&amp;gt;x_1 + x_2&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;x_1 \cdot x_2&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\max&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\sigma(x_1)\cdot x_2&amp;lt;/math&amp;gt;).&lt;br /&gt;
* Un procedimiento de búsqueda que combina enumeración exhaustiva para espacios pequeños con un controlador RNN entrenado con [[Reinforcement learning|RL]] (usando [[Proximal policy optimization|PPO]]) para espacios demasiado grandes para enumerar.&lt;br /&gt;
* El descubrimiento y análisis detallado de Swish, &amp;lt;math&amp;gt;f(x) = x \cdot \sigma(\beta x)&amp;lt;/math&amp;gt;, donde &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt; es una constante o un parámetro entrenable por canal.&lt;br /&gt;
* Una comparación empírica extensa frente a siete funciones de activación de referencia (ReLU, LReLU, PReLU, Softplus, ELU, SELU, GELU) en CIFAR-10/100, [[ImageNet]] y traducción WMT 2014 inglés→alemán.&lt;br /&gt;
&lt;br /&gt;
== Métodos ==&lt;br /&gt;
&lt;br /&gt;
El espacio de búsqueda trata las funciones de activación como aplicaciones repetidas de una &amp;quot;unidad central&amp;quot; de la forma &amp;lt;math&amp;gt;b(u_1(x_1), u_2(x_2))&amp;lt;/math&amp;gt;, donde &amp;lt;math&amp;gt;u_1, u_2&amp;lt;/math&amp;gt; son funciones unarias, &amp;lt;math&amp;gt;b&amp;lt;/math&amp;gt; es una función binaria, y las entradas &amp;lt;math&amp;gt;x_1, x_2&amp;lt;/math&amp;gt; son la preactivación de la capa &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; o la salida de una unidad central anterior. Se construyen distintos espacios de búsqueda variando el número de unidades centrales y las primitivas disponibles.&lt;br /&gt;
&lt;br /&gt;
Las funciones de activación candidatas se evalúan entrenando una pequeña &amp;quot;red hija&amp;quot; — una [[Residual neural network|ResNet]]-20 sobre [[CIFAR-10]] durante 10K pasos — y reportando la precisión de validación. Para espacios pequeños los autores enumeran de forma exhaustiva; para espacios del orden de &amp;lt;math&amp;gt;10^{12}&amp;lt;/math&amp;gt; entrenan un controlador RNN con aprendizaje por refuerzo para maximizar la precisión de validación, usando un promedio móvil exponencial de las recompensas como baseline. La búsqueda se paraleliza entre máquinas trabajadoras que extraen funciones candidatas de una cola, entrenan una red hija y reportan la precisión de validación final al algoritmo de búsqueda.&lt;br /&gt;
&lt;br /&gt;
Tras la búsqueda, los principales candidatos se prueban a fondo en tres arquitecturas más grandes en CIFAR — preactivation ResNet-164, Wide ResNet 28-10 y DenseNet 100-12 — para descartar funciones que sobreajusten al entorno reducido de la red hija. Seis de las ocho mejores funciones novedosas transfieren; dos de ellas, &amp;lt;math&amp;gt;x \cdot \sigma(\beta x)&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;\max(x, \sigma(x))&amp;lt;/math&amp;gt;, igualan o superan a ReLU en todos los modelos. Los autores deciden entonces evaluar a escala &amp;lt;math&amp;gt;x \cdot \sigma(\beta x)&amp;lt;/math&amp;gt;, en parte porque los experimentos iniciales sugerían una mejor generalización.&lt;br /&gt;
&lt;br /&gt;
La búsqueda revela varios patrones recurrentes: las funciones simples superan a las complejas (1–2 unidades centrales bastan), las funciones de cabeza tienden a usar la preactivación cruda como una de las entradas de la operación binaria final (replicando la estructura de ReLU), y las funciones basadas en división rara vez funcionan porque sus salidas explotan cerca de cero. Entre los principales candidatos, los autores destacan&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;f(x) = x \cdot \sigma(\beta x), \qquad \sigma(z) = (1 + \exp(-z))^{-1}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
a la que llaman Swish. Fijar &amp;lt;math&amp;gt;\beta = 1&amp;lt;/math&amp;gt; recupera la Sigmoid-weighted Linear Unit (SiL) de Elfwing et al.; fijar &amp;lt;math&amp;gt;\beta \to \infty&amp;lt;/math&amp;gt; recupera ReLU; fijar &amp;lt;math&amp;gt;\beta = 0&amp;lt;/math&amp;gt; da la función lineal &amp;lt;math&amp;gt;x/2&amp;lt;/math&amp;gt;. Por tanto, Swish puede verse como un interpolante suave entre el comportamiento lineal y el de ReLU, donde &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt; controla el grado de no linealidad.&lt;br /&gt;
&lt;br /&gt;
La primera derivada de Swish es&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;f&amp;#039;(x) = \sigma(\beta x) + \beta x \cdot \sigma(\beta x)\bigl(1 - \sigma(\beta x)\bigr) = \beta f(x) + \sigma(\beta x)\bigl(1 - \beta f(x)\bigr)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
de modo que Swish es suave en todo punto, no acotada por arriba, acotada por abajo y no monótona — desciende por debajo de cero en una pequeña &amp;quot;protuberancia&amp;quot; para &amp;lt;math&amp;gt;x&amp;lt;/math&amp;gt; aproximadamente entre &amp;lt;math&amp;gt;-5&amp;lt;/math&amp;gt; y &amp;lt;math&amp;gt;0&amp;lt;/math&amp;gt;, antes de aproximarse a cero por debajo cuando &amp;lt;math&amp;gt;x \to -\infty&amp;lt;/math&amp;gt;. Los autores muestran empíricamente que una gran fracción de las preactivaciones cae dentro de esta protuberancia y argumentan que es un aspecto esencial del comportamiento de la función. La forma de la protuberancia se controla con &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt;: cuando &amp;lt;math&amp;gt;\beta&amp;lt;/math&amp;gt; se trata como parámetro entrenable por canal, los valores ajustados en Mobile NASNet-A se distribuyen entre 0 y 1.5 con un pico cercano a 1, lo que sugiere que los modelos sí explotan esa flexibilidad adicional.&lt;br /&gt;
&lt;br /&gt;
La implementación es un cambio de una sola línea en los frameworks modernos (p. ej. &amp;lt;code&amp;gt;x * tf.sigmoid(beta * x)&amp;lt;/code&amp;gt;). Los autores señalan que el parámetro de escala de BatchNorm debe permanecer activo (algunas bibliotecas lo desactivan por defecto para ReLU) y que las tasas de aprendizaje suelen requerir valores ligeramente menores que las ajustadas para ReLU.&lt;br /&gt;
&lt;br /&gt;
== Resultados ==&lt;br /&gt;
&lt;br /&gt;
En CIFAR-10 y CIFAR-100, Swish y Swish-1 igualan o superan a ReLU en todos los modelos considerados (preactivation ResNet-164, Wide ResNet 28-10, DenseNet 100-12). El &amp;quot;mejor baseline&amp;quot; varía según el modelo — Softplus, GELU y PReLU lideran filas distintas — pero Swish es la única función que se mantiene de forma consistente en o cerca del primer puesto.&lt;br /&gt;
&lt;br /&gt;
En la clasificación sobre [[ImageNet]], reemplazar ReLU por Swish da:&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Mobile NASNet-A&amp;#039;&amp;#039;&amp;#039;: +1.4% de precisión top-1 en promedio sobre tres ejecuciones (&amp;lt;math&amp;gt;73.5 \to 74.9&amp;lt;/math&amp;gt;%).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Inception-ResNet-v2&amp;#039;&amp;#039;&amp;#039;: +0.5–0.6% top-1 (&amp;lt;math&amp;gt;79.6 \to 80.2&amp;lt;/math&amp;gt;%).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;MobileNet&amp;#039;&amp;#039;&amp;#039;: +2.2% top-1 (&amp;lt;math&amp;gt;72.0 \to 74.2&amp;lt;/math&amp;gt;%).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Inception-v3&amp;#039;&amp;#039;&amp;#039; e &amp;#039;&amp;#039;&amp;#039;Inception-v4&amp;#039;&amp;#039;&amp;#039;: aproximadamente +0.1% top-1, dentro del ruido.&lt;br /&gt;
&lt;br /&gt;
Como referencia, los autores señalan que un año entero de ajustes arquitectónicos entre Inception-v3 e Inception-ResNet-v2 produjo una mejora del 1.3%, así que las ganancias derivadas de un cambio de activación de una sola línea son económicamente significativas. Sobre un &amp;quot;Base [[Transformer (machine learning model)|Transformer]]&amp;quot; de 12 capas entrenado en WMT 2014 inglés→alemán, Swish-1 también iguala o supera a todos los baselines en cuatro newstest, con la mayor ganancia en newstest2016 (+0.6 BLEU sobre el siguiente mejor).&lt;br /&gt;
&lt;br /&gt;
Una prueba de signos resumida frente a cada baseline (contando victorias, empates y derrotas en nueve modelos) muestra que Swish gana estrictamente más veces que pierde frente a las siete funciones ReLU, LReLU, PReLU, Softplus, ELU, SELU y GELU.&lt;br /&gt;
&lt;br /&gt;
Las ganancias de Swish son mayores en arquitecturas convolucionales de tamaño móvil (Mobile NASNet-A, MobileNet) y en el Transformer, mientras que en Inception-v4 la diferencia se reduce hasta el ruido. Softplus, el siguiente baseline más consistente, es competitivo en clasificadores de imágenes grandes pero se hunde en la traducción automática (más de 3 BLEU por debajo de ReLU en los newstest de WMT), ilustrando la inconsistencia entre dominios que el artículo se propone superar.&lt;br /&gt;
&lt;br /&gt;
== Impacto ==&lt;br /&gt;
&lt;br /&gt;
El artículo de Swish tuvo una influencia práctica desproporcionada respecto a su novedad teórica. De hecho, la función ya había sido propuesta de forma independiente con el nombre Sigmoid-weighted Linear Unit (SiL) por Elfwing, Uchibe y Doya en un contexto de [[reinforcement learning|aprendizaje por refuerzo]], y la estrechamente relacionada [[Gaussian Error Linear Unit|GELU]] (Hendrycks y Gimpel, 2016) comparte la misma forma suave y no monótona. La contribución aquí es la primera demostración empírica sistemática de que tales funciones mejoran la precisión en modelos de imagen y lenguaje a gran escala, junto con la receta — buscar sobre un espacio composicional usando una red hija como proxy rápido — que la produjo.&lt;br /&gt;
&lt;br /&gt;
Tras su publicación, Swish se incorporó a los frameworks principales (p. ej. &amp;lt;code&amp;gt;tf.nn.swish&amp;lt;/code&amp;gt;) y se adoptó en arquitecturas de producción como [[EfficientNet]]. La variante &amp;#039;&amp;#039;&amp;#039;Hard Swish&amp;#039;&amp;#039;&amp;#039; — una aproximación lineal por tramos definida como &amp;lt;math&amp;gt;x \cdot \mathrm{ReLU6}(x + 3)/6&amp;lt;/math&amp;gt; — se introdujo en MobileNetV3 para recuperar las ganancias de precisión de Swish con un coste reducido en hardware móvil. El propio GELU fue popularizado más adelante por [[BERT (language model)|BERT]] y la familia GPT, donde se convirtió en la activación por defecto en los bloques feed-forward de los [[Transformer (machine learning model)|Transformers]], reivindicando la categoría más amplia que Swish ayudó a establecer.&lt;br /&gt;
&lt;br /&gt;
El artículo también ayudó a legitimar el uso de la búsqueda automatizada para componentes de bajo nivel en redes neuronales, complementando los trabajos paralelos del equipo Google Brain sobre búsqueda de arquitecturas (NASNet) y búsqueda de optimizadores. Los autores enlazan explícitamente sus hallazgos con el argumento de que &amp;quot;las mejoras arquitectónicas reducen la necesidad de que componentes individuales preserven gradientes&amp;quot;, surgido tras las [[Residual neural network|conexiones residuales]] y la atención al estilo Transformer, que eliminaron muchos de los obstáculos para los que originalmente se diseñó ReLU.&lt;br /&gt;
&lt;br /&gt;
Una lectura habitual y errónea del artículo es que &amp;quot;Swish supera a ReLU en todas partes&amp;quot;; el registro experimental real es más matizado. En clasificadores de imágenes grandes la diferencia es pequeña y depende de la arquitectura — Inception-v4 es esencialmente un empate — y cualquier reentrenamiento de estas redes debería reajustar las tasas de aprendizaje desde cero en lugar de reutilizar los planes ajustados a ReLU. La conclusión robusta es comparativa: a través de nueve arquitecturas y tres dominios, Swish es el valor por defecto menos malo, y el procedimiento de búsqueda puede plausiblemente repetirse para encontrar activaciones especializadas a una nueva arquitectura.&lt;br /&gt;
&lt;br /&gt;
== Véase también ==&lt;br /&gt;
&lt;br /&gt;
* [[Rectified linear unit]]&lt;br /&gt;
* [[Gaussian Error Linear Unit]]&lt;br /&gt;
* [[Neural architecture search]]&lt;br /&gt;
* [[Transformer (machine learning model)]]&lt;br /&gt;
* [[ImageNet]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Ramachandran, P., Zoph, B., &amp;amp; Le, Q. V. (2017). &amp;#039;&amp;#039;Searching for Activation Functions&amp;#039;&amp;#039;. arXiv:1710.05941.&lt;br /&gt;
* Elfwing, S., Uchibe, E., &amp;amp; Doya, K. (2017). &amp;#039;&amp;#039;Sigmoid-weighted linear units for neural network function approximation in reinforcement learning&amp;#039;&amp;#039;. arXiv:1702.03118.&lt;br /&gt;
* Hendrycks, D., &amp;amp; Gimpel, K. (2016). &amp;#039;&amp;#039;Gaussian Error Linear Units (GELUs)&amp;#039;&amp;#039;. arXiv:1606.08415.&lt;br /&gt;
* Zoph, B., &amp;amp; Le, Q. V. (2017). &amp;#039;&amp;#039;Neural Architecture Search with Reinforcement Learning&amp;#039;&amp;#039;. ICLR.&lt;br /&gt;
* Bello, I., Zoph, B., Vasudevan, V., &amp;amp; Le, Q. V. (2017). &amp;#039;&amp;#039;Neural Optimizer Search with Reinforcement Learning&amp;#039;&amp;#039;. ICML.&lt;br /&gt;
* Howard, A., et al. (2019). &amp;#039;&amp;#039;Searching for MobileNetV3&amp;#039;&amp;#039;. ICCV — introduce Hard Swish.&lt;br /&gt;
&lt;br /&gt;
[[Category:Machine Learning]]&lt;br /&gt;
[[Category:Research]]&lt;br /&gt;
[[Category:Research Papers]]&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>