<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Recurrent_Neural_Networks%2Fes</id>
	<title>Recurrent Neural Networks/es - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Recurrent_Neural_Networks%2Fes"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;action=history"/>
	<updated>2026-04-24T12:42:58Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2158&amp;oldid=prev</id>
		<title>DeployBot: [deploy-bot] Deploy from CI (8c92aeb)</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2158&amp;oldid=prev"/>
		<updated>2026-04-24T07:09:01Z</updated>

		<summary type="html">&lt;p&gt;[deploy-bot] Deploy from CI (8c92aeb)&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 07:09, 24 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l111&quot;&gt;Line 111:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 111:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Intermediate]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Intermediate]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Neural Networks]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Neural Networks]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;lt;!--v1.2.0 cache-bust--&gt;&lt;/del&gt;&lt;/div&gt;&lt;/td&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-added&quot;&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;lt;!-- pass 2 --&gt;&lt;/del&gt;&lt;/div&gt;&lt;/td&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-added&quot;&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key mediawiki:diff::1.12:old-2111:rev-2158 --&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2111&amp;oldid=prev</id>
		<title>DeployBot: Pass 2 force re-parse</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2111&amp;oldid=prev"/>
		<updated>2026-04-24T07:01:12Z</updated>

		<summary type="html">&lt;p&gt;Pass 2 force re-parse&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 07:01, 24 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l112&quot;&gt;Line 112:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 112:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Neural Networks]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Neural Networks]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;lt;!--v1.2.0 cache-bust--&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&amp;lt;!--v1.2.0 cache-bust--&amp;gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-deleted&quot;&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;lt;!-- pass 2 --&gt;&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key mediawiki:diff::1.12:old-2074:rev-2111 --&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2074&amp;oldid=prev</id>
		<title>DeployBot: Force re-parse after Math source-mode rollout (v1.2.0)</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2074&amp;oldid=prev"/>
		<updated>2026-04-24T06:58:35Z</updated>

		<summary type="html">&lt;p&gt;Force re-parse after Math source-mode rollout (v1.2.0)&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 06:58, 24 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l111&quot;&gt;Line 111:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 111:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Intermediate]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Intermediate]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Neural Networks]]&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot;&gt;&lt;/td&gt;&lt;td style=&quot;background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;[[Category:Neural Networks]]&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-side-deleted&quot;&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;&amp;lt;!--v1.2.0 cache-bust--&gt;&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key mediawiki:diff::1.12:old-2007:rev-2074 --&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2007&amp;oldid=prev</id>
		<title>DeployBot: [deploy-bot] Deploy from CI (775ba6e)</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Recurrent_Neural_Networks/es&amp;diff=2007&amp;oldid=prev"/>
		<updated>2026-04-24T04:01:50Z</updated>

		<summary type="html">&lt;p&gt;[deploy-bot] Deploy from CI (775ba6e)&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;{{LanguageBar | page = Recurrent Neural Networks}}&lt;br /&gt;
{{ArticleInfobox | topic_area = Deep Learning | difficulty = Intermediate | prerequisites = [[Neural Networks]], [[Backpropagation]]}}&lt;br /&gt;
{{ContentMeta | generated_by = claude-opus | model_used = claude-opus-4-6 | generated_date = 2026-03-13}}&lt;br /&gt;
&lt;br /&gt;
Las &amp;#039;&amp;#039;&amp;#039;redes neuronales recurrentes&amp;#039;&amp;#039;&amp;#039; (&amp;#039;&amp;#039;&amp;#039;RNN&amp;#039;&amp;#039;&amp;#039;) son una clase de [[Neural Networks|redes neuronales]] disenadas para procesar &amp;#039;&amp;#039;&amp;#039;datos secuenciales&amp;#039;&amp;#039;&amp;#039; — datos en los que el orden de los elementos importa. A diferencia de las redes prealimentadas, las RNN contienen conexiones recurrentes que permiten que la informacion persista a traves de los pasos temporales, otorgandoles una forma de memoria.&lt;br /&gt;
&lt;br /&gt;
== Modelado de secuencias ==&lt;br /&gt;
&lt;br /&gt;
Muchos problemas del mundo real involucran secuencias: el texto es una secuencia de palabras, el habla es una secuencia de tramas de audio, los precios de las acciones forman una serie temporal y el ADN es una secuencia de nucleotidos. Las redes prealimentadas estandar requieren entradas de tamano fijo y tratan cada entrada de forma independiente, lo que las hace inadecuadas para secuencias de longitud variable donde el contexto importa.&lt;br /&gt;
&lt;br /&gt;
Las RNN abordan esto procesando las entradas un elemento a la vez mientras mantienen un &amp;#039;&amp;#039;&amp;#039;estado oculto&amp;#039;&amp;#039;&amp;#039; que resume la informacion vista hasta el momento.&lt;br /&gt;
&lt;br /&gt;
== RNN basica ==&lt;br /&gt;
&lt;br /&gt;
En cada paso temporal &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;, una RNN basica calcula:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{h}_t = \tanh(\mathbf{W}_{hh}\,\mathbf{h}_{t-1} + \mathbf{W}_{xh}\,\mathbf{x}_t + \mathbf{b}_h)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{y}_t = \mathbf{W}_{hy}\,\mathbf{h}_t + \mathbf{b}_y&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
donde &amp;lt;math&amp;gt;\mathbf{x}_t&amp;lt;/math&amp;gt; es la entrada en el instante &amp;lt;math&amp;gt;t&amp;lt;/math&amp;gt;, &amp;lt;math&amp;gt;\mathbf{h}_t&amp;lt;/math&amp;gt; es el estado oculto, &amp;lt;math&amp;gt;\mathbf{y}_t&amp;lt;/math&amp;gt; es la salida, y &amp;lt;math&amp;gt;\mathbf{W}_{hh}, \mathbf{W}_{xh}, \mathbf{W}_{hy}&amp;lt;/math&amp;gt; son matrices de pesos compartidas en todos los pasos temporales. El estado oculto inicial &amp;lt;math&amp;gt;\mathbf{h}_0&amp;lt;/math&amp;gt; se establece tipicamente como el vector cero.&lt;br /&gt;
&lt;br /&gt;
La idea clave es que los mismos parametros se aplican en cada paso temporal — &amp;#039;&amp;#039;&amp;#039;comparticion de pesos en el tiempo&amp;#039;&amp;#039;&amp;#039; — lo que permite a la red generalizar a traves de diferentes posiciones en la secuencia.&lt;br /&gt;
&lt;br /&gt;
== Backpropagation a traves del tiempo (BPTT) ==&lt;br /&gt;
&lt;br /&gt;
El entrenamiento de una RNN requiere calcular los gradientes de la perdida con respecto a los pesos compartidos. &amp;#039;&amp;#039;&amp;#039;Backpropagation a traves del tiempo&amp;#039;&amp;#039;&amp;#039; (BPTT) &amp;quot;desenrolla&amp;quot; la RNN a lo largo de los pasos temporales, produciendo una red prealimentada profunda con pesos compartidos, y luego aplica [[Backpropagation|backpropagation]] estandar.&lt;br /&gt;
&lt;br /&gt;
Para una secuencia de longitud &amp;lt;math&amp;gt;T&amp;lt;/math&amp;gt;, el gradiente de la perdida con respecto a &amp;lt;math&amp;gt;\mathbf{W}_{hh}&amp;lt;/math&amp;gt; involucra un producto de jacobianos:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\frac{\partial L}{\partial \mathbf{W}_{hh}} = \sum_{t=1}^{T}\frac{\partial L_t}{\partial \mathbf{W}_{hh}} = \sum_{t=1}^{T}\sum_{k=1}^{t}\frac{\partial L_t}{\partial \mathbf{h}_t}\left(\prod_{j=k+1}^{t}\frac{\partial \mathbf{h}_j}{\partial \mathbf{h}_{j-1}}\right)\frac{\partial \mathbf{h}_k}{\partial \mathbf{W}_{hh}}&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El producto de jacobianos &amp;lt;math&amp;gt;\prod \partial \mathbf{h}_j / \partial \mathbf{h}_{j-1}&amp;lt;/math&amp;gt; es la fuente de los problemas de gradientes que se desvanecen y explotan.&lt;br /&gt;
&lt;br /&gt;
== El problema del gradiente que se desvanece ==&lt;br /&gt;
&lt;br /&gt;
Cuando el radio espectral del jacobiano recurrente es menor que 1, la senal del gradiente decae exponencialmente a traves del tiempo — el problema del &amp;#039;&amp;#039;&amp;#039;gradiente que se desvanece&amp;#039;&amp;#039;&amp;#039;. Esto hace extremadamente dificil que las RNN basicas aprendan dependencias que abarquen mas de 10–20 pasos temporales.&lt;br /&gt;
&lt;br /&gt;
Por el contrario, cuando el radio espectral supera 1, los gradientes pueden crecer exponencialmente — el problema del &amp;#039;&amp;#039;&amp;#039;gradiente que explota&amp;#039;&amp;#039;&amp;#039;. Los gradientes que explotan se manejan tipicamente mediante &amp;#039;&amp;#039;&amp;#039;recorte de gradientes&amp;#039;&amp;#039;&amp;#039; (limitar la norma del gradiente a un umbral), pero los gradientes que se desvanecen requieren soluciones arquitectonicas.&lt;br /&gt;
&lt;br /&gt;
== Long Short-Term Memory (LSTM) ==&lt;br /&gt;
&lt;br /&gt;
El &amp;#039;&amp;#039;&amp;#039;LSTM&amp;#039;&amp;#039;&amp;#039; (Hochreiter y Schmidhuber, 1997) introduce un &amp;#039;&amp;#039;&amp;#039;estado de celda&amp;#039;&amp;#039;&amp;#039; &amp;lt;math&amp;gt;\mathbf{c}_t&amp;lt;/math&amp;gt; que fluye a traves del tiempo con minima interferencia, y tres &amp;#039;&amp;#039;&amp;#039;compuertas&amp;#039;&amp;#039;&amp;#039; que controlan el flujo de informacion:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{f}_t = \sigma(\mathbf{W}_f[\mathbf{h}_{t-1}, \mathbf{x}_t] + \mathbf{b}_f)&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;compuerta de olvido&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{i}_t = \sigma(\mathbf{W}_i[\mathbf{h}_{t-1}, \mathbf{x}_t] + \mathbf{b}_i)&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;compuerta de entrada&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\tilde{\mathbf{c}}_t = \tanh(\mathbf{W}_c[\mathbf{h}_{t-1}, \mathbf{x}_t] + \mathbf{b}_c)&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;estado de celda candidato&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{c}_t = \mathbf{f}_t \odot \mathbf{c}_{t-1} + \mathbf{i}_t \odot \tilde{\mathbf{c}}_t&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;actualizacion del estado de celda&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{o}_t = \sigma(\mathbf{W}_o[\mathbf{h}_{t-1}, \mathbf{x}_t] + \mathbf{b}_o)&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;compuerta de salida&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{h}_t = \mathbf{o}_t \odot \tanh(\mathbf{c}_t)&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
El estado de celda actua como una cinta transportadora: la compuerta de olvido decide que informacion antigua descartar, la compuerta de entrada decide que informacion nueva almacenar, y la compuerta de salida controla lo que se expone a la siguiente capa. Dado que el estado de celda se actualiza mediante suma (no multiplicacion), los gradientes fluyen mas facilmente a traves de secuencias largas.&lt;br /&gt;
&lt;br /&gt;
== Unidad Recurrente con Compuertas (GRU) ==&lt;br /&gt;
&lt;br /&gt;
La &amp;#039;&amp;#039;&amp;#039;GRU&amp;#039;&amp;#039;&amp;#039; (Cho et al., 2014) simplifica el LSTM fusionando el estado de celda y el estado oculto y utilizando solo dos compuertas:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{z}_t = \sigma(\mathbf{W}_z[\mathbf{h}_{t-1}, \mathbf{x}_t])&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;compuerta de actualizacion&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{r}_t = \sigma(\mathbf{W}_r[\mathbf{h}_{t-1}, \mathbf{x}_t])&amp;lt;/math&amp;gt;  (&amp;#039;&amp;#039;&amp;#039;compuerta de reinicio&amp;#039;&amp;#039;&amp;#039;)&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\tilde{\mathbf{h}}_t = \tanh(\mathbf{W}[\mathbf{r}_t \odot \mathbf{h}_{t-1}, \mathbf{x}_t])&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{h}_t = (1 - \mathbf{z}_t) \odot \mathbf{h}_{t-1} + \mathbf{z}_t \odot \tilde{\mathbf{h}}_t&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
La GRU tiene menos parametros que el LSTM y a menudo alcanza un rendimiento comparable. En la practica, la eleccion entre LSTM y GRU se realiza tipicamente de forma empirica.&lt;br /&gt;
&lt;br /&gt;
== RNN bidireccionales ==&lt;br /&gt;
&lt;br /&gt;
Una &amp;#039;&amp;#039;&amp;#039;RNN bidireccional&amp;#039;&amp;#039;&amp;#039; procesa la secuencia en ambas direcciones — hacia adelante (de izquierda a derecha) y hacia atras (de derecha a izquierda) — y concatena los estados ocultos:&lt;br /&gt;
&lt;br /&gt;
:&amp;lt;math&amp;gt;\mathbf{h}_t = [\overrightarrow{\mathbf{h}}_t;\; \overleftarrow{\mathbf{h}}_t]&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Esto permite al modelo utilizar tanto el contexto pasado como el futuro en cada paso temporal, lo cual es beneficioso para tareas como el reconocimiento de entidades nombradas y la traduccion automatica, donde el significado de una palabra depende de su contexto circundante.&lt;br /&gt;
&lt;br /&gt;
== Aplicaciones ==&lt;br /&gt;
&lt;br /&gt;
Las RNN y sus variantes con compuertas se han aplicado a una amplia gama de tareas secuenciales:&lt;br /&gt;
&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Modelado del lenguaje&amp;#039;&amp;#039;&amp;#039; — predecir la siguiente palabra en una secuencia.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Traduccion automatica&amp;#039;&amp;#039;&amp;#039; — arquitecturas codificador-decodificador para traduccion secuencia a secuencia (Sutskever et al., 2014).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Reconocimiento de voz&amp;#039;&amp;#039;&amp;#039; — transcripcion de audio a texto (a menudo combinado con la perdida CTC).&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Analisis de sentimiento&amp;#039;&amp;#039;&amp;#039; — clasificacion del sentimiento de un texto.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Prediccion de series temporales&amp;#039;&amp;#039;&amp;#039; — prediccion de valores futuros de datos financieros o de sensores.&lt;br /&gt;
* &amp;#039;&amp;#039;&amp;#039;Generacion de musica&amp;#039;&amp;#039;&amp;#039; — generacion de secuencias de notas.&lt;br /&gt;
&lt;br /&gt;
Cabe destacar que para muchas tareas de procesamiento del lenguaje natural, los &amp;#039;&amp;#039;&amp;#039;Transformers&amp;#039;&amp;#039;&amp;#039; (Vaswani et al., 2017) han reemplazado en gran medida a las RNN debido a su capacidad para procesar secuencias en paralelo y capturar dependencias de largo alcance de manera mas efectiva mediante autoatencion.&lt;br /&gt;
&lt;br /&gt;
== Vease tambien ==&lt;br /&gt;
&lt;br /&gt;
* [[Neural Networks]]&lt;br /&gt;
* [[Backpropagation]]&lt;br /&gt;
* [[Convolutional Neural Networks]]&lt;br /&gt;
* [[Word Embeddings]]&lt;br /&gt;
* [[Overfitting and Regularization]]&lt;br /&gt;
&lt;br /&gt;
== Referencias ==&lt;br /&gt;
&lt;br /&gt;
* Elman, J. L. (1990). &amp;quot;Finding Structure in Time&amp;quot;. &amp;#039;&amp;#039;Cognitive Science&amp;#039;&amp;#039;, 14(2), 179–211.&lt;br /&gt;
* Hochreiter, S. and Schmidhuber, J. (1997). &amp;quot;Long Short-Term Memory&amp;quot;. &amp;#039;&amp;#039;Neural Computation&amp;#039;&amp;#039;, 9(8), 1735–1780.&lt;br /&gt;
* Cho, K. et al. (2014). &amp;quot;Learning Phrase Representations using RNN Encoder-Decoder for Statistical Machine Translation&amp;quot;. &amp;#039;&amp;#039;EMNLP&amp;#039;&amp;#039;.&lt;br /&gt;
* Sutskever, I., Vinyals, O. and Le, Q. V. (2014). &amp;quot;Sequence to Sequence Learning with Neural Networks&amp;quot;. &amp;#039;&amp;#039;NeurIPS&amp;#039;&amp;#039;.&lt;br /&gt;
* Goodfellow, I., Bengio, Y. and Courville, A. (2016). &amp;#039;&amp;#039;Deep Learning&amp;#039;&amp;#039;, Chapter 10. MIT Press.&lt;br /&gt;
&lt;br /&gt;
[[Category:Deep Learning]]&lt;br /&gt;
[[Category:Intermediate]]&lt;br /&gt;
[[Category:Neural Networks]]&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>