<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Translations%3AAttention_Mechanisms%2F1%2Fes</id>
	<title>Translations:Attention Mechanisms/1/es - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Translations%3AAttention_Mechanisms%2F1%2Fes"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;action=history"/>
	<updated>2026-04-28T02:24:22Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;diff=17703&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Attention Mechanisms unit 1 → es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;diff=17703&amp;oldid=prev"/>
		<updated>2026-04-27T23:36:48Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Attention Mechanisms unit 1 → es&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 23:36, 27 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l1&quot;&gt;Line 1:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 1:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Los &amp;#039;&amp;#039;&amp;#039;mecanismos de atención&amp;#039;&amp;#039;&amp;#039; son una familia de técnicas que permiten a las redes neuronales centrarse de &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;manera &lt;/del&gt;selectiva en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos secuencia a secuencia, la atención se ha convertido en el bloque fundamental de las arquitecturas modernas como el [[Transformer]].&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Los &amp;#039;&amp;#039;&amp;#039;mecanismos de atención&amp;#039;&amp;#039;&amp;#039; son una familia de técnicas que permiten a las redes neuronales centrarse de &lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;forma &lt;/ins&gt;selectiva en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos &lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;{{Term|sequence-to-sequence|&lt;/ins&gt;secuencia a secuencia&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;}}&lt;/ins&gt;, la atención se ha convertido en el bloque fundamental de las arquitecturas modernas como el [[Transformer]].&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key mediawiki:diff::1.12:old-14361:rev-17703 --&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;diff=14361&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Attention Mechanisms unit 1 → es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;diff=14361&amp;oldid=prev"/>
		<updated>2026-04-27T21:58:26Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Attention Mechanisms unit 1 → es&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 21:58, 27 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l1&quot;&gt;Line 1:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 1:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Los &amp;#039;&amp;#039;&amp;#039;mecanismos de atención&amp;#039;&amp;#039;&amp;#039; son una familia de técnicas que permiten a las redes neuronales centrarse &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;selectivamente &lt;/del&gt;en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;de &lt;/del&gt;secuencia a secuencia, la atención se ha convertido en el bloque &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;de construcción &lt;/del&gt;fundamental de arquitecturas modernas como el [[Transformer]].&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;Los &amp;#039;&amp;#039;&amp;#039;mecanismos de atención&amp;#039;&amp;#039;&amp;#039; son una familia de técnicas que permiten a las redes neuronales centrarse &lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;de manera selectiva &lt;/ins&gt;en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos secuencia a secuencia, la atención se ha convertido en el bloque fundamental de &lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;las &lt;/ins&gt;arquitecturas modernas como el [[Transformer]].&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;

&lt;!-- diff cache key mediawiki:diff::1.12:old-4727:rev-14361 --&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;diff=4727&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Attention Mechanisms unit 1 → es</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/1/es&amp;diff=4727&amp;oldid=prev"/>
		<updated>2026-04-27T03:21:24Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Attention Mechanisms unit 1 → es&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;Los &amp;#039;&amp;#039;&amp;#039;mecanismos de atención&amp;#039;&amp;#039;&amp;#039; son una familia de técnicas que permiten a las redes neuronales centrarse selectivamente en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos de secuencia a secuencia, la atención se ha convertido en el bloque de construcción fundamental de arquitecturas modernas como el [[Transformer]].&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>