<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Translations%3AAttention_Mechanisms%2F3%2Fzh</id>
	<title>Translations:Attention Mechanisms/3/zh - Revision history</title>
	<link rel="self" type="application/atom+xml" href="https://marovi.ai/index.php?action=history&amp;feed=atom&amp;title=Translations%3AAttention_Mechanisms%2F3%2Fzh"/>
	<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;action=history"/>
	<updated>2026-04-28T01:56:41Z</updated>
	<subtitle>Revision history for this page on the wiki</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;diff=17706&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Attention Mechanisms unit 3 → zh</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;diff=17706&amp;oldid=prev"/>
		<updated>2026-04-27T23:36:49Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Attention Mechanisms unit 3 → zh&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 23:36, 27 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l1&quot;&gt;Line 1:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 1:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;早期的序列到序列模型使用 &lt;/del&gt;[[Recurrent Neural Networks|循环神经网络]] &lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;将整个输入序列编码为一个固定维度的向量。这种&lt;/del&gt;&amp;#039;&amp;#039;瓶颈&amp;#039;&amp;#039;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;迫使长程依赖被压缩到一个固定大小的向量中,从而降低了长序列上的性能。注意力机制通过让解码器在每个生成步骤都能查询编码器的所有隐藏状态、并按学习到的相关性得分对它们加权,从而解决了这一问题。&lt;/del&gt;&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;早期的{{Term|sequence-to-sequence|序列到序列}}模型使用&lt;/ins&gt;[[Recurrent Neural Networks|循环神经网络]]&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;将整个输入序列编码为单一的固定维向量。这种&lt;/ins&gt;&amp;#039;&amp;#039;瓶颈&amp;#039;&amp;#039;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;迫使长程依赖被压缩到恒定大小的向量中，从而降低了在长序列上的性能。注意力机制通过让解码器在每个生成步骤查询编码器的每个隐藏状态，并以学习到的相关性分数对其加权，从而解决了这一问题。&lt;/ins&gt;&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;diff=14376&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Attention Mechanisms unit 3 → zh</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;diff=14376&amp;oldid=prev"/>
		<updated>2026-04-27T21:58:28Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Attention Mechanisms unit 3 → zh&lt;/p&gt;
&lt;table style=&quot;background-color: #fff; color: #202122;&quot; data-mw=&quot;interface&quot;&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;col class=&quot;diff-marker&quot; /&gt;
				&lt;col class=&quot;diff-content&quot; /&gt;
				&lt;tr class=&quot;diff-title&quot; lang=&quot;en&quot;&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;← Older revision&lt;/td&gt;
				&lt;td colspan=&quot;2&quot; style=&quot;background-color: #fff; color: #202122; text-align: center;&quot;&gt;Revision as of 21:58, 27 April 2026&lt;/td&gt;
				&lt;/tr&gt;&lt;tr&gt;&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot; id=&quot;mw-diff-left-l1&quot;&gt;Line 1:&lt;/td&gt;
&lt;td colspan=&quot;2&quot; class=&quot;diff-lineno&quot;&gt;Line 1:&lt;/td&gt;&lt;/tr&gt;
&lt;tr&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;−&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;早期的序列到序列模型使用[[Recurrent Neural Networks|循环神经网络]]&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;将整个输入序列编码为单个固定维度的向量。这种&lt;/del&gt;&amp;#039;&amp;#039;瓶颈&amp;#039;&amp;#039;&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;迫使长程依赖被压缩到一个大小恒定的向量中&lt;/del&gt;,&lt;del style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;从而降低了在长序列上的性能。注意力通过让解码器在每个生成步骤都参考每个编码器隐藏状态,并根据学习到的相关性分数对它们进行加权&lt;/del&gt;,从而解决了这一问题。&lt;/div&gt;&lt;/td&gt;&lt;td class=&quot;diff-marker&quot; data-marker=&quot;+&quot;&gt;&lt;/td&gt;&lt;td style=&quot;color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;&quot;&gt;&lt;div&gt;早期的序列到序列模型使用 [[Recurrent Neural Networks|循环神经网络]] &lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;将整个输入序列编码为一个固定维度的向量。这种&lt;/ins&gt;&amp;#039;&amp;#039;瓶颈&amp;#039;&amp;#039;&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;迫使长程依赖被压缩到一个固定大小的向量中&lt;/ins&gt;,&lt;ins style=&quot;font-weight: bold; text-decoration: none;&quot;&gt;从而降低了长序列上的性能。注意力机制通过让解码器在每个生成步骤都能查询编码器的所有隐藏状态、并按学习到的相关性得分对它们加权&lt;/ins&gt;,从而解决了这一问题。&lt;/div&gt;&lt;/td&gt;&lt;/tr&gt;
&lt;/table&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
	<entry>
		<id>https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;diff=4732&amp;oldid=prev</id>
		<title>DeployBot: Batch translate Attention Mechanisms unit 3 → zh</title>
		<link rel="alternate" type="text/html" href="https://marovi.ai/index.php?title=Translations:Attention_Mechanisms/3/zh&amp;diff=4732&amp;oldid=prev"/>
		<updated>2026-04-27T03:21:24Z</updated>

		<summary type="html">&lt;p&gt;Batch translate Attention Mechanisms unit 3 → zh&lt;/p&gt;
&lt;p&gt;&lt;b&gt;New page&lt;/b&gt;&lt;/p&gt;&lt;div&gt;早期的序列到序列模型使用[[Recurrent Neural Networks|循环神经网络]]将整个输入序列编码为单个固定维度的向量。这种&amp;#039;&amp;#039;瓶颈&amp;#039;&amp;#039;迫使长程依赖被压缩到一个大小恒定的向量中,从而降低了在长序列上的性能。注意力通过让解码器在每个生成步骤都参考每个编码器隐藏状态,并根据学习到的相关性分数对它们进行加权,从而解决了这一问题。&lt;/div&gt;</summary>
		<author><name>DeployBot</name></author>
	</entry>
</feed>