Translations:Attention Mechanisms/1/zh: Difference between revisions
(Batch translate Attention Mechanisms unit 1 → zh) Tag: translation |
(Batch translate Attention Mechanisms unit 1 → zh) Tag: translation |
||
| (One intermediate revision by the same user not shown) | |||
| Line 1: | Line 1: | ||
'''注意力机制''' | '''注意力机制'''是一类允许神经网络在生成输出的每个元素时有选择地关注输入相关部分的技术。最初引入是为了克服{{Term|sequence-to-sequence|序列到序列}}模型中固定长度上下文向量的局限性,如今注意力已成为 [[Transformer]] 等现代架构的基础构建模块。 | ||
Latest revision as of 23:36, 27 April 2026
注意力机制是一类允许神经网络在生成输出的每个元素时有选择地关注输入相关部分的技术。最初引入是为了克服序列到序列模型中固定长度上下文向量的局限性,如今注意力已成为 Transformer 等现代架构的基础构建模块。