All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)Because self-attention is permutation-invariant (it treats the input as an unordered set), positional information must be injected explicitly. The original Transformer uses sinusoidal encodings:
 h Spanish (es)Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto no ordenado), la información posicional debe inyectarse de manera explícita. El Transformer original utiliza codificaciones sinusoidales:
 h Chinese (zh)由于自注意力是排列不变的(它将输入视为无序集合),必须显式注入位置信息。原始 Transformer 使用正弦位置编码: