All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | Because self-attention is permutation-invariant (it treats the input as an unordered set), positional information must be injected explicitly. The original Transformer uses sinusoidal encodings: |
| h Spanish (es) | Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto no ordenado), la información posicional debe inyectarse de manera explícita. El Transformer original utiliza codificaciones sinusoidales: |
| h Chinese (zh) | 由于自注意力是排列不变的(它将输入视为无序集合),必须显式注入位置信息。原始 Transformer 使用正弦位置编码: |