Translations:Attention Mechanisms/27/es: Difference between revisions
(Batch translate Attention Mechanisms unit 27 → es) Tag: translation |
(Batch translate Attention Mechanisms unit 27 → es) Tag: translation |
||
| (One intermediate revision by the same user not shown) | |||
| Line 1: | Line 1: | ||
Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto | Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto desordenado), la información posicional debe inyectarse explícitamente. El {{Term|transformer|transformer}} original utiliza codificaciones sinusoidales: | ||
Latest revision as of 23:36, 27 April 2026
Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto desordenado), la información posicional debe inyectarse explícitamente. El transformer original utiliza codificaciones sinusoidales: