Translations:Attention Mechanisms/27/es: Difference between revisions
(Batch translate Attention Mechanisms unit 27 → es) Tag: translation |
(Batch translate Attention Mechanisms unit 27 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto | Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto no ordenado), la información posicional debe inyectarse de manera explícita. El Transformer original utiliza codificaciones sinusoidales: | ||
Revision as of 21:58, 27 April 2026
Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto no ordenado), la información posicional debe inyectarse de manera explícita. El Transformer original utiliza codificaciones sinusoidales: