Translations:Attention Mechanisms/27/es: Difference between revisions

    From Marovi AI
    (Batch translate Attention Mechanisms unit 27 → es)
    Tag: translation
     
    (Batch translate Attention Mechanisms unit 27 → es)
    Tag: translation
     
    (One intermediate revision by the same user not shown)
    Line 1: Line 1:
    Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto sin orden), la información posicional debe inyectarse explícitamente. El Transformer original utiliza codificaciones sinusoidales:
    Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto desordenado), la información posicional debe inyectarse explícitamente. El {{Term|transformer|transformer}} original utiliza codificaciones sinusoidales:

    Latest revision as of 23:36, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Attention Mechanisms)
    Because self-attention is permutation-invariant (it treats the input as an unordered set), positional information must be injected explicitly. The original {{Term|transformer}} uses sinusoidal encodings:

    Dado que la autoatención es invariante a permutaciones (trata la entrada como un conjunto desordenado), la información posicional debe inyectarse explícitamente. El transformer original utiliza codificaciones sinusoidales: