Translations:Attention Mechanisms/29/es: Difference between revisions

    From Marovi AI
    (Batch translate Attention Mechanisms unit 29 → es)
    Tag: translation
     
    (Batch translate Attention Mechanisms unit 29 → es)
    Tag: translation
    Line 1: Line 1:
    Los embeddings posicionales aprendidos y las codificaciones posicionales relativas (por ejemplo, RoPE, ALiBi) son alternativas comunes que pueden generalizar mejor a longitudes de secuencia no vistas.
    Las incrustaciones posicionales aprendidas y las codificaciones posicionales relativas (por ejemplo, RoPE, ALiBi) son alternativas comunes que pueden generalizar mejor a longitudes de secuencia no vistas.

    Revision as of 21:58, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Attention Mechanisms)
    Learned positional {{Term|embedding|embeddings}} and relative positional encodings (e.g., RoPE, ALiBi) are common alternatives that can generalise better to unseen sequence lengths.

    Las incrustaciones posicionales aprendidas y las codificaciones posicionales relativas (por ejemplo, RoPE, ALiBi) son alternativas comunes que pueden generalizar mejor a longitudes de secuencia no vistas.