Translations:Attention Mechanisms/17/es: Difference between revisions

    From Marovi AI
    (Batch translate Attention Mechanisms unit 17 → es)
    Tag: translation
     
    (Batch translate Attention Mechanisms unit 17 → es)
    Tag: translation
     
    (One intermediate revision by the same user not shown)
    Line 1: Line 1:
    El factor de escala <math>\sqrt{d_k}</math> evita que los productos punto crezcan demasiado en magnitud a medida que aumenta la dimensión de la clave <math>d_k</math>, lo que llevaría al softmax a regiones de gradientes extremadamente pequeños.
    El factor de escala <math>\sqrt{d_k}</math> evita que los productos punto crezcan en magnitud a medida que aumenta la dimensión de la clave <math>d_k</math>, lo que empujaría al {{Term|softmax|softmax}} a regiones de gradientes extremadamente pequeños.

    Latest revision as of 23:36, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Attention Mechanisms)
    The scaling factor <math>\sqrt{d_k}</math> prevents the dot products from growing large in magnitude as the key dimension <math>d_k</math> increases, which would push the {{Term|softmax}} into regions of extremely small gradients.

    El factor de escala $ \sqrt{d_k} $ evita que los productos punto crezcan en magnitud a medida que aumenta la dimensión de la clave $ d_k $, lo que empujaría al softmax a regiones de gradientes extremadamente pequeños.