Translations:Attention Mechanisms/7/es: Difference between revisions

    From Marovi AI
    (Batch translate Attention Mechanisms unit 7 → es)
    Tag: translation
     
    (Batch translate Attention Mechanisms unit 7 → es)
    Tag: translation
     
    Line 1: Line 1:
    donde <math>W_s</math>, <math>W_h</math> y <math>v</math> son parámetros aprendidos. Los pesos de atención se obtienen aplicando softmax:
    donde <math>W_s</math>, <math>W_h</math> y <math>v</math> son parámetros aprendidos. Los pesos de atención se obtienen aplicando {{Term|softmax|softmax}}:

    Latest revision as of 23:36, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Attention Mechanisms)
    where <math>W_s</math>, <math>W_h</math>, and <math>v</math> are learned parameters. The attention weights are obtained by applying {{Term|softmax}}:

    donde $ W_s $, $ W_h $ y $ v $ son parámetros aprendidos. Los pesos de atención se obtienen aplicando softmax: