Translations:Attention Mechanisms/15/es: Difference between revisions
(Batch translate Attention Mechanisms unit 15 → es) Tag: translation |
(Batch translate Attention Mechanisms unit 15 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
Vaswani et al. (2017) introdujeron la formulación utilizada en el Transformer. Dadas | Vaswani et al. (2017) introdujeron la formulación utilizada en el Transformer. Dadas matrices de consultas <math>Q</math>, claves <math>K</math> y valores <math>V</math>: | ||
Revision as of 21:58, 27 April 2026
Vaswani et al. (2017) introdujeron la formulación utilizada en el Transformer. Dadas matrices de consultas $ Q $, claves $ K $ y valores $ V $: