All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | '''Cross-attention''' is used when queries come from one sequence and keys/values come from another. In encoder-decoder Transformers, the decoder attends to encoder outputs via cross-attention, enabling the model to condition its generation on the full input context. |
| h Spanish (es) | La '''atención cruzada''' (''cross-attention'') se utiliza cuando las consultas provienen de una secuencia y las claves/valores de otra. En los Transformers codificador-decodificador, el decodificador atiende a las salidas del codificador mediante atención cruzada, lo que permite que el modelo condicione su generación al contexto completo de la entrada. |
| h Chinese (zh) | 当查询来自一个序列、而键和值来自另一个序列时,使用'''交叉注意力'''(cross-attention)。在编码器-解码器 Transformer 中,解码器通过交叉注意力关注编码器的输出,使模型能够基于完整的输入上下文进行生成。 |