All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Cross-attention''' is used when queries come from one sequence and keys/values come from another. In encoder-decoder Transformers, the decoder attends to encoder outputs via cross-attention, enabling the model to condition its generation on the full input context.
 h Spanish (es)La '''atención cruzada''' (''cross-attention'') se utiliza cuando las consultas provienen de una secuencia y las claves/valores de otra. En los Transformers codificador-decodificador, el decodificador atiende a las salidas del codificador mediante atención cruzada, lo que permite que el modelo condicione su generación al contexto completo de la entrada.
 h Chinese (zh)当查询来自一个序列、而键和值来自另一个序列时,使用'''交叉注意力'''(cross-attention)。在编码器-解码器 Transformer 中,解码器通过交叉注意力关注编码器的输出,使模型能够基于完整的输入上下文进行生成。