All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)Note that for many NLP tasks, '''{{Term|transformer|Transformers}}''' (Vaswani et al., 2017) have largely superseded RNNs due to their ability to process sequences in parallel and capture long-{{Term|column space|range}} dependencies more effectively through self-{{Term|attention}}.
 h Spanish (es)Cabe señalar que, para muchas tareas de PLN, los '''{{Term|transformer|Transformers}}''' (Vaswani et al., 2017) han sustituido en gran medida a las RNN debido a su capacidad para procesar secuencias en paralelo y capturar dependencias de largo alcance de manera más eficaz mediante la auto-{{Term|attention|atención}}.
 h Chinese (zh)请注意,对于许多 NLP 任务,'''{{Term|transformer|Transformers}}'''(Vaswani 等人,2017)由于能够并行处理序列、并通过自{{Term|attention|注意力}}机制更有效地捕捉长距离依赖关系,已在很大程度上取代了 RNN。