All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * Introduction of the {{Term|transformer}}, the first sequence transduction model based entirely on {{Term|attention}} without recurrence or {{Term|convolution}}. * The '''scaled dot-product {{Term|attention}}''' mechanism and '''multi-head {{Term|attention}}''', which allow the model to jointly attend to information from different representation subspaces at different positions. * '''Positional encodings''' using sinusoidal functions, providing the model with information about token order without recurrence. * Demonstration that {{Term|attention}}-only models can achieve state-of-the-art results on machine translation while being more parallelizable and faster to train. |
| h Spanish (es) | * Introducción del {{Term|transformer}}, el primer modelo de transducción de secuencias basado enteramente en {{Term|attention|atención}} sin recurrencia ni {{Term|convolution|convolución}}. * El mecanismo de '''{{Term|attention|atención}} de producto punto escalado''' y la '''{{Term|attention|atención}} multi-cabeza''', que permiten al modelo atender conjuntamente a información de distintos subespacios de representación en diferentes posiciones. * '''Codificaciones posicionales''' que utilizan funciones sinusoidales, proporcionando al modelo información sobre el orden de los tokens sin recurrencia. * Demostración de que los modelos basados únicamente en {{Term|attention|atención}} pueden alcanzar resultados de vanguardia en traducción automática siendo más paralelizables y más rápidos de entrenar. |
| h Chinese (zh) | * 引入了 {{Term|transformer}},这是首个完全基于 {{Term|attention|注意力}}、不含循环或 {{Term|convolution|卷积}} 的序列转导模型。 * '''缩放点积 {{Term|attention|注意力}}''' 机制和 '''多头 {{Term|attention|注意力}}''',使模型能够同时关注来自不同表示子空间、不同位置的信息。 * 使用正弦函数的 '''位置编码''',在不依赖循环的情况下为模型提供关于 token 顺序的信息。 * 证明了仅基于 {{Term|attention|注意力}} 的模型可以在机器翻译上取得最先进的结果,同时具有更好的并行性和更快的训练速度。 |