All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | The paper's title — "{{Term|attention}} Is All You Need" — became one of the most recognizable phrases in machine learning, and the architecture it introduced has been called one of the most influential contributions to artificial intelligence in the 2010s. As of 2026, the {{Term|transformer}} remains the dominant architecture for large-scale neural network models across modalities. |
| h Spanish (es) | El título del artículo —«{{Term|attention|Attention}} Is All You Need»— se convirtió en una de las frases más reconocibles del aprendizaje automático, y la arquitectura que introdujo ha sido considerada una de las contribuciones más influyentes a la inteligencia artificial de la década de 2010. A fecha de 2026, el {{Term|transformer}} sigue siendo la arquitectura dominante para los modelos de red neuronal a gran escala en todas las modalidades. |
| h Chinese (zh) | 该论文的标题——"{{Term|attention|Attention}} Is All You Need"——成为机器学习领域最具辨识度的短语之一,它所引入的架构被誉为 2010 年代对人工智能最具影响力的贡献之一。截至 2026 年,{{Term|transformer}} 仍然是各种模态下大规模神经网络模型的主导架构。 |