Translations:Attention Mechanisms/1/es
Los mecanismos de atención son una familia de técnicas que permiten a las redes neuronales centrarse selectivamente en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos de secuencia a secuencia, la atención se ha convertido en el bloque de construcción fundamental de arquitecturas modernas como el Transformer.