Translations:Attention Mechanisms/1/es
Los mecanismos de atención son una familia de técnicas que permiten a las redes neuronales centrarse de manera selectiva en las partes relevantes de su entrada al producir cada elemento de la salida. Introducidos originalmente para superar las limitaciones de los vectores de contexto de longitud fija en los modelos secuencia a secuencia, la atención se ha convertido en el bloque fundamental de las arquitecturas modernas como el Transformer.