Translations:Softmax Function/34/es: Difference between revisions
(Batch translate Softmax Function unit 34 → es) Tag: translation |
(Batch translate Softmax Function unit 34 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
* '''Mecanismos de atención''': Softmax normaliza las puntuaciones de alineación | * '''Mecanismos de {{Term|attention|atención}}''': Softmax normaliza las puntuaciones de alineación para producir pesos de {{Term|attention|atención}} en la arquitectura [[Attention Mechanisms|Transformer]]. | ||
* '''Aprendizaje por refuerzo''': Softmax | * '''Aprendizaje por refuerzo''': Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann). | ||
* '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas de mezcla de expertos. | * '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas de {{Term|mixture of experts|mezcla de expertos}}. | ||
Latest revision as of 23:41, 27 April 2026
- Mecanismos de atención: Softmax normaliza las puntuaciones de alineación para producir pesos de atención en la arquitectura Transformer.
- Aprendizaje por refuerzo: Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann).
- Modelos de mezcla: Softmax parametriza los coeficientes de mezcla en arquitecturas de mezcla de expertos.