Translations:Softmax Function/34/es: Difference between revisions
(Batch translate Softmax Function unit 34 → es) Tag: translation |
(Batch translate Softmax Function unit 34 → es) Tag: translation |
||
| Line 1: | Line 1: | ||
* '''Mecanismos de atención''': Softmax normaliza las puntuaciones de alineación en pesos de atención en la arquitectura [[Attention Mechanisms|Transformer]]. | * '''Mecanismos de atención''': Softmax normaliza las puntuaciones de alineación en pesos de atención en la arquitectura [[Attention Mechanisms|Transformer]]. | ||
* '''Aprendizaje por refuerzo''': Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann). | * '''Aprendizaje por refuerzo''': Softmax aplicado sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann). | ||
* '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas | * '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas de mezcla de expertos. | ||
Revision as of 22:04, 27 April 2026
- Mecanismos de atención: Softmax normaliza las puntuaciones de alineación en pesos de atención en la arquitectura Transformer.
- Aprendizaje por refuerzo: Softmax aplicado sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann).
- Modelos de mezcla: Softmax parametriza los coeficientes de mezcla en arquitecturas de mezcla de expertos.