All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | * '''{{Term|attention}} mechanisms''': Softmax normalizes alignment scores into {{Term|attention}} weights in the [[Attention Mechanisms|Transformer]] architecture. * '''Reinforcement learning''': Softmax over action-value estimates produces a stochastic policy (Boltzmann exploration). * '''Mixture models''': Softmax parameterizes mixing coefficients in {{Term|mixture of experts|mixture-of-experts}} architectures. |
| h Spanish (es) | * '''Mecanismos de {{Term|attention|atención}}''': Softmax normaliza las puntuaciones de alineación para producir pesos de {{Term|attention|atención}} en la arquitectura [[Attention Mechanisms|Transformer]]. * '''Aprendizaje por refuerzo''': Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann). * '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas de {{Term|mixture of experts|mezcla de expertos}}. |
| h Chinese (zh) | * '''{{Term|attention|注意力}}机制''':Softmax 在 [[Attention Mechanisms|Transformer]] 架构中将对齐分数归一化为 {{Term|attention|注意力}}权重。 * '''强化学习''':对动作值估计进行 softmax 会产生随机策略(玻尔兹曼探索)。 * '''混合模型''':Softmax 在 {{Term|mixture of experts|混合专家}}架构中参数化混合系数。 |