All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)* '''{{Term|attention}} mechanisms''': Softmax normalizes alignment scores into {{Term|attention}} weights in the [[Attention Mechanisms|Transformer]] architecture.
* '''Reinforcement learning''': Softmax over action-value estimates produces a stochastic policy (Boltzmann exploration).
* '''Mixture models''': Softmax parameterizes mixing coefficients in {{Term|mixture of experts|mixture-of-experts}} architectures.
 h Spanish (es)* '''Mecanismos de {{Term|attention|atención}}''': Softmax normaliza las puntuaciones de alineación para producir pesos de {{Term|attention|atención}} en la arquitectura [[Attention Mechanisms|Transformer]].
* '''Aprendizaje por refuerzo''': Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann).
* '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas de {{Term|mixture of experts|mezcla de expertos}}.
 h Chinese (zh)* '''{{Term|attention|注意力}}机制''':Softmax 在 [[Attention Mechanisms|Transformer]] 架构中将对齐分数归一化为 {{Term|attention|注意力}}权重。
* '''强化学习''':对动作值估计进行 softmax 会产生随机策略(玻尔兹曼探索)。
* '''混合模型''':Softmax 在 {{Term|mixture of experts|混合专家}}架构中参数化混合系数。