Translations:Softmax Function/34/zh: Difference between revisions

    From Marovi AI
    (Batch translate Softmax Function unit 34 → zh)
    Tag: translation
     
    (Batch translate Softmax Function unit 34 → zh)
    Tag: translation
     
    (One intermediate revision by the same user not shown)
    Line 1: Line 1:
    * '''注意力机制''':Softmax 在 [[Attention Mechanisms|Transformer]] 架构中将对齐分数归一化为注意力权重。
    * '''{{Term|attention|注意力}}机制''':Softmax 在 [[Attention Mechanisms|Transformer]] 架构中将对齐分数归一化为 {{Term|attention|注意力}}权重。
    * '''强化学习''':对动作值估计进行 Softmax 产生随机策略(玻尔兹曼探索)。
    * '''强化学习''':对动作值估计进行 softmax 会产生随机策略(玻尔兹曼探索)。
    * '''混合模型''':Softmax 在 mixture-of-experts 架构中参数化混合系数。
    * '''混合模型''':Softmax 在 {{Term|mixture of experts|混合专家}}架构中参数化混合系数。

    Latest revision as of 23:41, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Softmax Function)
    * '''{{Term|attention}} mechanisms''': Softmax normalizes alignment scores into {{Term|attention}} weights in the [[Attention Mechanisms|Transformer]] architecture.
    * '''Reinforcement learning''': Softmax over action-value estimates produces a stochastic policy (Boltzmann exploration).
    * '''Mixture models''': Softmax parameterizes mixing coefficients in {{Term|mixture of experts|mixture-of-experts}} architectures.
    • 注意力机制:Softmax 在 Transformer 架构中将对齐分数归一化为 注意力权重。
    • 强化学习:对动作值估计进行 softmax 会产生随机策略(玻尔兹曼探索)。
    • 混合模型:Softmax 在 混合专家架构中参数化混合系数。