Translations:Softmax Function/34/zh: Difference between revisions

    From Marovi AI
    (Batch translate Softmax Function unit 34 → zh)
    Tag: translation
     
    (Batch translate Softmax Function unit 34 → zh)
    Tag: translation
    Line 1: Line 1:
    * '''注意力机制''':Softmax 在 [[Attention Mechanisms|Transformer]] 架构中将对齐分数归一化为注意力权重。
    * '''注意力机制''':在 [[Attention Mechanisms|Transformer]] 架构中,softmax 将对齐分数归一化为注意力权重。
    * '''强化学习''':对动作值估计进行 Softmax 产生随机策略(玻尔兹曼探索)。
    * '''强化学习''':对动作价值估计应用 softmax 会产生随机策略(玻尔兹曼探索)。
    * '''混合模型''':Softmax 在 mixture-of-experts 架构中参数化混合系数。
    * '''混合模型''':softmax 在专家混合架构中参数化混合系数。

    Revision as of 22:04, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Softmax Function)
    * '''{{Term|attention}} mechanisms''': Softmax normalizes alignment scores into {{Term|attention}} weights in the [[Attention Mechanisms|Transformer]] architecture.
    * '''Reinforcement learning''': Softmax over action-value estimates produces a stochastic policy (Boltzmann exploration).
    * '''Mixture models''': Softmax parameterizes mixing coefficients in {{Term|mixture of experts|mixture-of-experts}} architectures.
    • 注意力机制:在 Transformer 架构中,softmax 将对齐分数归一化为注意力权重。
    • 强化学习:对动作价值估计应用 softmax 会产生随机策略(玻尔兹曼探索)。
    • 混合模型:softmax 在专家混合架构中参数化混合系数。