Translations:Softmax Function/34/es: Difference between revisions

    From Marovi AI
    (Batch translate Softmax Function unit 34 → es)
    Tag: translation
     
    (Batch translate Softmax Function unit 34 → es)
    Tag: translation
     
    (One intermediate revision by the same user not shown)
    Line 1: Line 1:
    * '''Mecanismos de atención''': Softmax normaliza las puntuaciones de alineación en pesos de atención en la arquitectura [[Attention Mechanisms|Transformer]].
    * '''Mecanismos de {{Term|attention|atención}}''': Softmax normaliza las puntuaciones de alineación para producir pesos de {{Term|attention|atención}} en la arquitectura [[Attention Mechanisms|Transformer]].
    * '''Aprendizaje por refuerzo''': Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann).
    * '''Aprendizaje por refuerzo''': Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann).
    * '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas mixture-of-experts.
    * '''Modelos de mezcla''': Softmax parametriza los coeficientes de mezcla en arquitecturas de {{Term|mixture of experts|mezcla de expertos}}.

    Latest revision as of 23:41, 27 April 2026

    Information about message (contribute)
    This message has no documentation. If you know where or how this message is used, you can help other translators by adding documentation to this message.
    Message definition (Softmax Function)
    * '''{{Term|attention}} mechanisms''': Softmax normalizes alignment scores into {{Term|attention}} weights in the [[Attention Mechanisms|Transformer]] architecture.
    * '''Reinforcement learning''': Softmax over action-value estimates produces a stochastic policy (Boltzmann exploration).
    * '''Mixture models''': Softmax parameterizes mixing coefficients in {{Term|mixture of experts|mixture-of-experts}} architectures.
    • Mecanismos de atención: Softmax normaliza las puntuaciones de alineación para producir pesos de atención en la arquitectura Transformer.
    • Aprendizaje por refuerzo: Softmax sobre estimaciones de valor-acción produce una política estocástica (exploración de Boltzmann).
    • Modelos de mezcla: Softmax parametriza los coeficientes de mezcla en arquitecturas de mezcla de expertos.