All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | '''Cross-entropy loss''' (also called '''log loss''') is the most widely used {{Term|loss function}} for classification tasks in machine learning. Rooted in {{Term|information theory}}, it measures the dissimilarity between the true label distribution and the model's predicted probability distribution, providing a smooth, differentiable objective that drives probabilistic classifiers toward confident, correct predictions. |
| h Spanish (es) | La '''pérdida de entropía cruzada''' (también llamada '''log loss''') es la {{Term|loss function|función de pérdida}} más utilizada para tareas de clasificación en aprendizaje automático. Enraizada en la {{Term|information theory|teoría de la información}}, mide la disimilitud entre la distribución verdadera de etiquetas y la distribución de probabilidad predicha por el modelo, proporcionando un objetivo suave y diferenciable que orienta a los clasificadores probabilísticos hacia predicciones correctas y confiadas. |
| h Chinese (zh) | '''交叉熵损失'''(也称为'''对数损失''')是机器学习分类任务中使用最广泛的{{Term|loss function|损失函数}}。它根植于{{Term|information theory|信息论}},衡量真实标签分布与模型预测概率分布之间的差异,提供一个平滑、可微的目标,驱动概率分类器做出自信且正确的预测。 |