All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)'''Cross-entropy loss''' (also called '''log loss''') is the most widely used {{Term|loss function}} for classification tasks in machine learning. Rooted in {{Term|information theory}}, it measures the dissimilarity between the true label distribution and the model's predicted probability distribution, providing a smooth, differentiable objective that drives probabilistic classifiers toward confident, correct predictions.
 h Spanish (es)La '''pérdida de entropía cruzada''' (también llamada '''log loss''') es la {{Term|loss function|función de pérdida}} más utilizada para tareas de clasificación en aprendizaje automático. Enraizada en la {{Term|information theory|teoría de la información}}, mide la disimilitud entre la distribución verdadera de etiquetas y la distribución de probabilidad predicha por el modelo, proporcionando un objetivo suave y diferenciable que orienta a los clasificadores probabilísticos hacia predicciones correctas y confiadas.
 h Chinese (zh)'''交叉熵损失'''(也称为'''对数损失''')是机器学习分类任务中使用最广泛的{{Term|loss function|损失函数}}。它根植于{{Term|information theory|信息论}},衡量真实标签分布与模型预测概率分布之间的差异,提供一个平滑、可微的目标,驱动概率分类器做出自信且正确的预测。