All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | The '''masked language modeling''' objective works by randomly masking 15% of the input tokens. Of these masked positions, 80% are replaced with the [MASK] token, 10% with a random token, and 10% are left unchanged. The model predicts the original token at each masked position using a {{Term|categorical cross-entropy|cross-entropy loss}}: |
| h Spanish (es) | El objetivo del '''modelado de lenguaje enmascarado''' funciona enmascarando aleatoriamente el 15 % de los tokens de entrada. De estas posiciones enmascaradas, el 80 % se reemplaza con el token [MASK], el 10 % con un token aleatorio y el 10 % se deja sin cambios. El modelo predice el token original en cada posición enmascarada usando una {{Term|categorical cross-entropy|pérdida de entropía cruzada}}: |
| h Chinese (zh) | '''掩码语言建模''' 目标的工作方式是随机掩盖 15% 的输入 token。在这些被掩码的位置中,80% 被替换为 [MASK] token,10% 被替换为随机 token,10% 保持不变。模型使用 {{Term|categorical cross-entropy|交叉熵损失}} 预测每个被掩码位置的原始 token: |