All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | BERT demonstrated that large-scale unsupervised {{Term|pre-training}} could effectively transfer linguistic knowledge to downstream tasks, reducing the need for task-specific labeled data and engineering. This pre-train-then-fine-tune paradigm remains foundational to modern NLP practice. |
| h Spanish (es) | BERT demostró que el {{Term|pre-training|preentrenamiento}} no supervisado a gran escala podía transferir efectivamente conocimiento lingüístico a tareas posteriores, reduciendo la necesidad de datos etiquetados y de ingeniería específicos a cada tarea. Este paradigma de preentrenar y luego ajustar sigue siendo fundamental en la práctica moderna del PLN. |
| h Chinese (zh) | BERT 证明了大规模无监督 {{Term|pre-training|预训练}} 可以有效地将语言知识迁移到下游任务,减少了对任务特定标注数据和工程的需求。这种「预训练后再微调」范式至今仍是现代自然语言处理实践的基础。 |