All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)BERT demonstrated that large-scale unsupervised {{Term|pre-training}} could effectively transfer linguistic knowledge to downstream tasks, reducing the need for task-specific labeled data and engineering. This pre-train-then-fine-tune paradigm remains foundational to modern NLP practice.
 h Spanish (es)BERT demostró que el {{Term|pre-training|preentrenamiento}} no supervisado a gran escala podía transferir efectivamente conocimiento lingüístico a tareas posteriores, reduciendo la necesidad de datos etiquetados y de ingeniería específicos a cada tarea. Este paradigma de preentrenar y luego ajustar sigue siendo fundamental en la práctica moderna del PLN.
 h Chinese (zh)BERT 证明了大规模无监督 {{Term|pre-training|预训练}} 可以有效地将语言知识迁移到下游任务,减少了对任务特定标注数据和工程的需求。这种「预训练后再微调」范式至今仍是现代自然语言处理实践的基础。