All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)The dominant paradigm in NLP at the time involved {{Term|pre-training}} a model on large corpora and then {{Term|fine-tuning}} on task-specific labeled datasets. While effective, this approach required curated datasets for every new task, introduced the possibility of spurious correlations with narrow training distributions, and did not match how humans learn tasks from minimal instruction.
 h Spanish (es)El paradigma dominante en PLN en aquel momento consistía en realizar {{Term|pre-training|preentrenamiento}} de un modelo sobre grandes corpus y luego {{Term|fine-tuning|ajuste fino}} sobre conjuntos de datos etiquetados específicos de la tarea. Aunque eficaz, este enfoque requería conjuntos de datos curados para cada nueva tarea, introducía la posibilidad de correlaciones espurias con distribuciones de entrenamiento estrechas y no se correspondía con la forma en que los humanos aprenden tareas a partir de instrucciones mínimas.
 h Chinese (zh)当时 NLP 中的主流范式是先在大型语料库上对模型进行 {{Term|pre-training|预训练}},然后在特定任务的标注数据集上进行 {{Term|fine-tuning|微调}}。这种方法虽然有效,但需要为每个新任务策划数据集,可能引入与狭窄训练分布的虚假相关性,并且与人类从极少指令中学习任务的方式不符。