All translations

Enter a message name below to show all available translations.

Message

Found 3 translations.

NameCurrent message text
 h English (en)BERT catalyzed a paradigm shift in NLP toward the "pre-train then fine-tune" methodology. It spawned an extensive family of derivative models, including RoBERTa (which improved {{Term|pre-training}}), ALBERT (parameter-efficient variant), DistilBERT (knowledge distillation), and domain-specific variants like BioBERT and SciBERT. The approach also influenced multi-modal models and cross-lingual representations through models like mBERT and XLM.
 h Spanish (es)BERT catalizó un cambio de paradigma en PLN hacia la metodología de "preentrenar y luego ajustar". Generó una amplia familia de modelos derivados, entre ellos RoBERTa (que mejoró el {{Term|pre-training|preentrenamiento}}), ALBERT (variante eficiente en parámetros), DistilBERT (destilación de conocimiento) y variantes específicas de dominio como BioBERT y SciBERT. El enfoque también influyó en los modelos multimodales y las representaciones interlingües a través de modelos como mBERT y XLM.
 h Chinese (zh)BERT 推动了自然语言处理领域向「预训练后再微调」方法论的范式转变。它催生了大量衍生模型家族,包括 RoBERTa(改进了 {{Term|pre-training|预训练}})、ALBERT(参数高效变体)、DistilBERT(知识蒸馏),以及 BioBERT 和 SciBERT 等领域特定变体。该方法还通过 mBERT 和 XLM 等模型影响了多模态模型和跨语言表征。