All translations
Enter a message name below to show all available translations.
Found 3 translations.
| Name | Current message text |
|---|---|
| h English (en) | BERT catalyzed a paradigm shift in NLP toward the "pre-train then fine-tune" methodology. It spawned an extensive family of derivative models, including RoBERTa (which improved {{Term|pre-training}}), ALBERT (parameter-efficient variant), DistilBERT (knowledge distillation), and domain-specific variants like BioBERT and SciBERT. The approach also influenced multi-modal models and cross-lingual representations through models like mBERT and XLM. |
| h Spanish (es) | BERT catalizó un cambio de paradigma en PLN hacia la metodología de "preentrenar y luego ajustar". Generó una amplia familia de modelos derivados, entre ellos RoBERTa (que mejoró el {{Term|pre-training|preentrenamiento}}), ALBERT (variante eficiente en parámetros), DistilBERT (destilación de conocimiento) y variantes específicas de dominio como BioBERT y SciBERT. El enfoque también influyó en los modelos multimodales y las representaciones interlingües a través de modelos como mBERT y XLM. |
| h Chinese (zh) | BERT 推动了自然语言处理领域向「预训练后再微调」方法论的范式转变。它催生了大量衍生模型家族,包括 RoBERTa(改进了 {{Term|pre-training|预训练}})、ALBERT(参数高效变体)、DistilBERT(知识蒸馏),以及 BioBERT 和 SciBERT 等领域特定变体。该方法还通过 mBERT 和 XLM 等模型影响了多模态模型和跨语言表征。 |