Translations:BERT Pre-training of Deep Bidirectional Transformers/2/zh

    From Marovi AI

    BERT:用于语言理解的深度双向 Transformers预训练 是 Devlin 等人于 2019 年在 Google AI Language 发表的论文,提出了 BERT(Bidirectional Encoder Representations from Transformers),一种用于深度双向语言表示 预训练 的方法。BERT 通过证明单一的预训练模型经过微调即可在广泛的下游任务 范围 上达到最先进水平、且仅需对任务特定架构进行最小改动,从而彻底改变了 NLP 领域。