Translations:BERT Pre-training of Deep Bidirectional Transformers/2/zh
BERT:用於語言理解的深度雙向 Transformers 的 預訓練 是 Devlin 等人於 2019 年在 Google AI Language 發表的論文,提出了 BERT(Bidirectional Encoder Representations from Transformers),一種用於深度雙向語言表示 預訓練 的方法。BERT 通過證明單一的預訓練模型經過微調即可在廣泛的下游任務 範圍 上達到最先進水平、且僅需對任務特定架構進行最小改動,從而徹底改變了 NLP 領域。