Update README.md
Browse files
README.md
CHANGED
@@ -31,7 +31,7 @@ widget:
|
|
31 |
|
32 |
参考论文:[RoBERTa: A Robustly Optimized BERT Pretraining Approach](https://arxiv.org/abs/1907.11692)
|
33 |
|
34 |
-
为了得到一个中文版的autohome-roberta-large(390M),我们用autohome口碑板块语料库(1.2G)
|
35 |
|
36 |
|
37 |
## 使用 Usage
|
|
|
31 |
|
32 |
参考论文:[RoBERTa: A Robustly Optimized BERT Pretraining Approach](https://arxiv.org/abs/1907.11692)
|
33 |
|
34 |
+
为了得到一个中文版的autohome-roberta-large(390M),我们用autohome口碑板块语料库(1.2G)进行二次预训练。模型初始化参数采用hfl/chinese-bert-wwm-ext-large的参数进行初始化,我们在MLM中使用了全词掩码(wwm)的方式。具体地,我们在二次预训练阶段中使用了[transformers框架](https://github.com/huggingface/transformers)大概花费了4张A100约11小时。
|
35 |
|
36 |
|
37 |
## 使用 Usage
|