ThuanPhong commited on
Commit
5f16450
1 Parent(s): c9551db
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
2_Dense/config.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"in_features": 1024, "out_features": 256, "bias": true, "activation_function": "torch.nn.modules.activation.Tanh"}
2_Dense/model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:793fbf7e84716f26ab7992c375e235786040d138433a82cf8224eb3eb7e1e163
3
+ size 1049760
README.md ADDED
@@ -0,0 +1,795 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ base_model: uitnlp/CafeBERT
3
+ datasets: []
4
+ language: []
5
+ library_name: sentence-transformers
6
+ metrics:
7
+ - cosine_accuracy
8
+ - cosine_accuracy_threshold
9
+ - cosine_f1
10
+ - cosine_f1_threshold
11
+ - cosine_precision
12
+ - cosine_recall
13
+ - cosine_ap
14
+ - dot_accuracy
15
+ - dot_accuracy_threshold
16
+ - dot_f1
17
+ - dot_f1_threshold
18
+ - dot_precision
19
+ - dot_recall
20
+ - dot_ap
21
+ - manhattan_accuracy
22
+ - manhattan_accuracy_threshold
23
+ - manhattan_f1
24
+ - manhattan_f1_threshold
25
+ - manhattan_precision
26
+ - manhattan_recall
27
+ - manhattan_ap
28
+ - euclidean_accuracy
29
+ - euclidean_accuracy_threshold
30
+ - euclidean_f1
31
+ - euclidean_f1_threshold
32
+ - euclidean_precision
33
+ - euclidean_recall
34
+ - euclidean_ap
35
+ - max_accuracy
36
+ - max_accuracy_threshold
37
+ - max_f1
38
+ - max_f1_threshold
39
+ - max_precision
40
+ - max_recall
41
+ - max_ap
42
+ pipeline_tag: sentence-similarity
43
+ tags:
44
+ - sentence-transformers
45
+ - sentence-similarity
46
+ - feature-extraction
47
+ - generated_from_trainer
48
+ - dataset_size:461625
49
+ - loss:OnlineContrastiveLoss
50
+ widget:
51
+ - source_sentence: Yếu tố nào đã dẫn đến sự thay đổi của Edward?
52
+ sentences:
53
+ - Việc giải quyết liên quan đến việc quảng bá thuốc theo toa bất hợp pháp của công
54
+ ty, không báo cáo dữ liệu an toàn, hối lộ bác sĩ và quảng bá thuốc cho các mục
55
+ đích sử dụng mà họ không được cấp phép.
56
+ - Vài tháng gần đây bệnh nhân đau âm ỉ vùng thượng vị, cứ tưởng đau dạ dày nên tự
57
+ mua thuốc uống cho đến khi bệnh trở nặng mới vào viện.
58
+ - Động cơ đằng sau sự thay đổi của Edward có thể là hoàn toàn thực dụng; Montfort
59
+ sẽ hỗ trợ đáng kể cho sự nghiệp của ông ở Gascony.
60
+ - source_sentence: Kobe là một trung tâm quốc tế lớn với các nhà hàng, quán bar và
61
+ cuộc sống về đêm phát triển mạnh mẽ, chưa kể đến Nankin-machi, khu phố Tàu nổi
62
+ tiếng nhất Nhật Bản.
63
+ sentences:
64
+ - Suy cho cùng, con người luôn thay đổi, chỉ vì họ già đi thêm một giây nữa và có
65
+ thêm một số kinh nghiệm.
66
+ - Quy trình tương tự luôn được sử dụng với chìa khóa khi rời khỏi phòng.
67
+ - Nankin-machi là phố Tàu nổi tiếng thứ hai của Nhật Bản và nằm ở một vùng nông
68
+ thôn.
69
+ - source_sentence: Với tỷ lệ lạm phát bằng 0, ngân hàng trung ương sẽ không thể làm
70
+ gì khác ngoài việc kiểm soát lãi suất?
71
+ sentences:
72
+ - Mặc dù một số nhà kinh tế ủng hộ chính sách lạm phát bằng không và do đó giá trị
73
+ liên tục của đồng đô la Mỹ, những người khác cho rằng chính sách như vậy hạn chế
74
+ khả năng của ngân hàng trung ương trong việc kiểm soát lãi suất và kích thích
75
+ nền kinh tế khi cần thiết.
76
+ - Roosevelt không tăng thuế thu nhập trước khi Chiến tranh thế giới thứ hai bắt
77
+ đầu; tuy nhiên thuế sổ lương (payroll tax) cũng bắt đầu được đưa ra nhằm gây quỹ
78
+ cho chương trình mới là An sinh Xã hội năm 1937.
79
+ - Các loại vắc-xin mới đáng chú ý khác của thời kỳ này bao gồm vắc-xin phòng bệnh
80
+ sởi (1962, John Franklin Enders của Trung tâm Y tế Trẻ em Boston, sau đó được
81
+ Maurice Hilleman tại Merck tinh chế), Rubella (1969, Hilleman, Merck) và quai
82
+ bị (1967, Hilleman, Merck)
83
+ - source_sentence: Cách một chút về phía nam là Leith Links, được cho là nơi khai
84
+ sinh ra golf, nơi mà các tay golf của Công ty danh dự Edinburgh đã xây dựng một
85
+ câu lạc bộ vào năm 1767 và bạn vẫn có thể tận hưởng một cú đánh trong không khí
86
+ biển.
87
+ sentences:
88
+ - Sáng sớm ngày 12/7/1946, một tiểu đội công an do Lê Hữu Qua chỉ huy bao vây khám
89
+ xét trụ sở của đảng Đại Việt tại số 132 Duvigneau, do nghi ngờ Đại Việt cấu kết
90
+ với Pháp âm mưu tiến hành đảo chính lật đổ chính phủ Việt Nam Dân chủ Cộng hòa
91
+ đúng vào ngày quốc khánh Pháp 14/7/1946 khiến lính canh và các đảng viên Đại Việt
92
+ không kịp phản ứng.
93
+ - Leith Links đã cho ra đời môn golf khi các tay golf Edinburgh xây dựng một câu
94
+ lạc bộ ở đó vào năm 1767, và bạn vẫn có thể chơi golf ở đó cho đến ngày nay.
95
+ - Từ ngày 28 tháng 2 đến ngày 8 tháng 3 năm 2008, khoảng 570 km2 (220 sq mi) băng
96
+ từ thềm băng Wilkins ở phía tây nam của bán đảo sụp đổ, khiến 15.000 km2 (5.800
97
+ sq mi) còn lại của thềm băng có nguy cơ sụp đổ.
98
+ - source_sentence: Chúng tôi đang tiến vào sa mạc.
99
+ sentences:
100
+ - Vị trí Thủ tướng, người đứng đầu chính phủ Hy Lạp, thuộc về lãnh đạo hiện tại
101
+ của đảng chính trị có thể có được một cuộc bỏ phiếu tín nhiệm của Quốc hội.
102
+ - Người phụ nữ này đang chạy vì cô ta đến muộn.
103
+ - Chúng tôi chuyển đến sa mạc.
104
+ model-index:
105
+ - name: SentenceTransformer based on uitnlp/CafeBERT
106
+ results:
107
+ - task:
108
+ type: binary-classification
109
+ name: Binary Classification
110
+ dataset:
111
+ name: Unknown
112
+ type: unknown
113
+ metrics:
114
+ - type: cosine_accuracy
115
+ value: 0.540375
116
+ name: Cosine Accuracy
117
+ - type: cosine_accuracy_threshold
118
+ value: 1.0
119
+ name: Cosine Accuracy Threshold
120
+ - type: cosine_f1
121
+ value: 0.6298986023568102
122
+ name: Cosine F1
123
+ - type: cosine_f1_threshold
124
+ value: 1.0
125
+ name: Cosine F1 Threshold
126
+ - type: cosine_precision
127
+ value: 0.45974597459745975
128
+ name: Cosine Precision
129
+ - type: cosine_recall
130
+ value: 1.0
131
+ name: Cosine Recall
132
+ - type: cosine_ap
133
+ value: 0.4597
134
+ name: Cosine Ap
135
+ - type: dot_accuracy
136
+ value: 0.540325
137
+ name: Dot Accuracy
138
+ - type: dot_accuracy_threshold
139
+ value: 46.29051971435547
140
+ name: Dot Accuracy Threshold
141
+ - type: dot_f1
142
+ value: 0.6298751348851549
143
+ name: Dot F1
144
+ - type: dot_f1_threshold
145
+ value: 46.290496826171875
146
+ name: Dot F1 Threshold
147
+ - type: dot_precision
148
+ value: 0.4597324665583198
149
+ name: Dot Precision
150
+ - type: dot_recall
151
+ value: 0.9999456167065478
152
+ name: Dot Recall
153
+ - type: dot_ap
154
+ value: 0.45782966491158084
155
+ name: Dot Ap
156
+ - type: manhattan_accuracy
157
+ value: 0.541125
158
+ name: Manhattan Accuracy
159
+ - type: manhattan_accuracy_threshold
160
+ value: 1.981481909751892e-05
161
+ name: Manhattan Accuracy Threshold
162
+ - type: manhattan_f1
163
+ value: 0.6298662373473547
164
+ name: Manhattan F1
165
+ - type: manhattan_f1_threshold
166
+ value: 0.00021043187007308006
167
+ name: Manhattan F1 Threshold
168
+ - type: manhattan_precision
169
+ value: 0.4597114927873197
170
+ name: Manhattan Precision
171
+ - type: manhattan_recall
172
+ value: 1.0
173
+ name: Manhattan Recall
174
+ - type: manhattan_ap
175
+ value: 0.4603931536346896
176
+ name: Manhattan Ap
177
+ - type: euclidean_accuracy
178
+ value: 0.541225
179
+ name: Euclidean Accuracy
180
+ - type: euclidean_accuracy_threshold
181
+ value: 1.6662881989759626e-06
182
+ name: Euclidean Accuracy Threshold
183
+ - type: euclidean_f1
184
+ value: 0.6298878136507665
185
+ name: Euclidean F1
186
+ - type: euclidean_f1_threshold
187
+ value: 1.694726961432025e-05
188
+ name: Euclidean F1 Threshold
189
+ - type: euclidean_precision
190
+ value: 0.4597344800860064
191
+ name: Euclidean Precision
192
+ - type: euclidean_recall
193
+ value: 1.0
194
+ name: Euclidean Recall
195
+ - type: euclidean_ap
196
+ value: 0.4601793379421392
197
+ name: Euclidean Ap
198
+ - type: max_accuracy
199
+ value: 0.541225
200
+ name: Max Accuracy
201
+ - type: max_accuracy_threshold
202
+ value: 46.29051971435547
203
+ name: Max Accuracy Threshold
204
+ - type: max_f1
205
+ value: 0.6298986023568102
206
+ name: Max F1
207
+ - type: max_f1_threshold
208
+ value: 46.290496826171875
209
+ name: Max F1 Threshold
210
+ - type: max_precision
211
+ value: 0.45974597459745975
212
+ name: Max Precision
213
+ - type: max_recall
214
+ value: 1.0
215
+ name: Max Recall
216
+ - type: max_ap
217
+ value: 0.4603931536346896
218
+ name: Max Ap
219
+ ---
220
+
221
+ # SentenceTransformer based on uitnlp/CafeBERT
222
+
223
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [uitnlp/CafeBERT](https://huggingface.co/uitnlp/CafeBERT). It maps sentences & paragraphs to a 256-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
224
+
225
+ ## Model Details
226
+
227
+ ### Model Description
228
+ - **Model Type:** Sentence Transformer
229
+ - **Base model:** [uitnlp/CafeBERT](https://huggingface.co/uitnlp/CafeBERT) <!-- at revision 056275afbdf71a5258cb31bfb9fc5f18cc718c04 -->
230
+ - **Maximum Sequence Length:** 256 tokens
231
+ - **Output Dimensionality:** 256 tokens
232
+ - **Similarity Function:** Cosine Similarity
233
+ <!-- - **Training Dataset:** Unknown -->
234
+ <!-- - **Language:** Unknown -->
235
+ <!-- - **License:** Unknown -->
236
+
237
+ ### Model Sources
238
+
239
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
240
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
241
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
242
+
243
+ ### Full Model Architecture
244
+
245
+ ```
246
+ SentenceTransformer(
247
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
248
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
249
+ (2): Dense({'in_features': 1024, 'out_features': 256, 'bias': True, 'activation_function': 'torch.nn.modules.activation.Tanh'})
250
+ )
251
+ ```
252
+
253
+ ## Usage
254
+
255
+ ### Direct Usage (Sentence Transformers)
256
+
257
+ First install the Sentence Transformers library:
258
+
259
+ ```bash
260
+ pip install -U sentence-transformers
261
+ ```
262
+
263
+ Then you can load this model and run inference.
264
+ ```python
265
+ from sentence_transformers import SentenceTransformer
266
+
267
+ # Download from the 🤗 Hub
268
+ model = SentenceTransformer("ThuanPhong/sentence_CafeBERT")
269
+ # Run inference
270
+ sentences = [
271
+ 'Chúng tôi đang tiến vào sa mạc.',
272
+ 'Chúng tôi chuyển đến sa mạc.',
273
+ 'Người phụ nữ này đang chạy vì cô ta đến muộn.',
274
+ ]
275
+ embeddings = model.encode(sentences)
276
+ print(embeddings.shape)
277
+ # [3, 256]
278
+
279
+ # Get the similarity scores for the embeddings
280
+ similarities = model.similarity(embeddings, embeddings)
281
+ print(similarities.shape)
282
+ # [3, 3]
283
+ ```
284
+
285
+ <!--
286
+ ### Direct Usage (Transformers)
287
+
288
+ <details><summary>Click to see the direct usage in Transformers</summary>
289
+
290
+ </details>
291
+ -->
292
+
293
+ <!--
294
+ ### Downstream Usage (Sentence Transformers)
295
+
296
+ You can finetune this model on your own dataset.
297
+
298
+ <details><summary>Click to expand</summary>
299
+
300
+ </details>
301
+ -->
302
+
303
+ <!--
304
+ ### Out-of-Scope Use
305
+
306
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
307
+ -->
308
+
309
+ ## Evaluation
310
+
311
+ ### Metrics
312
+
313
+ #### Binary Classification
314
+
315
+ * Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
316
+
317
+ | Metric | Value |
318
+ |:-----------------------------|:-----------|
319
+ | cosine_accuracy | 0.5404 |
320
+ | cosine_accuracy_threshold | 1.0 |
321
+ | cosine_f1 | 0.6299 |
322
+ | cosine_f1_threshold | 1.0 |
323
+ | cosine_precision | 0.4597 |
324
+ | cosine_recall | 1.0 |
325
+ | cosine_ap | 0.4597 |
326
+ | dot_accuracy | 0.5403 |
327
+ | dot_accuracy_threshold | 46.2905 |
328
+ | dot_f1 | 0.6299 |
329
+ | dot_f1_threshold | 46.2905 |
330
+ | dot_precision | 0.4597 |
331
+ | dot_recall | 0.9999 |
332
+ | dot_ap | 0.4578 |
333
+ | manhattan_accuracy | 0.5411 |
334
+ | manhattan_accuracy_threshold | 0.0 |
335
+ | manhattan_f1 | 0.6299 |
336
+ | manhattan_f1_threshold | 0.0002 |
337
+ | manhattan_precision | 0.4597 |
338
+ | manhattan_recall | 1.0 |
339
+ | manhattan_ap | 0.4604 |
340
+ | euclidean_accuracy | 0.5412 |
341
+ | euclidean_accuracy_threshold | 0.0 |
342
+ | euclidean_f1 | 0.6299 |
343
+ | euclidean_f1_threshold | 0.0 |
344
+ | euclidean_precision | 0.4597 |
345
+ | euclidean_recall | 1.0 |
346
+ | euclidean_ap | 0.4602 |
347
+ | max_accuracy | 0.5412 |
348
+ | max_accuracy_threshold | 46.2905 |
349
+ | max_f1 | 0.6299 |
350
+ | max_f1_threshold | 46.2905 |
351
+ | max_precision | 0.4597 |
352
+ | max_recall | 1.0 |
353
+ | **max_ap** | **0.4604** |
354
+
355
+ <!--
356
+ ## Bias, Risks and Limitations
357
+
358
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
359
+ -->
360
+
361
+ <!--
362
+ ### Recommendations
363
+
364
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
365
+ -->
366
+
367
+ ## Training Details
368
+
369
+ ### Training Dataset
370
+
371
+ #### Unnamed Dataset
372
+
373
+
374
+ * Size: 461,625 training samples
375
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
376
+ * Approximate statistics based on the first 1000 samples:
377
+ | | sentence_0 | sentence_1 | label |
378
+ |:--------|:-----------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|:------------------------------------------------|
379
+ | type | string | string | int |
380
+ | details | <ul><li>min: 4 tokens</li><li>mean: 21.87 tokens</li><li>max: 121 tokens</li></ul> | <ul><li>min: 4 tokens</li><li>mean: 32.19 tokens</li><li>max: 162 tokens</li></ul> | <ul><li>0: ~55.90%</li><li>1: ~44.10%</li></ul> |
381
+ * Samples:
382
+ | sentence_0 | sentence_1 | label |
383
+ |:--------------------------------------------------------------------------|:----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
384
+ | <code>Khi nào William Caxton giới thiệu máy in ép vào nước Anh?</code> | <code>Những đặc điểm mà độc giả của Shakespeare ngày nay có thể thấy kỳ quặc hay lỗi thời thường đại diện cho những nét đặc trưng của tiếng Anh trung Đại.</code> | <code>0</code> |
385
+ | <code>Nhưng tôi không biết rằng tôi phải, " Dorcas do dự.</code> | <code>Dorcas sợ phản ứng của họ.</code> | <code>0</code> |
386
+ | <code>Đông Đức là tên gọi thường được sử dụng để chỉ quốc gia nào?</code> | <code>Cộng hòa Dân chủ Đức (tiếng Đức: Deutsche Demokratische Republik, DDR; thường được gọi là Đông Đức) là một quốc gia nay không còn nữa, tồn tại từ 1949 đến 1990 theo định hướng xã hội chủ nghĩa tại phần phía đông nước Đức ngày nay.</code> | <code>1</code> |
387
+ * Loss: [<code>OnlineContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#onlinecontrastiveloss)
388
+
389
+ ### Training Hyperparameters
390
+ #### Non-Default Hyperparameters
391
+
392
+ - `num_train_epochs`: 2
393
+ - `multi_dataset_batch_sampler`: round_robin
394
+
395
+ #### All Hyperparameters
396
+ <details><summary>Click to expand</summary>
397
+
398
+ - `overwrite_output_dir`: False
399
+ - `do_predict`: False
400
+ - `eval_strategy`: no
401
+ - `prediction_loss_only`: True
402
+ - `per_device_train_batch_size`: 8
403
+ - `per_device_eval_batch_size`: 8
404
+ - `per_gpu_train_batch_size`: None
405
+ - `per_gpu_eval_batch_size`: None
406
+ - `gradient_accumulation_steps`: 1
407
+ - `eval_accumulation_steps`: None
408
+ - `torch_empty_cache_steps`: None
409
+ - `learning_rate`: 5e-05
410
+ - `weight_decay`: 0.0
411
+ - `adam_beta1`: 0.9
412
+ - `adam_beta2`: 0.999
413
+ - `adam_epsilon`: 1e-08
414
+ - `max_grad_norm`: 1
415
+ - `num_train_epochs`: 2
416
+ - `max_steps`: -1
417
+ - `lr_scheduler_type`: linear
418
+ - `lr_scheduler_kwargs`: {}
419
+ - `warmup_ratio`: 0.0
420
+ - `warmup_steps`: 0
421
+ - `log_level`: passive
422
+ - `log_level_replica`: warning
423
+ - `log_on_each_node`: True
424
+ - `logging_nan_inf_filter`: True
425
+ - `save_safetensors`: True
426
+ - `save_on_each_node`: False
427
+ - `save_only_model`: False
428
+ - `restore_callback_states_from_checkpoint`: False
429
+ - `no_cuda`: False
430
+ - `use_cpu`: False
431
+ - `use_mps_device`: False
432
+ - `seed`: 42
433
+ - `data_seed`: None
434
+ - `jit_mode_eval`: False
435
+ - `use_ipex`: False
436
+ - `bf16`: False
437
+ - `fp16`: False
438
+ - `fp16_opt_level`: O1
439
+ - `half_precision_backend`: auto
440
+ - `bf16_full_eval`: False
441
+ - `fp16_full_eval`: False
442
+ - `tf32`: None
443
+ - `local_rank`: 0
444
+ - `ddp_backend`: None
445
+ - `tpu_num_cores`: None
446
+ - `tpu_metrics_debug`: False
447
+ - `debug`: []
448
+ - `dataloader_drop_last`: False
449
+ - `dataloader_num_workers`: 0
450
+ - `dataloader_prefetch_factor`: None
451
+ - `past_index`: -1
452
+ - `disable_tqdm`: False
453
+ - `remove_unused_columns`: True
454
+ - `label_names`: None
455
+ - `load_best_model_at_end`: False
456
+ - `ignore_data_skip`: False
457
+ - `fsdp`: []
458
+ - `fsdp_min_num_params`: 0
459
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
460
+ - `fsdp_transformer_layer_cls_to_wrap`: None
461
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
462
+ - `deepspeed`: None
463
+ - `label_smoothing_factor`: 0.0
464
+ - `optim`: adamw_torch
465
+ - `optim_args`: None
466
+ - `adafactor`: False
467
+ - `group_by_length`: False
468
+ - `length_column_name`: length
469
+ - `ddp_find_unused_parameters`: None
470
+ - `ddp_bucket_cap_mb`: None
471
+ - `ddp_broadcast_buffers`: False
472
+ - `dataloader_pin_memory`: True
473
+ - `dataloader_persistent_workers`: False
474
+ - `skip_memory_metrics`: True
475
+ - `use_legacy_prediction_loop`: False
476
+ - `push_to_hub`: False
477
+ - `resume_from_checkpoint`: None
478
+ - `hub_model_id`: None
479
+ - `hub_strategy`: every_save
480
+ - `hub_private_repo`: False
481
+ - `hub_always_push`: False
482
+ - `gradient_checkpointing`: False
483
+ - `gradient_checkpointing_kwargs`: None
484
+ - `include_inputs_for_metrics`: False
485
+ - `eval_do_concat_batches`: True
486
+ - `fp16_backend`: auto
487
+ - `push_to_hub_model_id`: None
488
+ - `push_to_hub_organization`: None
489
+ - `mp_parameters`:
490
+ - `auto_find_batch_size`: False
491
+ - `full_determinism`: False
492
+ - `torchdynamo`: None
493
+ - `ray_scope`: last
494
+ - `ddp_timeout`: 1800
495
+ - `torch_compile`: False
496
+ - `torch_compile_backend`: None
497
+ - `torch_compile_mode`: None
498
+ - `dispatch_batches`: None
499
+ - `split_batches`: None
500
+ - `include_tokens_per_second`: False
501
+ - `include_num_input_tokens_seen`: False
502
+ - `neftune_noise_alpha`: None
503
+ - `optim_target_modules`: None
504
+ - `batch_eval_metrics`: False
505
+ - `eval_on_start`: False
506
+ - `eval_use_gather_object`: False
507
+ - `batch_sampler`: batch_sampler
508
+ - `multi_dataset_batch_sampler`: round_robin
509
+
510
+ </details>
511
+
512
+ ### Training Logs
513
+ <details><summary>Click to expand</summary>
514
+
515
+ | Epoch | Step | Training Loss | max_ap |
516
+ |:------:|:------:|:-------------:|:------:|
517
+ | 0 | 0 | - | 0.5959 |
518
+ | 0.0087 | 500 | 0.3971 | - |
519
+ | 0.0173 | 1000 | 0.3353 | - |
520
+ | 0.0260 | 1500 | 0.4706 | - |
521
+ | 0.0347 | 2000 | 0.5002 | - |
522
+ | 0.0433 | 2500 | 0.4528 | - |
523
+ | 0.0520 | 3000 | 0.445 | - |
524
+ | 0.0607 | 3500 | 0.428 | - |
525
+ | 0.0693 | 4000 | 0.4305 | - |
526
+ | 0.0780 | 4500 | 0.4428 | - |
527
+ | 0.0866 | 5000 | 0.4358 | - |
528
+ | 0.0953 | 5500 | 0.4309 | - |
529
+ | 0.1040 | 6000 | 0.4221 | - |
530
+ | 0.1126 | 6500 | 0.4283 | - |
531
+ | 0.1213 | 7000 | 0.4218 | - |
532
+ | 0.1300 | 7500 | 0.4176 | - |
533
+ | 0.1386 | 8000 | 0.4227 | - |
534
+ | 0.1473 | 8500 | 0.4174 | - |
535
+ | 0.1560 | 9000 | 0.418 | - |
536
+ | 0.1646 | 9500 | 0.426 | - |
537
+ | 0.1733 | 10000 | 0.4213 | - |
538
+ | 0.1820 | 10500 | 0.4165 | - |
539
+ | 0.1906 | 11000 | 0.417 | - |
540
+ | 0.1993 | 11500 | 0.4262 | - |
541
+ | 0.2080 | 12000 | 0.4192 | - |
542
+ | 0.2166 | 12500 | 0.4162 | - |
543
+ | 0.2253 | 13000 | 0.4136 | - |
544
+ | 0.2340 | 13500 | 0.4037 | - |
545
+ | 0.2426 | 14000 | 0.4234 | - |
546
+ | 0.2513 | 14500 | 0.4225 | - |
547
+ | 0.2599 | 15000 | 0.4143 | - |
548
+ | 0.2686 | 15500 | 0.4178 | - |
549
+ | 0.2773 | 16000 | 0.4172 | - |
550
+ | 0.2859 | 16500 | 0.4305 | - |
551
+ | 0.2946 | 17000 | 0.4193 | - |
552
+ | 0.3033 | 17500 | 0.4144 | - |
553
+ | 0.3119 | 18000 | 0.4192 | - |
554
+ | 0.3206 | 18500 | 0.4172 | - |
555
+ | 0.3293 | 19000 | 0.4253 | - |
556
+ | 0.3379 | 19500 | 0.4211 | - |
557
+ | 0.3466 | 20000 | 0.4197 | - |
558
+ | 0.3553 | 20500 | 0.4219 | - |
559
+ | 0.3639 | 21000 | 0.4307 | - |
560
+ | 0.3726 | 21500 | 0.4332 | - |
561
+ | 0.3813 | 22000 | 0.4201 | - |
562
+ | 0.3899 | 22500 | 0.4273 | - |
563
+ | 0.3986 | 23000 | 0.4218 | - |
564
+ | 0.4073 | 23500 | 0.4279 | - |
565
+ | 0.4159 | 24000 | 0.4299 | - |
566
+ | 0.4246 | 24500 | 0.4289 | - |
567
+ | 0.4332 | 25000 | 0.416 | - |
568
+ | 0.4419 | 25500 | 0.3997 | - |
569
+ | 0.4506 | 26000 | 0.409 | - |
570
+ | 0.4592 | 26500 | 0.4133 | - |
571
+ | 0.4679 | 27000 | 0.4016 | - |
572
+ | 0.4766 | 27500 | 0.4117 | - |
573
+ | 0.4852 | 28000 | 0.4155 | - |
574
+ | 0.4939 | 28500 | 0.4117 | - |
575
+ | 0.5026 | 29000 | 0.4039 | - |
576
+ | 0.5112 | 29500 | 0.4087 | - |
577
+ | 0.5199 | 30000 | 0.4119 | - |
578
+ | 0.5286 | 30500 | 0.3948 | - |
579
+ | 0.5372 | 31000 | 0.4013 | - |
580
+ | 0.5459 | 31500 | 0.4175 | - |
581
+ | 0.5546 | 32000 | 0.4038 | - |
582
+ | 0.5632 | 32500 | 0.4058 | - |
583
+ | 0.5719 | 33000 | 0.4099 | - |
584
+ | 0.5805 | 33500 | 0.4117 | - |
585
+ | 0.5892 | 34000 | 0.4142 | - |
586
+ | 0.5979 | 34500 | 0.4049 | - |
587
+ | 0.6065 | 35000 | 0.4099 | - |
588
+ | 0.6152 | 35500 | 0.4121 | - |
589
+ | 0.6239 | 36000 | 0.4167 | - |
590
+ | 0.6325 | 36500 | 0.4138 | - |
591
+ | 0.6412 | 37000 | 0.4125 | - |
592
+ | 0.6499 | 37500 | 0.4043 | - |
593
+ | 0.6585 | 38000 | 0.4129 | - |
594
+ | 0.6672 | 38500 | 0.4079 | - |
595
+ | 0.6759 | 39000 | 0.3954 | - |
596
+ | 0.6845 | 39500 | 0.413 | - |
597
+ | 0.6932 | 40000 | 0.4079 | - |
598
+ | 0.7019 | 40500 | 0.4067 | - |
599
+ | 0.7105 | 41000 | 0.4251 | - |
600
+ | 0.7192 | 41500 | 0.4044 | - |
601
+ | 0.7279 | 42000 | 0.3919 | - |
602
+ | 0.7365 | 42500 | 0.4081 | - |
603
+ | 0.7452 | 43000 | 0.4141 | - |
604
+ | 0.7538 | 43500 | 0.4015 | - |
605
+ | 0.7625 | 44000 | 0.4139 | - |
606
+ | 0.7712 | 44500 | 0.408 | - |
607
+ | 0.7798 | 45000 | 0.4019 | - |
608
+ | 0.7885 | 45500 | 0.4127 | - |
609
+ | 0.7972 | 46000 | 0.4109 | - |
610
+ | 0.8058 | 46500 | 0.4045 | - |
611
+ | 0.8145 | 47000 | 0.4017 | - |
612
+ | 0.8232 | 47500 | 0.4108 | - |
613
+ | 0.8318 | 48000 | 0.4189 | - |
614
+ | 0.8405 | 48500 | 0.4127 | - |
615
+ | 0.8492 | 49000 | 0.4183 | - |
616
+ | 0.8578 | 49500 | 0.408 | - |
617
+ | 0.8665 | 50000 | 0.4091 | - |
618
+ | 0.8752 | 50500 | 0.412 | - |
619
+ | 0.8838 | 51000 | 0.4129 | - |
620
+ | 0.8925 | 51500 | 0.4175 | - |
621
+ | 0.9012 | 52000 | 0.4049 | - |
622
+ | 0.9098 | 52500 | 0.4047 | - |
623
+ | 0.9185 | 53000 | 0.4016 | - |
624
+ | 0.9271 | 53500 | 0.4088 | - |
625
+ | 0.9358 | 54000 | 0.4009 | - |
626
+ | 0.9445 | 54500 | 0.3996 | - |
627
+ | 0.9531 | 55000 | 0.4054 | - |
628
+ | 0.9618 | 55500 | 0.4115 | - |
629
+ | 0.9705 | 56000 | 0.4135 | - |
630
+ | 0.9791 | 56500 | 0.4041 | - |
631
+ | 0.9878 | 57000 | 0.4046 | - |
632
+ | 0.9965 | 57500 | 0.4063 | - |
633
+ | 1.0 | 57704 | - | 0.4615 |
634
+ | 1.0051 | 58000 | 0.4054 | - |
635
+ | 1.0138 | 58500 | 0.4017 | - |
636
+ | 1.0225 | 59000 | 0.417 | - |
637
+ | 1.0311 | 59500 | 0.4048 | - |
638
+ | 1.0398 | 60000 | 0.4007 | - |
639
+ | 1.0485 | 60500 | 0.4094 | - |
640
+ | 1.0571 | 61000 | 0.4068 | - |
641
+ | 1.0658 | 61500 | 0.4113 | - |
642
+ | 1.0744 | 62000 | 0.4022 | - |
643
+ | 1.0831 | 62500 | 0.4219 | - |
644
+ | 1.0918 | 63000 | 0.4149 | - |
645
+ | 1.1004 | 63500 | 0.399 | - |
646
+ | 1.1091 | 64000 | 0.4041 | - |
647
+ | 1.1178 | 64500 | 0.4023 | - |
648
+ | 1.1264 | 65000 | 0.4039 | - |
649
+ | 1.1351 | 65500 | 0.4024 | - |
650
+ | 1.1438 | 66000 | 0.4184 | - |
651
+ | 1.1524 | 66500 | 0.4104 | - |
652
+ | 1.1611 | 67000 | 0.4032 | - |
653
+ | 1.1698 | 67500 | 0.3958 | - |
654
+ | 1.1784 | 68000 | 0.4103 | - |
655
+ | 1.1871 | 68500 | 0.4105 | - |
656
+ | 1.1958 | 69000 | 0.4049 | - |
657
+ | 1.2044 | 69500 | 0.3995 | - |
658
+ | 1.2131 | 70000 | 0.4064 | - |
659
+ | 1.2218 | 70500 | 0.4135 | - |
660
+ | 1.2304 | 71000 | 0.3907 | - |
661
+ | 1.2391 | 71500 | 0.4037 | - |
662
+ | 1.2477 | 72000 | 0.4016 | - |
663
+ | 1.2564 | 72500 | 0.4124 | - |
664
+ | 1.2651 | 73000 | 0.4071 | - |
665
+ | 1.2737 | 73500 | 0.3965 | - |
666
+ | 1.2824 | 74000 | 0.4149 | - |
667
+ | 1.2911 | 74500 | 0.3985 | - |
668
+ | 1.2997 | 75000 | 0.3957 | - |
669
+ | 1.3084 | 75500 | 0.4043 | - |
670
+ | 1.3171 | 76000 | 0.411 | - |
671
+ | 1.3257 | 76500 | 0.4109 | - |
672
+ | 1.3344 | 77000 | 0.3968 | - |
673
+ | 1.3431 | 77500 | 0.4134 | - |
674
+ | 1.3517 | 78000 | 0.4057 | - |
675
+ | 1.3604 | 78500 | 0.4034 | - |
676
+ | 1.3691 | 79000 | 0.4057 | - |
677
+ | 1.3777 | 79500 | 0.3998 | - |
678
+ | 1.3864 | 80000 | 0.4002 | - |
679
+ | 1.3951 | 80500 | 0.396 | - |
680
+ | 1.4037 | 81000 | 0.4066 | - |
681
+ | 1.4124 | 81500 | 0.4073 | - |
682
+ | 1.4210 | 82000 | 0.3957 | - |
683
+ | 1.4297 | 82500 | 0.4012 | - |
684
+ | 1.4384 | 83000 | 0.4008 | - |
685
+ | 1.4470 | 83500 | 0.4055 | - |
686
+ | 1.4557 | 84000 | 0.409 | - |
687
+ | 1.4644 | 84500 | 0.4052 | - |
688
+ | 1.4730 | 85000 | 0.4128 | - |
689
+ | 1.4817 | 85500 | 0.4053 | - |
690
+ | 1.4904 | 86000 | 0.3979 | - |
691
+ | 1.4990 | 86500 | 0.4038 | - |
692
+ | 1.5077 | 87000 | 0.3987 | - |
693
+ | 1.5164 | 87500 | 0.4071 | - |
694
+ | 1.5250 | 88000 | 0.4042 | - |
695
+ | 1.5337 | 88500 | 0.4097 | - |
696
+ | 1.5424 | 89000 | 0.4044 | - |
697
+ | 1.5510 | 89500 | 0.4037 | - |
698
+ | 1.5597 | 90000 | 0.3992 | - |
699
+ | 1.5683 | 90500 | 0.4031 | - |
700
+ | 1.5770 | 91000 | 0.4037 | - |
701
+ | 1.5857 | 91500 | 0.4001 | - |
702
+ | 1.5943 | 92000 | 0.4069 | - |
703
+ | 1.6030 | 92500 | 0.4149 | - |
704
+ | 1.6117 | 93000 | 0.4091 | - |
705
+ | 1.6203 | 93500 | 0.3978 | - |
706
+ | 1.6290 | 94000 | 0.397 | - |
707
+ | 1.6377 | 94500 | 0.4063 | - |
708
+ | 1.6463 | 95000 | 0.4032 | - |
709
+ | 1.6550 | 95500 | 0.4146 | - |
710
+ | 1.6637 | 96000 | 0.407 | - |
711
+ | 1.6723 | 96500 | 0.4079 | - |
712
+ | 1.6810 | 97000 | 0.3991 | - |
713
+ | 1.6897 | 97500 | 0.4072 | - |
714
+ | 1.6983 | 98000 | 0.397 | - |
715
+ | 1.7070 | 98500 | 0.4033 | - |
716
+ | 1.7157 | 99000 | 0.412 | - |
717
+ | 1.7243 | 99500 | 0.3886 | - |
718
+ | 1.7330 | 100000 | 0.4026 | - |
719
+ | 1.7416 | 100500 | 0.3993 | - |
720
+ | 1.7503 | 101000 | 0.4078 | - |
721
+ | 1.7590 | 101500 | 0.3945 | - |
722
+ | 1.7676 | 102000 | 0.4029 | - |
723
+ | 1.7763 | 102500 | 0.4048 | - |
724
+ | 1.7850 | 103000 | 0.3994 | - |
725
+ | 1.7936 | 103500 | 0.4079 | - |
726
+ | 1.8023 | 104000 | 0.4146 | - |
727
+ | 1.8110 | 104500 | 0.4014 | - |
728
+ | 1.8196 | 105000 | 0.3942 | - |
729
+ | 1.8283 | 105500 | 0.4081 | - |
730
+ | 1.8370 | 106000 | 0.4016 | - |
731
+ | 1.8456 | 106500 | 0.4122 | - |
732
+ | 1.8543 | 107000 | 0.4078 | - |
733
+ | 1.8630 | 107500 | 0.4146 | - |
734
+ | 1.8716 | 108000 | 0.4029 | - |
735
+ | 1.8803 | 108500 | 0.4057 | - |
736
+ | 1.8890 | 109000 | 0.3994 | - |
737
+ | 1.8976 | 109500 | 0.3955 | - |
738
+ | 1.9063 | 110000 | 0.3997 | - |
739
+ | 1.9149 | 110500 | 0.3935 | - |
740
+ | 1.9236 | 111000 | 0.3942 | - |
741
+ | 1.9323 | 111500 | 0.3979 | - |
742
+ | 1.9409 | 112000 | 0.3996 | - |
743
+ | 1.9496 | 112500 | 0.4076 | - |
744
+ | 1.9583 | 113000 | 0.3971 | - |
745
+ | 1.9669 | 113500 | 0.4075 | - |
746
+ | 1.9756 | 114000 | 0.4028 | - |
747
+ | 1.9843 | 114500 | 0.4011 | - |
748
+ | 1.9929 | 115000 | 0.3929 | - |
749
+ | 2.0 | 115408 | - | 0.4604 |
750
+
751
+ </details>
752
+
753
+ ### Framework Versions
754
+ - Python: 3.10.13
755
+ - Sentence Transformers: 3.0.1
756
+ - Transformers: 4.44.2
757
+ - PyTorch: 2.2.1
758
+ - Accelerate: 0.33.0
759
+ - Datasets: 2.21.0
760
+ - Tokenizers: 0.19.1
761
+
762
+ ## Citation
763
+
764
+ ### BibTeX
765
+
766
+ #### Sentence Transformers
767
+ ```bibtex
768
+ @inproceedings{reimers-2019-sentence-bert,
769
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
770
+ author = "Reimers, Nils and Gurevych, Iryna",
771
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
772
+ month = "11",
773
+ year = "2019",
774
+ publisher = "Association for Computational Linguistics",
775
+ url = "https://arxiv.org/abs/1908.10084",
776
+ }
777
+ ```
778
+
779
+ <!--
780
+ ## Glossary
781
+
782
+ *Clearly define terms in order to be accessible across audiences.*
783
+ -->
784
+
785
+ <!--
786
+ ## Model Card Authors
787
+
788
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
789
+ -->
790
+
791
+ <!--
792
+ ## Model Card Contact
793
+
794
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
795
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "uitnlp/CafeBERT",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 4096,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 16,
19
+ "num_hidden_layers": 24,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.44.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.44.2",
5
+ "pytorch": "2.2.1"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:1a17b7895ea971f70f8aa8f23f7655562617a06a8b635d53931ff078e8b572ed
3
+ size 2239607176
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Dense",
18
+ "type": "sentence_transformers.models.Dense"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
sentencepiece.bpe.model ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:cfc8146abe2a0488e9e2a0c56de7952f7c11ab059eca145a0a727afce0db2865
3
+ size 5069051
special_tokens_map.json ADDED
@@ -0,0 +1,15 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": "<s>",
3
+ "cls_token": "<s>",
4
+ "eos_token": "</s>",
5
+ "mask_token": {
6
+ "content": "<mask>",
7
+ "lstrip": true,
8
+ "normalized": false,
9
+ "rstrip": false,
10
+ "single_word": false
11
+ },
12
+ "pad_token": "<pad>",
13
+ "sep_token": "</s>",
14
+ "unk_token": "<unk>"
15
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:4f8ffef5c9a66e45626d0b977d667d9370d9421e52ad49ce7016c8ab7ce8dab8
3
+ size 17098504
tokenizer_config.json ADDED
@@ -0,0 +1,55 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "sp_model_kwargs": {},
53
+ "tokenizer_class": "XLMRobertaTokenizer",
54
+ "unk_token": "<unk>"
55
+ }