Update README.md
Browse files
README.md
CHANGED
@@ -12,4 +12,47 @@ language:
|
|
12 |
library_name: transformers
|
13 |
tags:
|
14 |
- roleplay
|
15 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
12 |
library_name: transformers
|
13 |
tags:
|
14 |
- roleplay
|
15 |
+
base_model:
|
16 |
+
- Local-Novel-LLM-project/Ninja-v1-NSFW
|
17 |
+
---
|
18 |
+
|
19 |
+
# Ninja-v1-RP-WIP
|
20 |
+
|
21 |
+
## 概要
|
22 |
+
[Local-Novel-LLM-project/Ninja-v1-NSFW](https://huggingface.co/Local-Novel-LLM-project/Ninja-v1-NSFW)をロールプレイ用にLoRAでファインチューニングしたモデルです。
|
23 |
+
|
24 |
+
[Aratako/Ninja-v1-RP](https://huggingface.co/Aratako/Ninja-v1-RP)のベースとなるモデルとして利用しています。
|
25 |
+
|
26 |
+
## プロンプトフォーマット
|
27 |
+
Vicunaのchat templateを利用してください。また、設定などを渡すシステムプロンプトは最初の`USER: `より前に入力されることを想定しています。
|
28 |
+
|
29 |
+
また、マルチターンの対話を行う場合各ターンのアシスタントの応答の末尾に`eos_token`を必ずつけてください。
|
30 |
+
|
31 |
+
```
|
32 |
+
{ロールプレイの指示、世界観・あらすじの説明、キャラの設定など}
|
33 |
+
USER: {userの最初の入力}
|
34 |
+
ASSISTANT:
|
35 |
+
```
|
36 |
+
|
37 |
+
## 学習データセット
|
38 |
+
GPTやLlama2等の出力の学習利用時に問題があるモデルを使って作成されたデータセットは一切使っていません。
|
39 |
+
|
40 |
+
### 日本語データセット
|
41 |
+
- [Aratako/Rosebleu-1on1-Dialogues-RP](https://huggingface.co/datasets/Aratako/Rosebleu-1on1-Dialogues-RP)
|
42 |
+
- [Aratako/LimaRP-augmented-ja-karakuri](https://huggingface.co/datasets/Aratako/LimaRP-augmented-ja-karakuri)
|
43 |
+
- [Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja](https://huggingface.co/datasets/Aratako/Bluemoon_Top50MB_Sorted_Fixed_ja)
|
44 |
+
- [OmniAICreator/Japanese-Roleplay](https://huggingface.co/datasets/OmniAICreator/Japanese-Roleplay)
|
45 |
+
### 英語データセット
|
46 |
+
- [grimulkan/LimaRP-augmented](https://huggingface.co/datasets/grimulkan/LimaRP-augmented)
|
47 |
+
- [SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed](https://huggingface.co/datasets/SicariusSicariiStuff/Bluemoon_Top50MB_Sorted_Fixed)
|
48 |
+
|
49 |
+
## 学習の設定
|
50 |
+
RunpodでGPUサーバを借り、A6000x4で学習を行いました。主な学習パラメータは以下の通りです。
|
51 |
+
- lora_r: 128
|
52 |
+
- lisa_alpha: 256
|
53 |
+
- lora_dropout: 0.05
|
54 |
+
- lora_target_modules: ["q_proj", "k_proj", "v_proj", "o_proj", "gate_proj", "up_proj", "down_proj", "lm_head"]
|
55 |
+
- learning_rate: 2e-5
|
56 |
+
- num_train_epochs: 3 epochs
|
57 |
+
- batch_size: 64
|
58 |
+
- max_seq_length: 4096
|