File size: 1,434 Bytes
10e91e5
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
#!/bin/bash

MODEL_NAME=shakespeare
TRAIN_DATA=$HOME/scratch/shakespeare.txt
VOCAB=$HOME/.ai/models/ggml-vocab.bin

LLAMA_CTX=256
LLAMA_EMBD=256
LLAMA_HEAD=32
LLAMA_LAYER=24
LLAMA_BATCH=16

MODEL_OUT=$HOME/.ai/models/llama/ggml-${MODEL_NAME}-${LLAMA_CTX}-${LLAMA_EMBD}x${LLAMA_HEAD}x${LLAMA_LAYER}-f32.bin
CHECKPOINT=$HOME/.ai/training/chk-${MODEL_NAME}-${LLAMA_CTX}-${LLAMA_EMBD}x${LLAMA_HEAD}x${LLAMA_LAYER}.bin

function train() {
    time ~/Work/llama.cpp/build/bin/train-text-from-scratch \
        --train-data "$TRAIN_DATA" \
        --model-out "$MODEL_OUT" \
        --checkpoint-in "$CHECKPOINT" \
        --checkpoint-out "$CHECKPOINT" \
        --vocab-model "$VOCAB" \
        --ctx $LLAMA_CTX \
        --embd $LLAMA_EMBD \
        --head $LLAMA_HEAD \
        --layer $LLAMA_LAYER \
        --batch $LLAMA_BATCH \
        --examples 128 \
        --rotmax 128 \
        --seed 1 \
        --adam-iter 16 \
        --print-details-interval 0 \
        --predict 16 \
        --use-flash \
        --threads 6
}

function print_params() {
    echo "TRAIN_DATA: $TRAIN_DATA"
    echo "CTX: $LLAMA_CTX"
    echo "EMBD: $LLAMA_EMBD"
    echo "HEAD: $LLAMA_HEAD"
    echo "LAYER: $LLAMA_LAYER"
    echo "BATCH: $LLAMA_BATCH"
    echo
    echo "$HOME/Work/llama.cpp/build/bin/main --temp 0.05 --top_k 70 --top_p 0.79 -m $MODEL_OUT --repeat-penalty 1.3"
}

function main() {
    print_params
    train
    print_params
}

main