Gabriel-Lino-Garcia commited on
Commit
56549c6
1 Parent(s): 6a0cbfe

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +44 -0
README.md CHANGED
@@ -1,3 +1,47 @@
1
  ---
2
  license: mit
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: mit
3
+ language:
4
+ - pt
5
+ - en
6
+ metrics:
7
+ - accuracy
8
+ - f1
9
+ - precision
10
+ - recall
11
+ pipeline_tag: text-generation
12
+ tags:
13
+ - LLM
14
+ - Portuguese
15
+ - Bode
16
+ - Alpaca
17
+ - Llama 2
18
+ - Q&A
19
  ---
20
+
21
+ # BODE
22
+
23
+ Bode é um modelo de linguagem (LLM) para o português desenvolvido a partir do modelo Llama 2 por meio de fine-tuning no dataset Alpaca. Este modelo é projetado para tarefas de processamento de linguagem natural em português, como geração de texto, tradução automática, resumo de texto e muito mais.
24
+
25
+ ## Detalhes do Modelo
26
+
27
+ - **Modelo Base:** Llama 2
28
+ - **Dataset de Treinamento:** Alpaca
29
+ - **Idioma:** Português
30
+
31
+ ## Uso
32
+
33
+ Você pode usar o Bode facilmente com a biblioteca Transformers do HuggingFace. Aqui está um exemplo simples de como carregar o modelo e gerar texto:
34
+
35
+ ```python
36
+ from transformers import AutoModelForCausalLM, AutoTokenizer
37
+
38
+ model_name = "recogna-nlp/bode-7b-alpaca-pt-br"
39
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
40
+ model = AutoModelForCausalLM.from_pretrained(model_name)
41
+
42
+ input_text = "Bode é um modelo de linguagem muito eficiente para o português."
43
+ input_ids = tokenizer.encode(input_text, return_tensors="pt")
44
+ output = model.generate(input_ids, max_length=50, num_return_sequences=1)
45
+
46
+ generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
47
+ print(generated_text)