cryptocalypse commited on
Commit
bdaa284
1 Parent(s): 081792c

Update gen.py

Browse files
Files changed (1) hide show
  1. gen.py +11 -1
gen.py CHANGED
@@ -6,6 +6,7 @@ import sys
6
  # Cargar el pipeline de generación de texto
7
  pipe = pipeline("text-generation", model="HuggingFaceH4/zephyr-7b-alpha", torch_dtype=torch.bfloat16, device_map="auto")
8
 
 
9
  # Definir el prompt para generar un JSON con eventos anidados
10
  prompt = (
11
  "Genera un JSON que describa una serie de eventos consecutivos en un formato similar al siguiente:\n\n"
@@ -148,7 +149,16 @@ prompt = (
148
 
149
  def generate(event):
150
  # Generar el texto usando el modelo
151
- outputs = pipe(prompt+" "+event, max_new_tokens=512, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
 
 
 
 
 
 
 
 
 
152
 
153
  # Imprimir la salida generada
154
  return outputs
 
6
  # Cargar el pipeline de generación de texto
7
  pipe = pipeline("text-generation", model="HuggingFaceH4/zephyr-7b-alpha", torch_dtype=torch.bfloat16, device_map="auto")
8
 
9
+
10
  # Definir el prompt para generar un JSON con eventos anidados
11
  prompt = (
12
  "Genera un JSON que describa una serie de eventos consecutivos en un formato similar al siguiente:\n\n"
 
149
 
150
  def generate(event):
151
  # Generar el texto usando el modelo
152
+ # We use the tokenizer's chat template to format each message - see https://huggingface.co/docs/transformers/main/en/chat_templating
153
+ messages = [
154
+ {
155
+ "role": "system",
156
+ "content": prompt,
157
+ },
158
+ {"role": "user", "content": event},
159
+ ]
160
+ prompt_tuned = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
161
+ outputs = pipe(prompt_tuned, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
162
 
163
  # Imprimir la salida generada
164
  return outputs