Spaces:
Running
Running
cryptocalypse
commited on
Commit
•
bdaa284
1
Parent(s):
081792c
Update gen.py
Browse files
gen.py
CHANGED
@@ -6,6 +6,7 @@ import sys
|
|
6 |
# Cargar el pipeline de generación de texto
|
7 |
pipe = pipeline("text-generation", model="HuggingFaceH4/zephyr-7b-alpha", torch_dtype=torch.bfloat16, device_map="auto")
|
8 |
|
|
|
9 |
# Definir el prompt para generar un JSON con eventos anidados
|
10 |
prompt = (
|
11 |
"Genera un JSON que describa una serie de eventos consecutivos en un formato similar al siguiente:\n\n"
|
@@ -148,7 +149,16 @@ prompt = (
|
|
148 |
|
149 |
def generate(event):
|
150 |
# Generar el texto usando el modelo
|
151 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
152 |
|
153 |
# Imprimir la salida generada
|
154 |
return outputs
|
|
|
6 |
# Cargar el pipeline de generación de texto
|
7 |
pipe = pipeline("text-generation", model="HuggingFaceH4/zephyr-7b-alpha", torch_dtype=torch.bfloat16, device_map="auto")
|
8 |
|
9 |
+
|
10 |
# Definir el prompt para generar un JSON con eventos anidados
|
11 |
prompt = (
|
12 |
"Genera un JSON que describa una serie de eventos consecutivos en un formato similar al siguiente:\n\n"
|
|
|
149 |
|
150 |
def generate(event):
|
151 |
# Generar el texto usando el modelo
|
152 |
+
# We use the tokenizer's chat template to format each message - see https://huggingface.co/docs/transformers/main/en/chat_templating
|
153 |
+
messages = [
|
154 |
+
{
|
155 |
+
"role": "system",
|
156 |
+
"content": prompt,
|
157 |
+
},
|
158 |
+
{"role": "user", "content": event},
|
159 |
+
]
|
160 |
+
prompt_tuned = pipe.tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
|
161 |
+
outputs = pipe(prompt_tuned, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
|
162 |
|
163 |
# Imprimir la salida generada
|
164 |
return outputs
|