martianband1t commited on
Commit
d667c6f
1 Parent(s): f0cd4d5

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -23
app.py CHANGED
@@ -1,38 +1,22 @@
1
  import streamlit as st
2
  import openai
3
- from transformers import AutoModelForCausalLM, AutoTokenizer
4
- import torch
5
 
6
  # Configuration de l'API OpenAI
7
  openai.api_key = 'VOTRE_CLE_API_OPENAI'
8
 
9
- # Chargement du modèle et du tokenizer de Hugging Face
10
- model_name = "meta-llama/Meta-Llama-3.1-405B-Instruct" # Vous pouvez remplacer par un autre modèle de Hugging Face si besoin
11
- model = AutoModelForCausalLM.from_pretrained(model_name)
12
- tokenizer = AutoTokenizer.from_pretrained(model_name)
13
-
14
  # Fonction pour générer une réponse à partir du modèle OpenAI
15
  def generate_openai_response(prompt):
16
  response = openai.Completion.create(
17
- model="text-davinci-003", # Assurez-vous d'utiliser le modèle correct ici
18
  prompt=prompt,
19
  max_tokens=150,
20
  temperature=0.7
21
  )
22
  return response.choices[0].text.strip()
23
 
24
- # Fonction pour générer une réponse à partir du modèle Hugging Face
25
- def generate_huggingface_response(prompt):
26
- inputs = tokenizer(prompt, return_tensors="pt")
27
- outputs = model.generate(inputs.input_ids, max_length=150, num_return_sequences=1)
28
- return tokenizer.decode(outputs[0], skip_special_tokens=True)
29
-
30
  # Interface utilisateur avec Streamlit
31
- st.title("Chatbot avec OpenAI et Hugging Face")
32
- st.write("Ce chatbot utilise les modèles de OpenAI et Hugging Face pour répondre à vos questions.")
33
-
34
- # Sélection du modèle à utiliser
35
- model_option = st.selectbox("Choisissez le modèle à utiliser:", ("OpenAI GPT-4", "Hugging Face GPT-2"))
36
 
37
  # Entrée utilisateur
38
  user_input = st.text_area("Vous:", "")
@@ -40,10 +24,7 @@ user_input = st.text_area("Vous:", "")
40
  if st.button("Envoyer"):
41
  if user_input:
42
  with st.spinner("Génération de la réponse..."):
43
- if model_option == "OpenAI GPT-3":
44
- response = generate_openai_response(user_input)
45
- else:
46
- response = generate_huggingface_response(user_input)
47
  st.write("Chatbot:", response)
48
  else:
49
  st.warning("Veuillez entrer une question ou un message.")
 
1
  import streamlit as st
2
  import openai
 
 
3
 
4
  # Configuration de l'API OpenAI
5
  openai.api_key = 'VOTRE_CLE_API_OPENAI'
6
 
 
 
 
 
 
7
  # Fonction pour générer une réponse à partir du modèle OpenAI
8
  def generate_openai_response(prompt):
9
  response = openai.Completion.create(
10
+ model="text-davinci-003", # Vous pouvez remplacer par un autre modèle d'OpenAI si besoin
11
  prompt=prompt,
12
  max_tokens=150,
13
  temperature=0.7
14
  )
15
  return response.choices[0].text.strip()
16
 
 
 
 
 
 
 
17
  # Interface utilisateur avec Streamlit
18
+ st.title("Chatbot avec OpenAI")
19
+ st.write("Ce chatbot utilise le modèle OpenAI pour répondre à vos questions.")
 
 
 
20
 
21
  # Entrée utilisateur
22
  user_input = st.text_area("Vous:", "")
 
24
  if st.button("Envoyer"):
25
  if user_input:
26
  with st.spinner("Génération de la réponse..."):
27
+ response = generate_openai_response(user_input)
 
 
 
28
  st.write("Chatbot:", response)
29
  else:
30
  st.warning("Veuillez entrer une question ou un message.")