Update app.py
Browse files
app.py
CHANGED
|
@@ -3,7 +3,7 @@ from transformers import AutoTokenizer, AutoModelForCausalLM
|
|
| 3 |
import gradio as gr
|
| 4 |
|
| 5 |
# Modellname und Hugging Face Token
|
| 6 |
-
model_name = "
|
| 7 |
hf_token = os.getenv("HF_TOKEN") # Token sicher aus den Secrets laden
|
| 8 |
|
| 9 |
# Tokenizer und Modell laden
|
|
@@ -26,8 +26,8 @@ interface = gr.Interface(
|
|
| 26 |
fn=generate_response,
|
| 27 |
inputs="text",
|
| 28 |
outputs="text",
|
| 29 |
-
title="
|
| 30 |
-
description="Gib einen Text ein, und das Modell generiert eine Antwort basierend auf LLaMA 3.2
|
| 31 |
)
|
| 32 |
|
| 33 |
# App starten
|
|
|
|
| 3 |
import gradio as gr
|
| 4 |
|
| 5 |
# Modellname und Hugging Face Token
|
| 6 |
+
model_name = "bartowski/Llama-3.2-3B-Instruct-uncensored-GGUF"
|
| 7 |
hf_token = os.getenv("HF_TOKEN") # Token sicher aus den Secrets laden
|
| 8 |
|
| 9 |
# Tokenizer und Modell laden
|
|
|
|
| 26 |
fn=generate_response,
|
| 27 |
inputs="text",
|
| 28 |
outputs="text",
|
| 29 |
+
title="LLaMA 3.2 3B Instruct Uncensored",
|
| 30 |
+
description="Gib einen Text ein, und das Modell generiert eine Antwort basierend auf LLaMA 3.2 3B Instruct Uncensored."
|
| 31 |
)
|
| 32 |
|
| 33 |
# App starten
|