prompt, cfg changes (#4)
Browse files- prompt, cfg changes (0c085b66459c56b20def16bcea2f9b38fe497c69)
Co-authored-by: Aksenov Andrei <[email protected]>
app.py
CHANGED
|
@@ -16,13 +16,12 @@ YANDEX_FOLDER_ID= os.getenv("YANDEX_FOLDER_ID")
|
|
| 16 |
if not all([ADAPTER_ID, YANDEX_API_KEY, YANDEX_FOLDER_ID]):
|
| 17 |
raise ValueError("Необходимо установить переменные окружения: ADAPTER_ID, YANDEX_API_KEY, YANDEX_FOLDER_ID")
|
| 18 |
|
| 19 |
-
MAX_NEW_TOKENS
|
| 20 |
-
TEMPERATURE =
|
| 21 |
TOP_P = 0.9
|
| 22 |
REPETITION_PENALTY = 1.05
|
| 23 |
|
| 24 |
-
SYS_PROMPT_TT = ("Син-цифрлы ярдәмче (ир-ат нәселе). Сине Сбербанк дирекциясенең ESG да уйлап таптылар. Син барлык өлкәләрдә
|
| 25 |
-
)
|
| 26 |
|
| 27 |
print("Загрузка модели с 4-битной квантизацией...")
|
| 28 |
quantization_config = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_compute_dtype=torch.bfloat16)
|
|
@@ -87,7 +86,7 @@ def generate_tt_reply_stream(messages: List[Dict[str, str]]) -> Iterator[str]:
|
|
| 87 |
**enc,
|
| 88 |
streamer=streamer,
|
| 89 |
max_new_tokens=MAX_NEW_TOKENS,
|
| 90 |
-
do_sample=
|
| 91 |
temperature=TEMPERATURE,
|
| 92 |
top_p=TOP_P,
|
| 93 |
repetition_penalty=REPETITION_PENALTY,
|
|
@@ -117,7 +116,7 @@ def chat_fn(message: str, ui_history: list, messages_state: List[Dict[str, str]]
|
|
| 117 |
|
| 118 |
last = ""
|
| 119 |
for partial in generate_tt_reply_stream(messages):
|
| 120 |
-
last = partial
|
| 121 |
ui_history[-1][1] = partial
|
| 122 |
yield ui_history, messages_state + [
|
| 123 |
{"role": "user", "content": user_tt},
|
|
|
|
| 16 |
if not all([ADAPTER_ID, YANDEX_API_KEY, YANDEX_FOLDER_ID]):
|
| 17 |
raise ValueError("Необходимо установить переменные окружения: ADAPTER_ID, YANDEX_API_KEY, YANDEX_FOLDER_ID")
|
| 18 |
|
| 19 |
+
MAX_NEW_TOKENS = 2048
|
| 20 |
+
TEMPERATURE = 1
|
| 21 |
TOP_P = 0.9
|
| 22 |
REPETITION_PENALTY = 1.05
|
| 23 |
|
| 24 |
+
SYS_PROMPT_TT = ("Син-цифрлы ярдәмче (ир-ат нәселе). Сине Сбербанк дирекциясенең ESG да уйлап таптылар. Син барлык өлкәләрдә, бигрәк тә Татарстанга кагылышлы өлкәләрдә кызыклы кулланучы эксперты! Ул сезгә бик күп сораулар бирәчәк, ә сезнең эшегез-шәрехләр бирү, кулланучының сорауларына җавап бирү, адымлап киңәшләр, мисаллар бирү һәм, кирәк булганда, кулланучыга аныклаучы сораулар бирү.")
|
|
|
|
| 25 |
|
| 26 |
print("Загрузка модели с 4-битной квантизацией...")
|
| 27 |
quantization_config = BitsAndBytesConfig(load_in_4bit=True, bnb_4bit_compute_dtype=torch.bfloat16)
|
|
|
|
| 86 |
**enc,
|
| 87 |
streamer=streamer,
|
| 88 |
max_new_tokens=MAX_NEW_TOKENS,
|
| 89 |
+
do_sample=True,
|
| 90 |
temperature=TEMPERATURE,
|
| 91 |
top_p=TOP_P,
|
| 92 |
repetition_penalty=REPETITION_PENALTY,
|
|
|
|
| 116 |
|
| 117 |
last = ""
|
| 118 |
for partial in generate_tt_reply_stream(messages):
|
| 119 |
+
last = partial
|
| 120 |
ui_history[-1][1] = partial
|
| 121 |
yield ui_history, messages_state + [
|
| 122 |
{"role": "user", "content": user_tt},
|