From 07b61499c83d98c39025acafcb36d88bb5293868 Mon Sep 17 00:00:00 2001 From: zhayujie Date: Sat, 4 Mar 2023 18:10:46 +0800 Subject: [PATCH] fix: use default max_token --- model/chatgpt/chatgpt_model.py | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/model/chatgpt/chatgpt_model.py b/model/chatgpt/chatgpt_model.py index 150c2b8..f67739a 100644 --- a/model/chatgpt/chatgpt_model.py +++ b/model/chatgpt/chatgpt_model.py @@ -76,7 +76,7 @@ class ChatGPTModel(Model): model="text-davinci-003", # 对话模型的名称 prompt=new_query, temperature=0.9, # 值在[0,1]之间,越大表示回复越具有不确定性 - max_tokens=4096, # 回复最大的字符数 + #max_tokens=4096, # 回复最大的字符数 top_p=1, frequency_penalty=0.0, # [-2,2]之间,该值越大则更倾向于产生不同的内容 presence_penalty=0.0, # [-2,2]之间,该值越大则更倾向于产生不同的内容