openai(chatGPT)部分返回值的解释

openai 文章 2023-02-21 13:29 0 全屏看文
max_tokens输出最大字符(中文占两个字符)
temperature使用什么取样温度,0到2之间。较高的值(如0.8)将使输出更加随机,而较低的值(如0.2)将使输出更加集中和确定。
top_p

使用温度采样的替代方法称为核心采样,其中模型考虑具有top_p概率质量的令牌的结果。因此,0.1 意味着只考虑包含前 10% 概率质量的token。


我们通常建议更改此设置,但不要同时更改两者。temperature

n为每个提示生成的完成次数。

user

用户唯一值,确保接口不被重复调用

suffix

完成输出后的后缀,用于格式化输出结果



-EOF-