nova-betterchat/public/locales/zh-HK/model.json
2023-03-20 18:53:36 +09:30

29 lines
1.8 KiB
JSON
Raw Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

{
"configuration": "配置",
"model": "模型",
"token": {
"label": "最大 Token",
"description": "控制助手嘅一條 msg 最多可以 gen 幾多 token。最大 token 數仲受到模型總長度嘅限制,上文嘅 token 數同生成嘅 token 數加埋一齊唔可以超過模型嘅 token 總數(譬如 gpt-3.5-turbo 嘅 token 總數係 4096。"
},
"default": "預設",
"temperature": {
"label": "採樣温度",
"description": "係一個 0 到 2 之間嘅數值。較高嘅數值如 0.8 會令到輸出更加隨機,而較低嘅數值如 0.2 會令到輸出更加集中同確定。通常建議修改呢個引數或者 Top-p但係唔好同時修改兩者。(預設: 1)"
},
"presencePenalty": {
"label": "存在懲罰",
"description": "係一個 -2.0 到 2.0 之間嘅數值。正嘅數值表示,如果某個 token 已經出現喺文字當中,輸出嗰陣就會懲罰佢,令到佢被揀中嘅機率降低,即係可以增加模型講新話題嘅機會。 (預設: 0)"
},
"topP": {
"label": "Top-p",
"description": "係一個 0 到 1 之間嘅數值。喺核採樣(根據温度採樣嘅一種替代方法)入面,採樣嗰陣會由機率最高嗰啲 token 當中揀0.1 表示僅考慮機率求和達到 10% 嘅 token。通常建議修改呢個引數或採樣温度但唔好同時修改兩者。(預設: 1)"
},
"frequencyPenalty": {
"label": "頻率懲罰",
"description": "係一個 -2.0 到 2.0 之間嘅數值。正嘅數值表示,如果 token 喺之前嘅文字中出現頻率越高,輸出嗰陣就會越大力噉懲罰佢,令到佢被揀中嘅機率降低,即係可以降低模型重複同一句説話嘅機會。(預設: 0)"
},
"defaultChatConfig": "預設傾偈配置",
"defaultSystemMessage": "預設系統消息",
"resetToDefault": "重置為預設"
}