nova-betterchat/public/locales/zh-HK/model.json

29 lines
1.8 KiB
JSON
Raw Normal View History

{
"configuration": "配置",
"model": "模型",
"token": {
"label": "最大 Token",
2023-03-20 10:23:36 +01:00
"description": "控制助手嘅一條 msg 最多可以 gen 幾多 token。最大 token 數仲受到模型總長度嘅限制,上文嘅 token 數同生成嘅 token 數加埋一齊唔可以超過模型嘅 token 總數(譬如 gpt-3.5-turbo 嘅 token 總數係 4096。"
},
"default": "預設",
"temperature": {
"label": "採樣温度",
2023-03-20 10:23:36 +01:00
"description": "係一個 0 到 2 之間嘅數值。較高嘅數值如 0.8 會令到輸出更加隨機,而較低嘅數值如 0.2 會令到輸出更加集中同確定。通常建議修改呢個引數或者 Top-p但係唔好同時修改兩者。(預設: 1)"
},
"presencePenalty": {
"label": "存在懲罰",
"description": "係一個 -2.0 到 2.0 之間嘅數值。正嘅數值表示,如果某個 token 已經出現喺文字當中,輸出嗰陣就會懲罰佢,令到佢被揀中嘅機率降低,即係可以增加模型講新話題嘅機會。 (預設: 0)"
},
"topP": {
"label": "Top-p",
2023-03-20 10:23:36 +01:00
"description": "係一個 0 到 1 之間嘅數值。喺核採樣(根據温度採樣嘅一種替代方法)入面,採樣嗰陣會由機率最高嗰啲 token 當中揀0.1 表示僅考慮機率求和達到 10% 嘅 token。通常建議修改呢個引數或採樣温度但唔好同時修改兩者。(預設: 1)"
},
"frequencyPenalty": {
"label": "頻率懲罰",
"description": "係一個 -2.0 到 2.0 之間嘅數值。正嘅數值表示,如果 token 喺之前嘅文字中出現頻率越高,輸出嗰陣就會越大力噉懲罰佢,令到佢被揀中嘅機率降低,即係可以降低模型重複同一句説話嘅機會。(預設: 0)"
},
2023-03-20 10:23:36 +01:00
"defaultChatConfig": "預設傾偈配置",
"defaultSystemMessage": "預設系統消息",
"resetToDefault": "重置為預設"
}