nova-betterchat/public/locales/ru/model.json

29 lines
2.8 KiB
JSON
Raw Normal View History

{
"configuration": "Конфигурация",
"model": "Модель",
"token": {
"label": "Макс. токенов",
"description": "Максимальное количество токенов для генерации в чате. Общая длина входных токенов и сгенерированных токенов ограничена контекстной длиной модели."
},
"default": "По умолчанию",
"temperature": {
"label": "Температура",
"description": "Значение температуры выборки от 0 до 2. Более высокие значения, например 0.8, сделают выходной результат более случайным, в то время как более низкие значения, например 0.2, более фокусированными и детерминированными. Мы обычно рекомендуем изменять это или top-p, но не оба. (По умолчанию: 1)"
},
"presencePenalty": {
"label": "Штраф за присутствие",
"description": "Число от -2.0 до 2.0. Положительные значения штрафуют новые токены на основе их появления в тексте до этого момента, увеличивая вероятность перехода модели к новым темам. (По умолчанию: 0)"
},
"topP": {
"label": "Top-p",
"description": "Число от 0 до 1. Альтернатива выборке с температурой, называемая выборка ядра, при которой модель учитывает результаты токенов с верхним p вероятностных масс. Так, значение 0.1 означает, что рассматриваются только токены, составляющие верхние 10% вероятностной массы. Мы обычно рекомендуем изменять это или температуру, но не оба. (По умолчанию: 1)"
},
"frequencyPenalty": {
"label": "Штраф за частоту",
"description": "Число от -2.0 до 2.0. Положительные значения штрафуют новые токены на основе их имеющейся частоты в тексте на данный момент, уменьшая вероятность повторения той же строки дословно. (По умолчанию: 0)"
},
"defaultChatConfig": "Конфигурация чата по умолчанию",
"defaultSystemMessage": "Системное сообщение по умолчанию",
"resetToDefault": "Восстановить значения по умолчанию"
}