nova-betterchat/public/locales/nb/model.json
2023-03-22 16:15:11 +09:30

29 lines
1.8 KiB
JSON

{
"configuration": "Konfigurasjon",
"model": "Modell",
"token": {
"label": "Maks Token",
"description": "Maksimalt antall tokens som skal genereres i chat fullføringen. Den totale lengden av inndata-tokens og genererte tokens er begrenset av modellens kontekstlengde."
},
"default": "Standard",
"temperature": {
"label": "Temperatur",
"description": "Hvilken prøvetakingstemperatur du skal bruke, mellom 0 og 2. Høyere verdier som 0,8 vil gjøre utdataene mer tilfeldige, mens lavere verdier som 0,2 vil gjøre dem mer fokuserte og deterministiske. Vi anbefaler generelt å endre dette eller topp-p, men ikke begge. (Standard: 1)"
},
"presencePenalty": {
"label": "Tilstedeværelsesstraff",
"description": "Tall mellom -2,0 og 2,0. Positive verdier straffer nye tokens basert på om de vises i teksten så langt, noe som øker modellens sannsynlighet for å snakke om nye emner. (Standard: 0)"
},
"topP": {
"label": "Topp-p",
"description": "Tall mellom 0 og 1. Et alternativ til prøvetaking med temperatur, kalt kjernesampling, der modellen vurderer resultatene av tokens med topp-p sannsynlighetsmasse. Så 0,1 betyr at bare tokens som utgjør de øverste 10% sannsynlighetsmassene blir vurdert. Vi anbefaler generelt å endre dette eller temperaturen, men ikke begge. (Standard: 1)"
},
"frequencyPenalty": {
"label": "Frekvensstraff",
"description": "Tall mellom -2,0 og 2,0. Positive verdier straffer nye tokens basert på deres eksisterende frekvens i teksten så langt, noe som reduserer modellens sannsynlighet for å gjenta samme linje ordrett. (Standard: 0)"
},
"defaultChatConfig": "Standard Chat-konfigurasjon",
"defaultSystemMessage": "Standard Systemmelding",
"resetToDefault": "Tilbakestill til standard"
}