-
Notifications
You must be signed in to change notification settings - Fork 82
/
config.json
215 lines (209 loc) · 28.4 KB
/
config.json
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
{
"noInstanceSelected": "Не вибрано екземпляр моделі",
"resetToDefault": "Скинути",
"showAdvancedSettings": "Показати розширені налаштування",
"showAll": "Усі",
"basicSettings": "Основні",
"configSubtitle": "Завантажте або збережіть пресети та експериментуйте з перевизначеннями параметрів моделі",
"inferenceParameters/title": "Параметри передбачення",
"inferenceParameters/info": "Експериментуйте з параметрами, які впливають на передбачення.",
"generalParameters/title": "Загальні",
"samplingParameters/title": "Семплінг",
"basicTab": "Основні",
"advancedTab": "Розширені",
"advancedTab/title": "🧪 Розширена конфігурація",
"advancedTab/expandAll": "Розгорнути все",
"advancedTab/overridesTitle": "Перевизначення конфігурації",
"advancedTab/noConfigsText": "У вас немає незбережених змін - відредагуйте значення вище, щоб побачити перевизначення тут.",
"loadInstanceFirst": "Завантажте модель, щоб переглянути налаштовувані параметри",
"noListedConfigs": "Немає налаштовуваних параметрів",
"generationParameters/info": "Експериментуйте з базовими параметрами, які впливають на генерацію тексту.",
"loadParameters/title": "Параметри завантаження",
"loadParameters/description": "Налаштування для контролю способу ініціалізації та завантаження моделі в пам'ять.",
"loadParameters/reload": "Перезавантажте, щоб застосувати зміни",
"discardChanges": "Відхилити зміни",
"llm.prediction.systemPrompt/title": "Системна підказка",
"llm.prediction.systemPrompt/description": "Використовуйте це поле для надання фонових інструкцій моделі, таких як набір правил, обмежень або загальних вимог. Це поле також часто називають \"системною підказкою\".",
"llm.prediction.systemPrompt/subTitle": "Вказівки для ШІ",
"llm.prediction.temperature/title": "Температура",
"llm.prediction.temperature/subTitle": "Скільки випадковості додати. 0 дасть однаковий результат щоразу, тоді як вищі значення збільшать креативність і варіативність",
"llm.prediction.temperature/info": "З документації llama.cpp: \"Значення за замовчуванням <{{dynamicValue}}> забезпечує баланс між випадковістю та детермінізмом. У крайньому випадку температура 0 завжди вибиратиме найбільш ймовірний наступний токен, що призводить до однакових результатів при кожному запуску\"",
"llm.prediction.llama.sampling/title": "Семплінг",
"llm.prediction.topKSampling/title": "Top K семплінг",
"llm.prediction.topKSampling/subTitle": "Обмежує наступний токен одним із top-k найбільш ймовірних токенів. Діє подібно до температури",
"llm.prediction.topKSampling/info": "З документації llama.cpp:\n\nTop-k семплінг - це метод генерації тексту, який вибирає наступний токен тільки з top-k найбільш ймовірних токенів, передбачених моделлю.\n\nЦе допомагає зменшити ризик генерації малоймовірних або безглуздих токенів, але також може обмежити різноманітність виводу.\n\nВище значення для top-k (наприклад, 100) розглядатиме більше токенів і призведе до більш різноманітного тексту, тоді як нижче значення (наприклад, 10) зосередиться на найбільш ймовірних токенах і генеруватиме більш консервативний текст.\n\n• Значення за замовчуванням <{{dynamicValue}}>",
"llm.prediction.llama.cpuThreads/title": "Потоки CPU",
"llm.prediction.llama.cpuThreads/subTitle": "Кількість потоків CPU для використання під час виведення",
"llm.prediction.llama.cpuThreads/info": "Кількість потоків для використання під час обчислень. Збільшення кількості потоків не завжди корелює з кращою продуктивністю. За замовчуванням <{{dynamicValue}}>.",
"llm.prediction.maxPredictedTokens/title": "Обмежити довжину відповіді",
"llm.prediction.maxPredictedTokens/subTitle": "Опціонально обмежити довжину відповіді ШІ",
"llm.prediction.maxPredictedTokens/info": "Контролюйте максимальну довжину відповіді чат-бота. Увімкніть, щоб встановити обмеження на максимальну довжину відповіді, або вимкніть, щоб дозволити чат-боту самому вирішувати, коли зупинитися.",
"llm.prediction.maxPredictedTokens/inputLabel": "Максимальна довжина відповіді (токени)",
"llm.prediction.maxPredictedTokens/wordEstimate": "Приблизно {{maxWords}} слів",
"llm.prediction.repeatPenalty/title": "Штраф за повторення",
"llm.prediction.repeatPenalty/subTitle": "Наскільки сильно знеохочувати повторення одного і того ж токена",
"llm.prediction.repeatPenalty/info": "З документації llama.cpp: \"Допомагає запобігти генерації моделлю повторюваного або монотонного тексту.\n\nВище значення (наприклад, 1.5) більш суворо штрафуватиме повторення, тоді як нижче значення (наприклад, 0.9) буде більш поблажливим.\" • Значення за замовчуванням <{{dynamicValue}}>",
"llm.prediction.minPSampling/title": "Min P семплінг",
"llm.prediction.minPSampling/subTitle": "Мінімальна базова ймовірність для вибору токена для виводу",
"llm.prediction.minPSampling/info": "З документації llama.cpp:\n\nМінімальна ймовірність для розгляду токена, відносно ймовірності найбільш ймовірного токена. Повинно бути в [0, 1].\n\n• Значення за замовчуванням <{{dynamicValue}}>",
"llm.prediction.topPSampling/title": "Top P семплінг",
"llm.prediction.topPSampling/subTitle": "Мінімальна кумулятивна ймовірність для можливих наступних токенів. Діє подібно до температури",
"llm.prediction.topPSampling/info": "З документації llama.cpp:\n\nTop-p семплінг, також відомий як nucleus sampling, - це ще один метод генерації тексту, який вибирає наступний токен з підмножини токенів, які разом мають кумулятивну ймовірність принаймні p.\n\nЦей метод забезпечує баланс між різноманітністю та якістю, враховуючи як ймовірності токенів, так і кількість токенів для вибірки.\n\nВище значення для top-p (наприклад, 0.95) призведе до більш різноманітного тексту, тоді як нижче значення (наприклад, 0.5) генеруватиме більш сфокусований і консервативний текст. Повинно бути в (0, 1].\n\n• Значення за замовчуванням <{{dynamicValue}}>",
"llm.prediction.stopStrings/title": "Стоп-рядки",
"llm.prediction.stopStrings/subTitle": "Рядки, які повинні зупинити модель від генерації більшої кількості токенів",
"llm.prediction.stopStrings/info": "Конкретні рядки, які при зустрічі зупинять модель від генерації більшої кількості токенів",
"llm.prediction.stopStrings/placeholder": "Введіть рядок і натисніть ⏎",
"llm.prediction.contextOverflowPolicy/title": "Переповнення розмови",
"llm.prediction.contextOverflowPolicy/subTitle": "Як модель повинна поводитися, коли розмова стає занадто великою для обробки",
"llm.prediction.contextOverflowPolicy/info": "Вирішіть, що робити, коли розмова перевищує розмір робочої пам'яті моделі ('контексту')",
"llm.prediction.llama.frequencyPenalty/title": "Штраф за частоту",
"llm.prediction.llama.presencePenalty/title": "Штраф за присутність",
"llm.prediction.llama.tailFreeSampling/title": "Tail-Free семплінг",
"llm.prediction.llama.locallyTypicalSampling/title": "Locally Typical семплінг",
"llm.prediction.onnx.topKSampling/title": "Top K семплінг",
"llm.prediction.onnx.topKSampling/subTitle": "Обмежує наступний токен одним із top-k найбільш ймовірних токенів. Діє подібно до температури",
"llm.prediction.onnx.topKSampling/info": "З документації ONNX:\n\nКількість токенів словника з найвищою ймовірністю для збереження при top-k-фільтрації\n\n• Цей фільтр за замовчуванням вимкнений",
"llm.prediction.onnx.repeatPenalty/title": "Штраф за повторення",
"llm.prediction.onnx.repeatPenalty/subTitle": "Наскільки сильно знеохочувати повторення одного і того ж токена",
"llm.prediction.onnx.repeatPenalty/info": "Вище значення знеохочує модель повторювати себе",
"llm.prediction.onnx.topPSampling/title": "Top P семплінг",
"llm.prediction.onnx.topPSampling/subTitle": "Мінімальна кумулятивна ймовірність для можливих наступних токенів. Діє подібно до температури",
"llm.prediction.onnx.topPSampling/info": "З документації ONNX:\n\nДля генерації зберігаються лише найбільш ймовірні токени з ймовірностями, що в сумі дають TopP або вище\n\n• Цей фільтр за замовчуванням вимкнений",
"llm.prediction.seed/title": "Сід",
"llm.prediction.structured/title": "Структурований вивід",
"llm.prediction.structured/info": "Структурований вивід",
"llm.prediction.promptTemplate/title": "Шаблон підказки",
"llm.prediction.promptTemplate/subTitle": "Формат, в якому повідомлення в чаті надсилаються моделі. Зміна цього може призвести до непередбачуваної поведінки - переконайтеся, що ви знаєте, що робите!",
"llm.load.contextLength/title": "Довжина контексту",
"llm.load.contextLength/subTitle": "Максимальна кількість токенів, яку модель може врахувати в одній підказці. Див. опції Переповнення розмови в \"Параметрах виведення\" для додаткових способів керування цим",
"llm.load.contextLength/info": "Визначає максимальну кількість токенів, яку модель може розглядати одночасно, впливаючи на те, скільки контексту вона зберігає під час обробки",
"llm.load.contextLength/warning": "Встановлення високого значення для довжини контексту може значно вплинути на використання пам'яті",
"llm.load.seed/title": "Сід",
"llm.load.seed/subTitle": "Сід для генератора випадкових чисел, який використовується при генерації тексту. -1 - випадковий",
"llm.load.seed/info": "Випадковий сід: Встановлює сід для генерації випадкових чисел для забезпечення відтворюваних результатів",
"llm.load.llama.evalBatchSize/title": "Розмір батчу оцінки",
"llm.load.llama.evalBatchSize/subTitle": "Кількість вхідних токенів для обробки за раз. Збільшення цього підвищує продуктивність за рахунок використання пам'яті",
"llm.load.llama.evalBatchSize/info": "Встановлює кількість прикладів, що обробляються разом в одному батчі під час оцінки, впливаючи на швидкість та використання пам'яті",
"llm.load.llama.ropeFrequencyBase/title": "Базова частота RoPE",
"llm.load.llama.ropeFrequencyBase/subTitle": "Користувацька базова частота для обертових позиційних вбудовувань (RoPE). Збільшення цього може покращити продуктивність при великих довжинах контексту",
"llm.load.llama.ropeFrequencyBase/info": "[Розширено] Налаштовує базову частоту для Rotary Positional Encoding, впливаючи на те, як вбудовується позиційна інформація",
"llm.load.llama.ropeFrequencyScale/title": "Масштаб частоти RoPE",
"llm.load.llama.ropeFrequencyScale/subTitle": "Довжина контексту масштабується цим фактором для розширення ефективного контексту за допомогою RoPE",
"llm.load.llama.ropeFrequencyScale/info": "[Розширено] Змінює масштабування частоти для Rotary Positional Encoding для контролю гранулярності позиційного кодування",
"llm.load.llama.acceleration.offloadRatio/title": "Вивантаження на GPU",
"llm.load.llama.acceleration.offloadRatio/subTitle": "Кількість дискретних шарів моделі для обчислення на GPU для прискорення GPU",
"llm.load.llama.acceleration.offloadRatio/info": "Встановіть кількість шарів для вивантаження на GPU.",
"llm.load.llama.flashAttention/title": "Flash Attention",
"llm.load.llama.flashAttention/subTitle": "Зменшує використання пам'яті та час генерації на деяких моделях",
"llm.load.llama.flashAttention/info": "Прискорює механізми уваги для швидшої та ефективнішої обробки",
"llm.load.numExperts/title": "Кількість експертів",
"llm.load.numExperts/subTitle": "Кількість експертів для використання в моделі",
"llm.load.numExperts/info": "Кількість експертів для використання в моделі",
"llm.load.llama.keepModelInMemory/title": "Тримати модель в пам'яті",
"llm.load.llama.keepModelInMemory/subTitle": "Резервувати системну пам'ять для моделі, навіть коли вона вивантажена на GPU. Покращує продуктивність, але вимагає більше системної оперативної пам'яті",
"llm.load.llama.keepModelInMemory/info": "Запобігає вивантаженню моделі на диск, забезпечуючи швидший доступ за рахунок більшого використання оперативної пам'яті",
"llm.load.llama.useFp16ForKVCache/title": "Використовувати FP16 для KV кешу",
"llm.load.llama.useFp16ForKVCache/info": "Зменшує використання пам'яті шляхом зберігання кешу в половинній точності (FP16)",
"llm.load.llama.tryMmap/title": "Спробувати mmap()",
"llm.load.llama.tryMmap/subTitle": "Покращує час завантаження моделі. Вимкнення цього може покращити продуктивність, коли модель більша за доступну системну оперативну пам'ять",
"llm.load.llama.tryMmap/info": "Завантажує файли моделі безпосередньо з диска в пам'ять",
"embedding.load.contextLength/title": "Довжина контексту",
"embedding.load.contextLength/subTitle": "Максимальна кількість токенів, яку модель може врахувати в одній підказці. Див. опції Переповнення розмови в \"Параметрах виведення\" для додаткових способів керування цим",
"embedding.load.contextLength/info": "Визначає максимальну кількість токенів, яку модель може розглядати одночасно, впливаючи на те, скільки контексту вона зберігає під час обробки",
"embedding.load.llama.ropeFrequencyBase/title": "Базова частота RoPE",
"embedding.load.llama.ropeFrequencyBase/subTitle": "Користувацька базова частота для обертових позиційних вбудовувань (RoPE). Збільшення цього може покращити продуктивність при великих довжинах контексту",
"embedding.load.llama.ropeFrequencyBase/info": "[Розширено] Налаштовує базову частоту для Rotary Positional Encoding, впливаючи на те, як вбудовується позиційна інформація",
"embedding.load.llama.evalBatchSize/title": "Розмір батчу оцінки",
"embedding.load.llama.evalBatchSize/subTitle": "Кількість вхідних токенів для обробки за раз. Збільшення цього підвищує продуктивність за рахунок використання пам'яті",
"embedding.load.llama.evalBatchSize/info": "Встановлює кількість токенів, що обробляються разом в одному батчі під час оцінки",
"embedding.load.llama.ropeFrequencyScale/title": "Масштаб частоти RoPE",
"embedding.load.llama.ropeFrequencyScale/subTitle": "Довжина контексту масштабується цим фактором для розширення ефективного контексту за допомогою RoPE",
"embedding.load.llama.ropeFrequencyScale/info": "[Розширено] Змінює масштабування частоти для Rotary Positional Encoding для контролю гранулярності позиційного кодування",
"embedding.load.llama.acceleration.offloadRatio/title": "Вивантаження на GPU",
"embedding.load.llama.acceleration.offloadRatio/subTitle": "Кількість дискретних шарів моделі для обчислення на GPU для прискорення GPU",
"embedding.load.llama.acceleration.offloadRatio/info": "Встановіть кількість шарів для вивантаження на GPU.",
"embedding.load.llama.keepModelInMemory/title": "Тримати модель в пам'яті",
"embedding.load.llama.keepModelInMemory/subTitle": "Резервувати системну пам'ять для моделі, навіть коли вона вивантажена на GPU. Покращує продуктивність, але вимагає більше системної оперативної пам'яті",
"embedding.load.llama.keepModelInMemory/info": "Запобігає вивантаженню моделі на диск, забезпечуючи швидший доступ за рахунок більшого використання оперативної пам'яті",
"embedding.load.llama.tryMmap/title": "Спробувати mmap()",
"embedding.load.llama.tryMmap/subTitle": "Покращує час завантаження моделі. Вимкнення цього може покращити продуктивність, коли модель більша за доступну системну оперативну пам'ять",
"embedding.load.llama.tryMmap/info": "Завантажує файли моделі безпосередньо з диска в пам'ять",
"embedding.load.seed/title": "Сід",
"embedding.load.seed/subTitle": "Сід для генератора випадкових чисел, який використовується при генерації тексту. -1 - випадковий сід",
"embedding.load.seed/info": "Випадковий сід: Встановлює сід для генерації випадкових чисел для забезпечення відтворюваних результатів",
"presetTooltip": {
"included/title": "Застосовується",
"included/description": "Наступні поля будуть застосовані",
"included/empty": "Жодне поле цього пресету не застосовується в цьому контексті.",
"separateLoad/title": "Конфігурація часу завантаження",
"separateLoad/description.1": "Пресет також включає наступну конфігурацію часу завантаження. Конфігурація часу завантаження є загальною для моделі і вимагає перезавантаження моделі для набуття чинності. Утримуйте",
"separateLoad/description.2": "щоб застосувати до",
"separateLoad/description.3": ".",
"excluded/title": "Виключено",
"excluded/description": "Наступні поля включені в пресет, але не застосовуються в поточному контексті.",
"legacy/title": "Застарілий пресет",
"legacy/description": "Цей пресет є застарілим. Він включає наступні поля, які тепер обробляються автоматично або більше не застосовуються."
},
"customInputs": {
"string": {
"emptyParagraph": "<Порожньо>"
},
"checkboxNumeric": {
"off": "ВИМК"
},
"stringArray": {
"empty": "<Порожньо>"
},
"llmPromptTemplate": {
"type": "Тип",
"types.jinja/label": "Jinja",
"jinja.bosToken/label": "BOS токен",
"jinja.eosToken/label": "EOS токен",
"jinja.template/label": "Шаблон",
"jinja/error": "Не вдалося розібрати шаблон Jinja: {{error}}",
"types.manual/label": "Ручний",
"manual.subfield.beforeSystem/label": "Перед системним",
"manual.subfield.beforeSystem/placeholder": "Введіть префікс системи...",
"manual.subfield.afterSystem/label": "Після системного",
"manual.subfield.afterSystem/placeholder": "Введіть суфікс системи...",
"manual.subfield.beforeUser/label": "Перед користувачем",
"manual.subfield.beforeUser/placeholder": "Введіть префікс користувача...",
"manual.subfield.afterUser/label": "Після користувача",
"manual.subfield.afterUser/placeholder": "Введіть суфікс користувача...",
"manual.subfield.beforeAssistant/label": "Перед асистентом",
"manual.subfield.beforeAssistant/placeholder": "Введіть префікс асистента...",
"manual.subfield.afterAssistant/label": "Після асистента",
"manual.subfield.afterAssistant/placeholder": "Введіть суфікс асистента...",
"stopStrings/label": "Додаткові стоп-рядки",
"stopStrings/subTitle": "Специфічні для шаблону стоп-рядки, які будуть використовуватися додатково до вказаних користувачем стоп-рядків."
},
"contextLength": {
"maxValueTooltip": "Це максимальна кількість токенів, для обробки яких була навчена модель. Натисніть, щоб встановити контекст на це значення",
"maxValueTextStart": "Модель підтримує до",
"maxValueTextEnd": "токенів",
"tooltipHint": "Хоча модель може підтримувати певну кількість токенів, продуктивність може погіршитися, якщо ресурси вашої машини не можуть впоратися з навантаженням - будьте обережні при збільшенні цього значення"
},
"contextOverflowPolicy": {
"stopAtLimit": "Зупинитися на межі",
"stopAtLimitSub": "Припинити генерацію, коли пам'ять моделі заповниться",
"truncateMiddle": "Обрізати середину",
"truncateMiddleSub": "Видаляє повідомлення з середини розмови, щоб звільнити місце для нових. Модель все ще пам'ятатиме початок розмови",
"rollingWindow": "Ковзне вікно",
"rollingWindowSub": "Модель завжди отримуватиме кілька останніх повідомлень, але може забути початок розмови"
},
"llamaAccelerationOffloadRatio": {
"max": "МАКС",
"off": "ВИМК"
}
},
"conflictResolution": {
"title": "Конфлікт",
"description": "Існує конфлікт між вашими незбереженими налаштуваннями та пресетом, який ви намагаєтеся застосувати. Як ви хочете вирішити це?",
"userValues": "Ваші зміни",
"presetValues": "Вхідні зміни",
"confirm": "Підтвердити",
"cancel": "Скасувати"
},
"empty": "<Порожньо>",
"flashAttentionWarning": "Flash Attention є експериментальною функцією, яка може викликати проблеми з деякими моделями. Якщо виникнуть проблеми, спробуйте вимкнути її."
}