@ -13,10 +13,8 @@ export default {
'models.form.env' : 'Переменные окружения' ,
'models.form.configurations' : 'Конфигурации' ,
'models.form.s3address' : 'S3-адрес' ,
'models.form.partialoffload.tips' :
'При включении CPU оффлоудинга GPUStack优先 загружает максимум слоев на GPU для производительности. При нехватке ресурсов GPU часть слоев переносится на CPU. Полная CPU-инференция используется только при отсутствии GPU.' ,
'models.form.distribution.tips' :
'Позволяет распределить вычисления между одним или несколькими удаленными воркерами при нехватке ресурсов одного GPU/воркера.' ,
'models.form.partialoffload.tips' : 'При включении CPU оффлоудинга GPUStack загружает максимум слоев на GPU для производительности. При нехватке ресурсов GPU часть слоев переносится на CPU. Полная CPU-инференция используется только при отсутствии GPU.' ,
'models.form.distribution.tips' : 'Позволяет распределить вычисления между одним или несколькими удаленными воркерами при нехватке ресурсов одного GPU/воркера.' ,
'models.openinplayground' : 'Открыть в Песочнице' ,
'models.instances' : 'инстансы' ,
'models.table.replicas.edit' : 'Редактировать реплики' ,
@ -24,8 +22,7 @@ export default {
'model.form.ollamaholder' : 'Выберите или введите название модели' ,
'model.deploy.sort' : 'Сортировка' ,
'model.deploy.search.placeholder' : 'Поиск моделей в {source}' ,
'model.form.ollamatips' :
'Подсказка: ниже представлены предустановленные модели Ollama в GPUStack. Выберите нужную или введите модель для развертывания в поле 【{name}】 справа.' ,
'model.form.ollamatips' : 'Подсказка: ниже представлены предустановленные модели Ollama в GPUStack. Выберите нужную или введите модель для развертывания в поле 【{name}】 справа.' ,
'models.sort.name' : 'По имени' ,
'models.sort.size' : 'По размеру' ,
'models.sort.likes' : 'По лайкам' ,
@ -42,16 +39,13 @@ export default {
'models.search.nofiles' : 'Нет доступных файлов' ,
'models.search.networkerror' : 'Ошибка сетевого подключения!' ,
'models.search.hfvisit' : 'Убедитесь, что доступен' ,
'models.search.unsupport' :
'Модель не поддерживается и может быть нефункциональна после развертывания.' ,
'models.search.unsupport' : 'Модель не поддерживается и может быть нефункциональна после развертывания.' ,
'models.form.scheduletype' : 'Тип планирования' ,
'models.form.categories' : 'Категория модели' ,
'models.form.scheduletype.auto' : 'Авто' ,
'models.form.scheduletype.manual' : 'Вручную' ,
'models.form.scheduletype.auto.tips' :
'Автоматическое развертывание инстансов модели на подходящие GPU/воркеры в зависимости от текущих ресурсов.' ,
'models.form.scheduletype.manual.tips' :
'Позволяет вручную указать GPU/воркеры для развертывания инстансов модели.' ,
'models.form.scheduletype.auto.tips' : 'Автоматическое развертывание инстансов модели на подходящие GPU/воркеры в зависимости от текущих ресурсов.' ,
'models.form.scheduletype.manual.tips' : 'Позволяет вручную указать GPU/воркеры для развертывания инстансов модели.' ,
'models.form.manual.schedule' : 'Ручное распределение' ,
'models.table.gpuindex' : 'Индекс GPU' ,
'models.table.backend' : 'Бэкенды' ,
@ -60,19 +54,13 @@ export default {
'models.table.layers' : 'Слои' ,
'models.form.backend' : 'Бэкенд' ,
'models.form.backend_parameters' : 'Параметры бэкенда' ,
'models.search.gguf.tips' :
'GGUF-модели используют llama-box (поддерживает Linux, macOS и Windows).' ,
'models.search.vllm.tips' :
'Н е -GGUF модели используют vox-box для аудио и vLLM (только x86 Linux) для остальных.' ,
'models.search.voxbox.tips' :
'Для развертывания аудиомодели снимите отметку GGUF.' ,
'models.search.gguf.tips' : 'GGUF-модели используют llama-box (поддерживает Linux, macOS и Windows).' ,
'models.search.vllm.tips' : 'Н е -GGUF модели используют vox-box для аудио и vLLM (только x86 Linux) для остальных.' ,
'models.search.voxbox.tips' : 'Для развертывания аудиомодели снимите отметку GGUF.' ,
'models.form.ollamalink' : 'Больше моделей в библиотеке Ollama' ,
'models.form.backend_parameters.llamabox.placeholder' :
'например: --ctx-size=8192' ,
'models.form.backend_parameters.vllm.placeholder' :
'например: --max-model-len=8192' ,
'models.form.backend_parameters.vllm.tips' :
'Подробнее о параметрах {backend}' ,
'models.form.backend_parameters.llamabox.placeholder' : 'например: --ctx-size=8192' ,
'models.form.backend_parameters.vllm.placeholder' : 'например: --max-model-len=8192' ,
'models.form.backend_parameters.vllm.tips' : 'Подробнее о параметрах {backend}' ,
'models.logs.pagination.prev' : 'Предыдущие {lines} строк' ,
'models.logs.pagination.next' : 'Следующие {lines} строк' ,
'models.logs.pagination.last' : 'Последняя страница' ,
@ -80,15 +68,12 @@ export default {
'models.form.localPath' : 'Локальный путь' ,
'models.form.filePath' : 'Путь к модели' ,
'models.form.backendVersion' : 'Версия бэкенда' ,
'models.form.backendVersion.tips' :
'Фиксация версии обеспечивает стабильность бэкенда при обновлениях GPUStack.' ,
'models.form.backendVersion.tips' : 'Фиксация версии обеспечивает стабильность бэкенда при обновлениях GPUStack.' ,
'models.form.gpuselector' : 'Селектор GPU' ,
'models.form.backend.llamabox' :
'Для моделей формата GGUF. Поддержка Linux, macOS и Windows.' ,
'models.form.backend.llamabox' : 'Для моделей формата GGUF. Поддержка Linux, macOS и Windows.' ,
'models.form.backend.vllm' : 'Для моделей не-GGUF формата. Только x86 Linux.' ,
'models.form.backend.voxbox' : 'Для аудиомоделей не-GGUF формата.' ,
'models.form.search.gguftips' :
'Для воркеров на macOS/Windows отметьте GGUF (для аудиомоделей снимите).' ,
'models.form.search.gguftips' : 'Для воркеров на macOS/Windows отметьте GGUF (для аудиомоделей снимите).' ,
'models.form.button.addlabel' : 'Добавить метку' ,
'models.filter.category' : 'Фильтр по категориям' ,
'models.list.more.logs' : 'Показать больше' ,
@ -96,21 +81,14 @@ export default {
'models.localpath.gguf.tips.title' : 'Модель формата GGUF' ,
'models.localpat.safe.tips.title' : 'Модель формата Safetensors' ,
'models.localpath.shared.tips.title' : 'Шардированная GGUF-модель' ,
'models.localpath.gguf.tips' :
'Укажите файл модели, например: /usr/local/models/model.gguf.' ,
'models.localpath.safe.tips' :
'Укажите директорию модели с файлами .safetensors и config.json.' ,
'models.localpath.gguf.tips' : 'Укажите файл модели, например: /usr/local/models/model.gguf.' ,
'models.localpath.safe.tips' : 'Укажите директорию модели с файлами .safetensors и config.json.' ,
'models.localpath.chunks.tips' : ` Укажите первый шард модели, например: /usr/local/models/model-00001-of-00004.gguf. ` ,
'models.form.replicas.tips' :
'Несколько реплик обеспечивают балансировку нагрузки для { api } запросов.' ,
'models.form.replicas.tips' : 'Несколько реплик обеспечивают балансировку нагрузки для { api } запросов.' ,
'models.table.list.empty' : 'Модели отсутствуют!' ,
'models.table.list.getStart' :
'<span style="margin-right: 5px;font-size: 13px;">Начните работу с </span> <span style="font-size: 14px;font-weight: 700">DeepSeek-R1-Distill-Qwen-1.5B</span>' ,
'models.table.llamaAcrossworker' :
'TODO: Translate key "models.table.llamaAcrossworker"' ,
'models.table.vllmAcrossworker' :
'TODO: Translate key "models.table.vllmAcrossworker"' ,
'models.form.releases' : 'TODO: Translate key "models.form.releases"' ,
'models.form.moreparameters' :
'TODO: Translate key "models.form.moreparameters"'
'models.table.list.getStart' : '<span style="margin-right: 5px;font-size: 13px;">Начните работу с </span> <span style="font-size: 14px;font-weight: 700">DeepSeek-R1-Distill-Qwen-1.5B</span>' ,
'models.table.llamaAcrossworker' : 'Llama-box между воркерами' ,
'models.table.vllmAcrossworker' : 'vLLM между воркерами' ,
'models.form.releases' : 'Релизы' ,
'models.form.moreparameters' : 'Описание параметров'
} ;