From cc20050dc8052828e1080a4848bd862ba7ea9687 Mon Sep 17 00:00:00 2001 From: EVGENY M <168018528+rjohny55@users.noreply.github.com> Date: Tue, 18 Mar 2025 19:16:16 +0600 Subject: [PATCH] Update models.ts update ru --- src/locales/ru-RU/models.ts | 74 ++++++++++++------------------------- 1 file changed, 24 insertions(+), 50 deletions(-) diff --git a/src/locales/ru-RU/models.ts b/src/locales/ru-RU/models.ts index 19d11480..bf0b5347 100644 --- a/src/locales/ru-RU/models.ts +++ b/src/locales/ru-RU/models.ts @@ -13,10 +13,8 @@ export default { 'models.form.env': 'Переменные окружения', 'models.form.configurations': 'Конфигурации', 'models.form.s3address': 'S3-адрес', - 'models.form.partialoffload.tips': - 'При включении CPU оффлоудинга GPUStack загружает максимум слоев на GPU для производительности. При нехватке ресурсов GPU часть слоев переносится на CPU. Полная CPU-инференция используется только при отсутствии GPU.', - 'models.form.distribution.tips': - 'Позволяет распределить вычисления между одним или несколькими удаленными воркерами при нехватке ресурсов одного GPU/воркера.', + 'models.form.partialoffload.tips': 'При включении CPU оффлоудинга GPUStack загружает максимум слоев на GPU для производительности. При нехватке ресурсов GPU часть слоев переносится на CPU. Полная CPU-инференция используется только при отсутствии GPU.', + 'models.form.distribution.tips': 'Позволяет распределить вычисления между одним или несколькими удаленными воркерами при нехватке ресурсов одного GPU/воркера.', 'models.openinplayground': 'Открыть в Песочнице', 'models.instances': 'инстансы', 'models.table.replicas.edit': 'Редактировать реплики', @@ -24,8 +22,7 @@ export default { 'model.form.ollamaholder': 'Выберите или введите название модели', 'model.deploy.sort': 'Сортировка', 'model.deploy.search.placeholder': 'Поиск моделей в {source}', - 'model.form.ollamatips': - 'Подсказка: ниже представлены предустановленные модели Ollama в GPUStack. Выберите нужную или введите модель для развертывания в поле 【{name}】 справа.', + 'model.form.ollamatips': 'Подсказка: ниже представлены предустановленные модели Ollama в GPUStack. Выберите нужную или введите модель для развертывания в поле 【{name}】 справа.', 'models.sort.name': 'По имени', 'models.sort.size': 'По размеру', 'models.sort.likes': 'По лайкам', @@ -42,16 +39,13 @@ export default { 'models.search.nofiles': 'Нет доступных файлов', 'models.search.networkerror': 'Ошибка сетевого подключения!', 'models.search.hfvisit': 'Убедитесь, что доступен', - 'models.search.unsupport': - 'Модель не поддерживается и может быть нефункциональна после развертывания.', + 'models.search.unsupport': 'Модель не поддерживается и может быть нефункциональна после развертывания.', 'models.form.scheduletype': 'Тип планирования', 'models.form.categories': 'Категория модели', 'models.form.scheduletype.auto': 'Авто', 'models.form.scheduletype.manual': 'Вручную', - 'models.form.scheduletype.auto.tips': - 'Автоматическое развертывание инстансов модели на подходящие GPU/воркеры в зависимости от текущих ресурсов.', - 'models.form.scheduletype.manual.tips': - 'Позволяет вручную указать GPU/воркеры для развертывания инстансов модели.', + 'models.form.scheduletype.auto.tips': 'Автоматическое развертывание инстансов модели на подходящие GPU/воркеры в зависимости от текущих ресурсов.', + 'models.form.scheduletype.manual.tips': 'Позволяет вручную указать GPU/воркеры для развертывания инстансов модели.', 'models.form.manual.schedule': 'Ручное распределение', 'models.table.gpuindex': 'Индекс GPU', 'models.table.backend': 'Бэкенды', @@ -60,19 +54,13 @@ export default { 'models.table.layers': 'Слои', 'models.form.backend': 'Бэкенд', 'models.form.backend_parameters': 'Параметры бэкенда', - 'models.search.gguf.tips': - 'GGUF-модели используют llama-box (поддерживает Linux, macOS и Windows).', - 'models.search.vllm.tips': - 'Не-GGUF модели используют vox-box для аудио и vLLM (только x86 Linux) для остальных.', - 'models.search.voxbox.tips': - 'Для развертывания аудиомодели снимите отметку GGUF.', + 'models.search.gguf.tips': 'GGUF-модели используют llama-box (поддерживает Linux, macOS и Windows).', + 'models.search.vllm.tips': 'Не-GGUF модели используют vox-box для аудио и vLLM (только x86 Linux) для остальных.', + 'models.search.voxbox.tips': 'Для развертывания аудиомодели снимите отметку GGUF.', 'models.form.ollamalink': 'Больше моделей в библиотеке Ollama', - 'models.form.backend_parameters.llamabox.placeholder': - 'например: --ctx-size=8192', - 'models.form.backend_parameters.vllm.placeholder': - 'например: --max-model-len=8192', - 'models.form.backend_parameters.vllm.tips': - 'Подробнее о параметрах {backend}', + 'models.form.backend_parameters.llamabox.placeholder': 'например: --ctx-size=8192', + 'models.form.backend_parameters.vllm.placeholder': 'например: --max-model-len=8192', + 'models.form.backend_parameters.vllm.tips': 'Подробнее о параметрах {backend}', 'models.logs.pagination.prev': 'Предыдущие {lines} строк', 'models.logs.pagination.next': 'Следующие {lines} строк', 'models.logs.pagination.last': 'Последняя страница', @@ -80,15 +68,12 @@ export default { 'models.form.localPath': 'Локальный путь', 'models.form.filePath': 'Путь к модели', 'models.form.backendVersion': 'Версия бэкенда', - 'models.form.backendVersion.tips': - 'To use the desired version of {backend}, the system will automatically create a virtual environment in the online environment to install the corresponding version. After a GPUStack upgrade, the backend version will remain fixed. {link}', + 'models.form.backendVersion.tips': 'Чтобы использовать желаемую версию {backend}, система автоматически создаст виртуальную среду в онлайн-окружении для установки соответствующей версии. После обновления GPUStack версия бэкенда останется зафиксированной. {link}', 'models.form.gpuselector': 'Селектор GPU', - 'models.form.backend.llamabox': - 'Для моделей формата GGUF. Поддержка Linux, macOS и Windows.', + 'models.form.backend.llamabox': 'Для моделей формата GGUF. Поддержка Linux, macOS и Windows.', 'models.form.backend.vllm': 'Для моделей не-GGUF формата. Только x86 Linux.', 'models.form.backend.voxbox': 'Для аудиомоделей не-GGUF формата.', - 'models.form.search.gguftips': - 'Для воркеров на macOS/Windows отметьте GGUF (для аудиомоделей снимите).', + 'models.form.search.gguftips': 'Для воркеров на macOS/Windows отметьте GGUF (для аудиомоделей снимите).', 'models.form.button.addlabel': 'Добавить метку', 'models.filter.category': 'Фильтр по категориям', 'models.list.more.logs': 'Показать больше', @@ -96,34 +81,23 @@ export default { 'models.localpath.gguf.tips.title': 'Модель формата GGUF', 'models.localpat.safe.tips.title': 'Модель формата Safetensors', 'models.localpath.shared.tips.title': 'Шардированная GGUF-модель', - 'models.localpath.gguf.tips': - 'Укажите файл модели, например: /data/models/model.gguf.', - 'models.localpath.safe.tips': - 'Укажите директорию модели с файлами .safetensors и config.json.', - 'models.localpath.chunks.tips': `Укажите первый шард модели, например: /data/models/model-00001-of-00004.gguf.`, - 'models.form.replicas.tips': - 'Несколько реплик обеспечивают балансировку нагрузки для { api } запросов.', + 'models.localpath.gguf.tips': 'Укажите файл модели, например: /data/models/model.gguf.', + 'models.localpath.safe.tips': 'Укажите директорию модели с файлами .safetensors и config.json.', + 'models.localpath.chunks.tips': 'Укажите первый шард модели, например: /data/models/model-00001-of-00004.gguf.', + 'models.form.replicas.tips': 'Несколько реплик обеспечивают балансировку нагрузки для { api } запросов.', 'models.table.list.empty': 'Модели отсутствуют!', - 'models.table.list.getStart': - 'Начните работу с DeepSeek-R1-Distill-Qwen-1.5B', + 'models.table.list.getStart': 'Начните работу с DeepSeek-R1-Distill-Qwen-1.5B', 'models.table.llamaAcrossworker': 'Llama-box между воркерами', 'models.table.vllmAcrossworker': 'vLLM между воркерами', 'models.form.releases': 'Релизы', 'models.form.moreparameters': 'Описание параметров', - 'models.table.vram.allocated': 'Allocated VRAM', - 'models.form.backend.warning': - 'The backend for GGUF format models uses llama-box.', - 'models.form.ollama.warning': - 'Deploy the Ollama model backend using llama-box.', - 'models.form.backend.warning.llamabox': `To use the llama-box backend, specify the full path to the model file (e.g.,/data/models/model.gguf). For sharded models, provide the path to the first shard (e.g.,/data/models/model-00001-of-00004.gguf).` + 'models.table.vram.allocated': 'Выделенная VRAM', + 'models.form.backend.warning': 'Бэкенд для моделей формата GGUF использует llama-box.', + 'models.form.ollama.warning': 'Чтобы развернуть бэкенд для моделей Ollama с использованием llama-box , выполните следующие шаги.', + 'models.form.backend.warning.llamabox': 'Чтобы использовать бэкенд llama-box , укажите полный путь к файлу модели (например,/data/models/model.gguf). Для шардированных моделей укажите путь к первому шарду (например,/data/models/model-00001-of-00004.gguf).' }; // ========== To-Do: Translate Keys (Remove After Translation) ========== -// 1. models.form.backendVersion.tips -// 2. models.form.backend.warning -// 3. models.form.backend.warning.llamabox -// 4. models.table.vram.allocated -// 5. models.form.ollama.warning // ========== End of To-Do List ==========