From 60f569dbf9f06f61aafc8d08c3a11a6dbdb7c20f Mon Sep 17 00:00:00 2001
From: rjohny55 <168018528+rjohny55@users.noreply.github.com>
Date: Sat, 1 Mar 2025 03:49:08 +0600
Subject: [PATCH] Create models.ts
---
src/locales/ru-RU/models.ts | 110 ++++++++++++++++++++++++++++++++++++
1 file changed, 110 insertions(+)
create mode 100644 src/locales/ru-RU/models.ts
diff --git a/src/locales/ru-RU/models.ts b/src/locales/ru-RU/models.ts
new file mode 100644
index 00000000..83a32167
--- /dev/null
+++ b/src/locales/ru-RU/models.ts
@@ -0,0 +1,110 @@
+export default {
+ 'models.button.deploy': 'Развернуть модель',
+ 'models.title': 'Модели',
+ 'models.title.edit': 'Редактировать модель',
+ 'models.table.models': 'модели',
+ 'models.table.name': 'Название модели',
+ 'models.form.source': 'Источник',
+ 'models.form.repoid': 'ID репозитория',
+ 'models.form.repoid.desc': 'Поддерживается только формат .gguf',
+ 'models.form.filename': 'Имя файла',
+ 'models.form.replicas': 'Реплики',
+ 'models.form.selector': 'Селектор',
+ 'models.form.env': 'Переменные окружения',
+ 'models.form.configurations': 'Конфигурации',
+ 'models.form.s3address': 'S3-адрес',
+ 'models.form.partialoffload.tips':
+ 'При включении CPU оффлоудинга GPUStack优先 загружает максимум слоев на GPU для производительности. При нехватке ресурсов GPU часть слоев переносится на CPU. Полная CPU-инференция используется только при отсутствии GPU.',
+ 'models.form.distribution.tips':
+ 'Позволяет распределить вычисления между одним или несколькими удаленными воркерами при нехватке ресурсов одного GPU/воркера.',
+ 'models.openinplayground': 'Открыть в Песочнице',
+ 'models.instances': 'инстансы',
+ 'models.table.replicas.edit': 'Редактировать реплики',
+ 'model.form.ollama.model': 'Модель Ollama',
+ 'model.form.ollamaholder': 'Выберите или введите название модели',
+ 'model.deploy.sort': 'Сортировка',
+ 'model.deploy.search.placeholder': 'Поиск моделей в {source}',
+ 'model.form.ollamatips':
+ 'Подсказка: ниже представлены предустановленные модели Ollama в GPUStack. Выберите нужную или введите модель для развертывания в поле 【{name}】 справа.',
+ 'models.sort.name': 'По имени',
+ 'models.sort.size': 'По размеру',
+ 'models.sort.likes': 'По лайкам',
+ 'models.sort.trending': 'Популярные',
+ 'models.sort.downloads': 'По загрузкам',
+ 'models.sort.updated': 'По обновлению',
+ 'models.search.result': '{count} результатов',
+ 'models.data.card': 'Карточка модели',
+ 'models.available.files': 'Доступные файлы',
+ 'models.viewin.hf': 'Посмотреть в Hugging Face',
+ 'models.viewin.modelscope': 'Посмотреть в ModelScope',
+ 'models.architecture': 'Архитектура',
+ 'models.search.noresult': 'Связанные модели не найдены',
+ 'models.search.nofiles': 'Нет доступных файлов',
+ 'models.search.networkerror': 'Ошибка сетевого подключения!',
+ 'models.search.hfvisit': 'Убедитесь, что доступен',
+ 'models.search.unsupport':
+ 'Модель не поддерживается и может быть нефункциональна после развертывания.',
+ 'models.form.scheduletype': 'Тип планирования',
+ 'models.form.categories': 'Категория модели',
+ 'models.form.scheduletype.auto': 'Авто',
+ 'models.form.scheduletype.manual': 'Вручную',
+ 'models.form.scheduletype.auto.tips':
+ 'Автоматическое развертывание инстансов модели на подходящие GPU/воркеры в зависимости от текущих ресурсов.',
+ 'models.form.scheduletype.manual.tips':
+ 'Позволяет вручную указать GPU/воркеры для развертывания инстансов модели.',
+ 'models.form.manual.schedule': 'Ручное распределение',
+ 'models.table.gpuindex': 'Индекс GPU',
+ 'models.table.backend': 'Бэкенды',
+ 'models.table.acrossworker': 'Распределение по воркерам',
+ 'models.table.cpuoffload': 'CPU оффлоуд',
+ 'models.table.layers': 'Слои',
+ 'models.form.backend': 'Бэкенд',
+ 'models.form.backend_parameters': 'Параметры бэкенда',
+ 'models.search.gguf.tips':
+ 'GGUF-модели используют llama-box (поддерживает Linux, macOS и Windows).',
+ 'models.search.vllm.tips':
+ 'Не-GGUF модели используют vox-box для аудио и vLLM (только x86 Linux) для остальных.',
+ 'models.search.voxbox.tips':
+ 'Для развертывания аудиомодели снимите отметку GGUF.',
+ 'models.form.ollamalink': 'Больше моделей в библиотеке Ollama',
+ 'models.form.backend_parameters.llamabox.placeholder':
+ 'например: --ctx-size=8192',
+ 'models.form.backend_parameters.vllm.placeholder':
+ 'например: --max-model-len=8192',
+ 'models.form.backend_parameters.vllm.tips':
+ 'Подробнее о параметрах {backend}',
+ 'models.logs.pagination.prev': 'Предыдущие {lines} строк',
+ 'models.logs.pagination.next': 'Следующие {lines} строк',
+ 'models.logs.pagination.last': 'Последняя страница',
+ 'models.logs.pagination.first': 'Первая страница',
+ 'models.form.localPath': 'Локальный путь',
+ 'models.form.filePath': 'Путь к модели',
+ 'models.form.backendVersion': 'Версия бэкенда',
+ 'models.form.backendVersion.tips':
+ 'Фиксация версии обеспечивает стабильность бэкенда при обновлениях GPUStack.',
+ 'models.form.gpuselector': 'Селектор GPU',
+ 'models.form.backend.llamabox':
+ 'Для моделей формата GGUF. Поддержка Linux, macOS и Windows.',
+ 'models.form.backend.vllm':
+ 'Для моделей не-GGUF формата. Только x86 Linux.',
+ 'models.form.backend.voxbox': 'Для аудиомоделей не-GGUF формата.',
+ 'models.form.search.gguftips':
+ 'Для воркеров на macOS/Windows отметьте GGUF (для аудиомоделей снимите).',
+ 'models.form.button.addlabel': 'Добавить метку',
+ 'models.filter.category': 'Фильтр по категориям',
+ 'models.list.more.logs': 'Показать больше',
+ 'models.catalog.release.date': 'Дата выпуска',
+ 'models.localpath.gguf.tips.title': 'Модель формата GGUF',
+ 'models.localpat.safe.tips.title': 'Модель формата Safetensors',
+ 'models.localpath.shared.tips.title': 'Шардированная GGUF-модель',
+ 'models.localpath.gguf.tips':
+ 'Укажите файл модели, например: /usr/local/models/model.gguf.',
+ 'models.localpath.safe.tips':
+ 'Укажите директорию модели с файлами .safetensors и config.json.',
+ 'models.localpath.chunks.tips': `Укажите первый шард модели, например: /usr/local/models/model-00001-of-00004.gguf.`,
+ 'models.form.replicas.tips':
+ 'Несколько реплик обеспечивают балансировку нагрузки для { api } запросов.',
+ 'models.table.list.empty': 'Модели отсутствуют!',
+ 'models.table.list.getStart':
+ 'Начните работу с DeepSeek-R1-Distill-Qwen-1.5B'
+};