LM Studio (рекомендуется)

LM Studio — это приложение для локального запуска LLM и embedding моделей с OpenAI-совместимым API.

Почему LM Studio?

  • Высокое качество — модели Qwen3-Embedding дают отличные результаты для русского языка

  • GPU ускорение — использует видеокарту для быстрой работы

  • OpenAI API — совместим с MCP-серверами без изменений

  • Бесплатно — полностью бесплатное приложение

  • Локально — все данные остаются на вашем компьютере

Требования

  • Windows 10/11 (64-bit)

  • NVIDIA GPU с 4+ ГБ VRAM (для Qwen3-Embedding-4B)

  • 8+ ГБ VRAM (для Qwen3-Embedding-8B)

  • 16+ ГБ RAM

Установка LM Studio

Шаг 1: Скачивание

  1. Перейдите на lmstudio.aiarrow-up-right

  2. Скачайте версию для Windows

  3. Установите приложение

Шаг 2: Первый запуск

  1. Запустите LM Studio

  2. Приложение проверит вашу систему

  3. Дождитесь завершения инициализации

Загрузка embedding модели

Шаг 1: Поиск модели

  1. Откройте вкладку Search (или нажмите Ctrl+F)

  2. В поиске введите: Qwen3-Embedding

  3. Найдите модель Qwen/Qwen3-Embedding-4B-GGUF

Шаг 2: Выбор квантизации

Вариант
Размер
VRAM
Качество

Q8_0

~4.5 ГБ

~5 ГБ

Лучшее

Q6_K

~3.5 ГБ

~4 ГБ

Отличное

Q4_K_M

~2.5 ГБ

~3 ГБ

Хорошее

circle-info

Рекомендуется Q8_0 или Q6_K для лучшего качества embedding.

Шаг 3: Загрузка

  1. Нажмите Download рядом с выбранной квантизацией

  2. Дождитесь завершения загрузки (несколько минут)

Запуск локального сервера

Шаг 1: Загрузка модели

  1. Перейдите на вкладку Local Server (иконка сервера слева)

  2. В выпадающем списке выберите загруженную модель Qwen3-Embedding

  3. Нажмите Load Model

Шаг 2: Запуск сервера

  1. Убедитесь, что модель загружена (статус "Model loaded")

  2. Нажмите Start Server

  3. Сервер запустится на порту 1234

Шаг 3: Проверка

Сервер должен показывать:

  • Status: Running

  • Port: 1234

  • URL: http://localhost:1234

Настройка MCP-серверов

Переменные окружения

Для подключения MCP-серверов к LM Studio используйте:

circle-check
circle-info

host.docker.internal — специальный адрес для доступа из Docker-контейнера к хост-машине Windows.

Пример команды Docker (упрощённый)

Если LM Studio запущен локально, достаточно указать только модель:

circle-info

Путь E:/bases/mcp_docs — это пример. Используйте любой удобный путь для хранения индексов.

Пример команды Docker (полный)

Если нужно явно указать параметры подключения к LM Studio:

Проверка работы

Тест API из PowerShell

Проверка из Docker

Оптимизация производительности

Настройки LM Studio

  1. GPU Layers: Установите максимум (все слои на GPU)

  2. Context Length: 512 достаточно для embedding

  3. Batch Size: Увеличьте до 32-64 для быстрой индексации

Рекомендации

  • Закройте другие приложения, использующие GPU

  • Не запускайте LLM и embedding одновременно (если мало VRAM)

  • Используйте SSD для кэша моделей

Автозапуск

Создание задачи в планировщике

  1. Откройте Планировщик заданий (Task Scheduler)

  2. Создайте новую задачу

  3. Триггер: При входе в систему

  4. Действие: Запустить LM Studio.exe

circle-exclamation

Устранение проблем

LM Studio не видит GPU

  1. Обновите драйверы NVIDIA

  2. Установите CUDA Toolkit

  3. Перезапустите компьютер

Ошибка "Out of memory"

  1. Используйте модель с меньшей квантизацией (Q4_K_M)

  2. Закройте другие приложения

  3. Уменьшите Context Length

MCP-сервер не подключается

  1. Убедитесь, что LM Studio Server запущен

  2. Проверьте, что порт 1234 не занят

  3. Проверьте URL: http://host.docker.internal:1234/v1

Last updated