Ollama

Настройка Ollama для локального запуска LLM в OneAPA.

Обзор

Ollama — инструмент для локального запуска языковых моделей.

Преимущества

Преимущество
Описание

Конфиденциальность

Данные не покидают вашу сеть

Бесплатно

Нет платы за токены

Автономность

Работает без интернета

Контроль

Полный контроль над моделью

Ограничения

Ограничение
Описание

Оборудование

Требуется мощный GPU или много RAM

Качество

Уступает топовым облачным моделям

Настройка

Требует установки и настройки

Установка Ollama

Windows

  1. Скачайте установщик с ollama.com/downloadarrow-up-right

  2. Запустите установщик

  3. Следуйте инструкциям

Linux

macOS

Docker

Загрузка моделей

Команда pull

Проверка моделей

Тестирование

Рекомендуемые модели

Для GPU 8 ГБ

Модель
Размер
Качество

llama3

8B

⭐⭐⭐⭐

mistral

7B

⭐⭐⭐⭐

qwen2.5

7B

⭐⭐⭐⭐

gemma2

9B

⭐⭐⭐⭐

Для GPU 16-24 ГБ

Модель
Размер
Качество

llama3:13b

13B

⭐⭐⭐⭐

mixtral

8x7B

⭐⭐⭐⭐⭐

qwen2.5:14b

14B

⭐⭐⭐⭐⭐

Для GPU 48+ ГБ или CPU

Модель
Размер
Качество

llama3:70b

70B

⭐⭐⭐⭐⭐

qwen2.5:72b

72B

⭐⭐⭐⭐⭐

Для Vision (изображения)

Модель
Размер
Описание

llava

7B

Анализ изображений

bakllava

7B

Улучшенная llava

Настройка в OneAPA

Создание модели

Поле
Значение

Наименование

Ollama Llama3

Провайдер

LocalOllama

Ключ

(пусто)

Каталог

llama3

URL

http://localhost:11434

Примеры

Llama 3 8B:

Mistral 7B:

На удалённом сервере:

Требования к оборудованию

Минимальные

Параметр
Значение

CPU

4 ядра

RAM

8 ГБ

Модели

До 3B

Рекомендуемые (7-8B модели)

Параметр
Значение

GPU

NVIDIA 8+ ГБ VRAM

RAM

16 ГБ

Диск

SSD 50 ГБ

Для больших моделей (70B)

Параметр
Значение

GPU

NVIDIA 48+ ГБ VRAM

или RAM

64+ ГБ (CPU режим)

Диск

SSD 100+ ГБ

Оптимизация производительности

Использование GPU

Убедитесь, что установлены драйверы NVIDIA и CUDA:

Количество потоков (CPU)

Количество GPU слоёв

Запуск как сервис

Linux (systemd)

Windows

Ollama запускается автоматически после установки.

Docker

Сетевой доступ

Разрешение внешних подключений

По умолчанию Ollama слушает только localhost. Для доступа с других машин:

Проверка доступности

Устранение проблем

Ollama не запускается

Причина
Решение

Порт занят

Измените порт или остановите другой процесс

Нет прав

Запустите с правами администратора

Модель не загружается

Причина
Решение

Нет места на диске

Освободите место

Сетевая ошибка

Проверьте интернет

Медленная работа

Причина
Решение

Нет GPU

Модель работает на CPU — это медленно

Мало VRAM

Часть модели загружается в RAM

Слабый CPU

Используйте меньшую модель

Ошибка подключения из 1С

Причина
Решение

Ollama не запущен

Запустите ollama serve

Неверный URL

Проверьте адрес и порт

Firewall

Откройте порт 11434

Далее

Sber GigaChatchevron-right

Last updated