Ollama
Обзор
Преимущества
Преимущество
Описание
Ограничения
Ограничение
Описание
Установка Ollama
Windows
Linux
macOS
Docker
Загрузка моделей
Команда pull
Проверка моделей
Тестирование
Рекомендуемые модели
Для GPU 8 ГБ
Модель
Размер
Качество
Для GPU 16-24 ГБ
Модель
Размер
Качество
Для GPU 48+ ГБ или CPU
Модель
Размер
Качество
Для Vision (изображения)
Модель
Размер
Описание
Настройка в OneAPA
Создание модели
Поле
Значение
Примеры
Требования к оборудованию
Минимальные
Параметр
Значение
Рекомендуемые (7-8B модели)
Параметр
Значение
Для больших моделей (70B)
Параметр
Значение
Оптимизация производительности
Использование GPU
Количество потоков (CPU)
Количество GPU слоёв
Запуск как сервис
Linux (systemd)
Windows
Docker
Сетевой доступ
Разрешение внешних подключений
Проверка доступности
Устранение проблем
Ollama не запускается
Причина
Решение
Модель не загружается
Причина
Решение
Медленная работа
Причина
Решение
Ошибка подключения из 1С
Причина
Решение
Далее
Sber GigaChatLast updated