Разворачиваем DeepSeek на своем сервере в пару кликов
DeepSeek AI — это мощная открытая модель ИИ, которая может работать без необходимости использования GPU. В сочетании с Ollama, она позволяет запускать ИИ локально с полным контролем над производительностью и конфиденциальностью.
Размещение DeepSeek на собственном сервере обеспечивает высокий уровень безопасности, исключая возможность перехвата данных через API. Официальные серверы DeepSeek очень часто перегружены. Локальное размещение предоставляет возможность пользоваться только своими ресурсами ИИ, не разделяя их с другими пользователя.
Обратите внимание, что DeepSeek является сторонней разработкой. Компания SpaceCore Solution LTD. не несет ответственности за работу данного ПО.
Какие характеристики требуются?
Сравним модели с разными требованиями. Каждая модель подходит как для работы на CPU, так и на GPU. Однако поскольку мы используем сервер, в статье будет рассматриваться процесс установки и работы модели на мощностях процессора.
deepseek-r1:1.5b
1.1 GB
4 GB
Простые задачи, отлично подходит для тестирования и пробных запусков.
deepseek-r1:14b
9 GB
20 GB
Продвинутые возможности в разработке, копирайтинге. Отличный баланс скорости и функционала.
deepseek-r1:32b
19 GB
40 GB
Мощность, аналогичная ChatGPT o1 mini. Углубленный анализ данных.
deepseek-r1:70b
42 GB
85 GB
Вычисления высокого уровня для бизнес-задач. Глубокий анализ данных и комплексная разработка.
deepseek-r1:671b
720 GB
768 GB
Основная и самая продвинутая модель DeepSeek R1. Предоставляет вычислительные функции на уровне последних моделей ChatGPT. Рекомендуем размещать на мощном выделенном сервере с NVMe-дисками.
Установка DeepSeek 14B
Установим модель 14B, выбранную в качестве примера, так как она обеспечивает высокую производительность при умеренном потреблении ресурсов. Инструкция подойдет для любой из доступных моделей, и при необходимости вы сможете установить другую версию.
При установке используется идеально подходящий для DeepSeek тариф Hi-CPU Pulsar с Ubuntu 22.04
Обновите репозитории и системные пакеты до последней версии.
Установите Ollama — программный менеджер, который необходим для развертывания DeepSeek.
После завершения установки выполните команду для загрузки необходимой модели DeepSeek.
deepseek-r1:14b — это наименование выбранной модели. Измените его, если хотите установить другую версию. Например, deepseek-r1:32b
Установка данной модели займет приблизительно 2 минуты при использовании сервера Hi-CPU Pulsar, благодаря высокой скорости сети. Выполните команду для запуска модели DeepSeek.
Появится командная строка для ввода сообщения. Отлично, теперь можно общаться с ИИ!
Кроме того, можно отправить одиночную команду, например
Для генерации публичного ключа и доступа по API введите команду
Проверить установленные модели и их статус.
Заключение
Мы рекомендуем размещать модели DeepSeek R1 на серверах с достаточным количеством оперативной памяти. Для стабильной работы моделей рекомендуется арендовать серверы с хотя бы небольшим запасом ОЗУ, а также с быстрыми NVMe-дисками.
Указанные в таблице тарифы идеально подходят для размещения ИИ DeepSeek. Мы гарантируем качество серверов на SpaceCore. Доверьте размещение своего сервера нам и создайте инфраструктуру для надежного и удобного использования DeepSeek в вашем бизнесе.
Last updated