Разворачиваем DeepSeek на своем сервере в пару кликов
Last updated
Last updated
DeepSeek AI — это мощная открытая модель ИИ, которая может работать без необходимости использования GPU. В сочетании с Ollama, она позволяет запускать ИИ локально с полным контролем над производительностью и конфиденциальностью.
Размещение DeepSeek на собственном сервере обеспечивает высокий уровень безопасности, исключая возможность перехвата данных через API. Официальные серверы DeepSeek очень часто перегружены. Локальное размещение предоставляет возможность пользоваться только своими ресурсами ИИ, не разделяя их с другими пользователя.
Обратите внимание, что DeepSeek является сторонней разработкой. Компания SpaceCore Solution LTD. не несет ответственности за работу данного ПО.
Сравним модели с разными требованиями. Каждая модель подходит как для работы на CPU, так и на GPU. Однако поскольку мы используем сервер, в статье будет рассматриваться процесс установки и работы модели на мощностях процессора.
deepseek-r1:1.5b
1.1 GB
4 GB
Простые задачи, отлично подходит для тестирования и пробных запусков.
deepseek-r1:7b
4.7 GB
10 GB
Написание и перевод текстов. Разработка несложного кода.
deepseek-r1:14b
9 GB
20 GB
Продвинутые возможности в разработке, копирайтинге. Отличный баланс скорости и функционала.
deepseek-r1:32b
19 GB
40 GB
Мощность, аналогичная ChatGPT o1 mini. Углубленный анализ данных.
deepseek-r1:70b
42 GB
85 GB
Вычисления высокого уровня для бизнес-задач. Глубокий анализ данных и комплексная разработка.
deepseek-r1:671b
720 GB
768 GB
Основная и самая продвинутая модель DeepSeek R1. Предоставляет вычислительные функции на уровне последних моделей ChatGPT. Рекомендуем размещать на мощном выделенном сервере с NVMe-дисками.
Установим модель 14B, выбранную в качестве примера, так как она обеспечивает высокую производительность при умеренном потреблении ресурсов. Инструкция подойдет для любой из доступных моделей, и при необходимости вы сможете установить другую версию.
Обновите репозитории и системные пакеты до последней версии.
Установите Ollama — программный менеджер, который необходим для развертывания DeepSeek.
После завершения установки выполните команду для загрузки необходимой модели DeepSeek.
Появится командная строка для ввода сообщения. Отлично, теперь можно общаться с ИИ!
Кроме того, можно отправить одиночную команду, например
Для генерации публичного ключа и доступа по API введите команду
Проверить установленные модели и их статус.
Мы рекомендуем размещать модели DeepSeek R1 на серверах с достаточным количеством оперативной памяти. Для стабильной работы моделей рекомендуется арендовать серверы с хотя бы небольшим запасом ОЗУ, а также с быстрыми NVMe-дисками.
Указанные в таблице тарифы идеально подходят для размещения ИИ DeepSeek. Мы гарантируем качество серверов на SpaceCore. Доверьте размещение своего сервера нам и создайте инфраструктуру для надежного и удобного использования DeepSeek в вашем бизнесе.
Установка данной модели займет приблизительно 2 минуты при использовании сервера , благодаря высокой скорости сети. Выполните команду для запуска модели DeepSeek.