Розгортаємо DeepSeek на власному сервері всього за кілька кліків

DeepSeek AI — це потужна відкрита модель штучного інтелекту, яка може працювати без потреби у GPU. У поєднанні з Ollama вона дозволяє запускати ШІ локально, забезпечуючи повний контроль над продуктивністю та конфіденційністю.

Розміщення DeepSeek на власному сервері гарантує високий рівень безпеки, усуваючи ризик перехоплення даних через API. Офіційні сервери DeepSeek часто перевантажені. Локальне розгортання моделі дозволяє використовувати ресурси ШІ виключно для власних потреб, не розділяючи їх з іншими користувачами.

Зверніть увагу: DeepSeek є сторонньою розробкою. SpaceCore Solution LTD не несе відповідальності за роботу цього програмного забезпечення.

Які системні вимоги?

Розглянемо різні моделі з різними вимогами. Кожна модель може працювати як на CPU, так і на GPU. Оскільки ми використовуємо сервер, у цьому керівництві буде розглянуто процес встановлення та роботи моделі на процесорних ресурсах.

Версія моделі
Розмір
ОЗП
Підходящий тариф
Можливості

deepseek-r1:1.5b

1.1 GB

4 GB

Прості завдання, ідеальні для тестування та пробних запусків.

deepseek-r1:7b

4.7 GB

10 GB

Написання та переклад текстів. Розробка простого коду

deepseek-r1:14b

9 GB

20 GB

Розвинені можливості в розробці та копірайтингу. Відмінне поєднання швидкості та функціон

deepseek-r1:32b

19 GB

40 GB

Потужність, подібна до ChatGPT o1 mini. Глибокий аналіз даних.

deepseek-r1:70b

42 GB

85 GB

Високорівневі обчислення для бізнес-завдань, глибокий аналіз даних та комплексна розробка.

deepseek-r1:671b

720 GB

768 GB

DeepSeek R1 є найсучаснішою моделлю, що пропонує обчислювальні функції, порівнянні з останніми версіями ChatGPT, і рекомендується для розміщення на високопродуктивному виділеному сервері з NVMe

Встановлення DeepSeek 14B

Встановимо модель 14B, обрану за високу продуктивність при помірному споживанні ресурсів. Ця інструкція підходить для будь-якої доступної моделі, тож за потреби ви можете встановити іншу версію.

Встановлення відбувається на тарифному плані Hi-CPU Pulsar з Ubuntu 22.04, що є ідеальним варіантом для DeepSeek

Виконайте наступну команду, щоб оновити всі системні пакети до останньої версії:

sudo apt update && sudo apt upgrade -y

Ollama — це менеджер пакетів, необхідний для розгортання DeepSeek. Встановіть його за допомогою команди.

curl -fsSL https://ollama.com/install.sh | sh && sudo systemctl start ollama

Після завершення встановлення виконайте команду для завантаження необхідної моделі:

ollama pull deepseek-r1:14b

deepseek-r1:14b — назва обраної моделі. Щоб встановити іншу версію, просто змініть назву, наприклад: deepseek-r1:32b

Процес встановлення займає приблизно 2 хвилини на сервері Hi-CPU Pulsar завдяки високій швидкості мережі. Запустіть модель DeepSeek командою:

ollama run deepseek-r1:14b

Після запуску з’явиться командний інтерфейс, у якому можна взаємодіяти з ШІ.

Ви можете виконати окремий запит без запуску повного сеансу, наприклад:

ollama run deepseek-r1:14b "What is heavier: 1 kg of iron or 1 kg of feathers?"

Щоб згенерувати публічний ключ і надати доступ через API, використовуйте команду:

ollama serve

Щоб перевірити встановлені моделі та їхній статус, виконайте:

ollama list

Висновок

Ми наполегливо рекомендуємо розгортати DeepSeek R1 на серверах із достатнім обсягом оперативної пам’яті. Для стабільної роботи моделі рекомендується орендувати сервери з невеликим запасом ОЗП, а також швидкими NVMe-дисками.

Тарифні плани, зазначені в порівняльній таблиці, ідеально підходять для хостингу DeepSeek AI. Ми гарантуємо якість і надійність серверів у SpaceCore. Довірте розгортання свого сервера нам та створіть інфраструктуру для стабільної та ефективної роботи штучного інтелекту у вашому бізнесі!

Last updated