Щоб використовувати моделі DeepSeek 1.5, вам потрібно виконати кілька простих кроків для завантаження та запуску їх на вашій локальній системі через Ollama. Ось інструкція, щоб розпочати.

pic

1. Встановлення Ollama

Перед тим, як почати використовувати моделі DeepSeek 1.5, переконайтеся, що Ollama встановлено на вашій системі. Ось як це зробити для різних платформ:

Встановлення на macOS

  1. Завантажте інсталятор для macOS з вебсайту Ollama.
  2. Перемістіть додаток Ollama в папку Програми.
  3. Запустіть Ollama, він працюватиме у фоновому режимі.
  4. Перевірте встановлення, виконавши команду ollama -v у Терміналі.

Встановлення на Linux

Відкрийте термінал і виконайте:

curl -fsSL https://ollama.com/install.sh | sh

Для ручного встановлення завантажте пакет .tgz:

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz sudo tar -C /usr -xzf ollama-linux-amd64.tgz

Запустіть Ollama, виконавши:

ollama serve

Перевірте, чи працює він, виконавши:

ollama -v

Встановлення на Windows

  1. Завантажте інсталятор для Windows з вебсайту Ollama.
  2. Запустіть інсталятор і переконайтеся, що Ollama працює у фоновому режимі.
  3. Перевірте встановлення, виконавши команду ollama -v у командному рядку або PowerShell.

2. Завантаження моделі DeepSeek 1.5

Після того, як Ollama встановлено, ви можете завантажити модель DeepSeek 1.5 в розмірі, який підходить для вашої системи. Моделі DeepSeek доступні у різних розмірах, таких як 1.5B, 7B, 8B, 14B, 32B і 70B. Ось приклади завантаження конкретних моделей:

Щоб завантажити останню модель 1.5B:

ollama pull deepseek-r1:1.5b

Щоб завантажити модель 7B:

ollama pull deepseek-r1:7b

Щоб завантажити модель 14B Qwen-distilled:

ollama pull deepseek-r1:14b-qwen-distill-q4_K_M

3. Запуск моделі DeepSeek 1.5

Після того, як ви завантажите потрібну модель, ви можете розпочати інтерактивну чат-сесію для взаємодії з моделлю. Ось приклад:

Щоб запустити модель 7B:

ollama run deepseek-r1:7b

Коли модель запуститься, ви можете задавати їй питання, генерувати текст або досліджувати її можливості залежно від розміру та конфігурації моделі.

4. Використання DeepSeek 1.5 з API

Ви також можете взаємодіяти з моделями DeepSeek програмно через API Ollama. Ось приклад використання curl для генерації тексту:

Приклад для генерації короткого вірша про зірки за допомогою моделі 7B:

curl http://localhost:11434/api/generate -d '{ "model": "deepseek-r1:7b", "prompt": "Write a short poem about the stars." }'

5. Розширені функції

Ollama також дозволяє налаштовувати моделі для конкретних завдань, використовуючи квантизовані або дистильовані версії для економії пам'яті або прискорення інференсу.

Наприклад, можна використовувати:

  • Квантизовані моделі 4KM для швидшого інференсу з незначним зниженням точності.
  • Дистильовані моделі для менших розмірів з майже такими ж можливостями, як у великих моделей.

Приклади тегів моделей

Ось деякі приклади тегів, які можна використовувати з командою ollama pull:

  • deepseek-r1:1.5b
  • deepseek-r1:7b
  • deepseek-r1:14b-qwen-distill-q4_K_M
  • deepseek-r1:32b-llama-distill-fp16

6. Висновок

З моделями DeepSeek 1.5 та Ollama ви можете запускати передові великі мовні моделі безпосередньо на вашій машині. Ці моделі потужні, але водночас гнучкі, що дозволяє вам експериментувати, створювати та інтегрувати штучний інтелект ефективно з точки зору витрат та ресурсів.

Перекладено з: To use the DeepSeek 1.5 models, you’ll need to follow a few straightforward steps to pull and run them on your local system via Ollama. Here’s a guide to get you started.

Leave a Reply

Your email address will not be published. Required fields are marked *