Files
microdao-daarion/NODE1-GPU-ENABLE-QUICKSTART.md
Apple 3de3c8cb36 feat: Add presence heartbeat for Matrix online status
- matrix-gateway: POST /internal/matrix/presence/online endpoint
- usePresenceHeartbeat hook with activity tracking
- Auto away after 5 min inactivity
- Offline on page close/visibility change
- Integrated in MatrixChatRoom component
2025-11-27 00:19:40 -08:00

4.3 KiB
Raw Permalink Blame History

Швидкий старт: Увімкнення GPU для Ollama на НОДА1

Дата: 2025-01-27
GPU: NVIDIA RTX 4000 SFF Ada (20GB VRAM) - ДОСТУПНИЙ!
Проблема: Ollama використовує CPU (1583% CPU) замість GPU
Рішення: Увімкнути GPU acceleration


Перевірка

GPU статус:

nvidia-smi
# ✅ NVIDIA RTX 4000 SFF Ada Generation
# ✅ 20GB VRAM
# ✅ CUDA 12.2
# ✅ Driver 535.274.02

Docker GPU підтримка:

nvidia-container-cli --version
# ✅ 1.18.0

docker --version
# ✅ 29.0.1 (підтримує --gpus)

Поточне використання GPU:

  • Python процес: 2240 MiB VRAM (11%)
  • GPU utilization: 0%
  • Ollama НЕ використовує GPU!

🚀 Швидке рішення

Варіант 1: Ollama як systemd service (ПОТОЧНА КОНФІГУРАЦІЯ)

Знайдено: Ollama працює як systemd service (/etc/systemd/system/ollama.service)

Швидке рішення (автоматичний скрипт):

# На НОДА1
cd /opt/microdao-daarion
# Запустити скрипт
bash NODE1-OLLAMA-GPU-ENABLE.sh

Або вручну:

# 1. Створити override.conf
sudo mkdir -p /etc/systemd/system/ollama.service.d
sudo tee /etc/systemd/system/ollama.service.d/override.conf > /dev/null << 'EOF'
[Service]
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"
EOF

# 2. Перезавантажити systemd
sudo systemctl daemon-reload

# 3. Перезапустити Ollama
sudo systemctl restart ollama

# 4. Перевірити
nvidia-smi
curl http://localhost:11434/api/ps

Варіант 2: Ollama як Docker контейнер

Якщо Ollama працює в Docker (але контейнер не знайдено, можливо в іншому compose файлі):

# Знайти Ollama
docker ps -a | grep ollama
docker compose -f /opt/microdao-daarion/docker-compose.yml ps | grep ollama

# Оновити docker-compose.yml
cd /opt/microdao-daarion
nano docker-compose.yml

# Додати GPU конфігурацію для ollama service:
services:
  ollama:
    image: ollama/ollama:latest
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 1
              capabilities: [gpu]
    environment:
      - NVIDIA_VISIBLE_DEVICES=all
      - CUDA_VISIBLE_DEVICES=0
      - OLLAMA_NUM_GPU=1
      - OLLAMA_GPU_LAYERS=35

# Перезапустити
docker compose up -d ollama

Варіант 3: Ollama працює на хості (не в Docker)

Якщо Ollama встановлено на хості:

# Перевірити Ollama
ollama --version
which ollama

# Ollama автоматично використовує GPU якщо доступний CUDA
# Перевірити:
ollama ps
nvidia-smi

# Якщо не використовує GPU, перевірити CUDA:
nvcc --version

📊 Перевірка результатів

# 1. GPU utilization (має збільшитися)
nvidia-smi

# 2. CPU навантаження Ollama (має знизитися)
top -bn1 | grep ollama

# 3. Ollama через API
curl http://localhost:11434/api/ps

# 4. Тест швидкості
time curl -X POST http://localhost:11434/api/generate -d '{
  "model": "qwen3:8b",
  "prompt": "Привіт, тест GPU",
  "stream": false
}'

Очікувані результати:

  • GPU utilization: 0% → 30-50%
  • CPU Ollama: 1583% → 50-100%
  • Загальне CPU: 85.3% → 40-50%
  • Швидкість: +200-300%

🔍 Діагностика

Якщо GPU не працює:

# 1. Перевірити CUDA в Ollama
docker exec ollama nvidia-smi  # або на хості
ollama ps  # покаже чи використовує GPU

# 2. Перевірити логи
docker logs ollama | grep -i gpu
journalctl -u ollama | grep -i gpu

# 3. Перевірити CUDA доступність
docker run --rm --gpus all nvidia/cuda:12.2.0-base-ubuntu22.04 nvidia-smi

Last Updated: 2025-01-27
Status: GPU доступний, потрібно налаштувати Ollama