Files
microdao-daarion/LLM-SERVICES-SETUP-COMPLETE.md
Apple 744c149300
Some checks failed
Build and Deploy Docs / build-and-deploy (push) Has been cancelled
Add automated session logging system
- Created logs/ structure (sessions, operations, incidents)
- Added session-start/log/end scripts
- Installed Git hooks for auto-logging commits/pushes
- Added shell integration for zsh
- Created CHANGELOG.md
- Documented today's session (2026-01-10)
2026-01-10 04:53:17 -08:00

5.2 KiB
Raw Permalink Blame History

Налаштування LLM Сервісів - Завершено

Дата: 2025-11-23
Статус: Повністю налаштовано та працює


🔧 Виконані зміни

1. Налаштування Ollama для доступу з Docker

Проблема: Ollama слухав тільки на 127.0.0.1:11434, тому Docker контейнери не могли достукатися.

Рішення: Налаштували Ollama слухати на всіх інтерфейсах (0.0.0.0:11434).

Файл: /etc/systemd/system/ollama.service.d/override.conf

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"

Команди:

# Оновлення конфігурації
echo '[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"' > /etc/systemd/system/ollama.service.d/override.conf

# Перезапуск Ollama
systemctl daemon-reload
systemctl restart ollama

Результат:

  • Ollama тепер слухає на *:11434 (всі інтерфейси)
  • Docker контейнери можуть підключатися через 172.17.0.1:11434
  • Router може підключатися до Ollama

Перевірка роботи

1. Статус Ollama

$ systemctl status ollama
● ollama.service - Ollama Service
     Active: active (running)
     OLLAMA_HOST: http://0.0.0.0:11434

2. Доступність з Docker

$ docker exec dagi-router curl -s http://172.17.0.1:11434/api/tags
{"models":[...]} # ✅ Працює

3. Тест Router з агентом Helion

$ curl -X POST http://144.76.224.179:9102/route \
  -H 'Content-Type: application/json' \
  -d '{"agent":"helion","message":"Привіт","mode":"chat"}'

{
  "data": {
    "text": "Привіт! 😊 Я тут, щоб допомогти. Що ти хочеш обговорити або зробити?"
  }
}

Результат: Router успішно підключається до Ollama та обробляє запити!


📊 Поточний стан сервісів

Працюючі сервіси

  1. Ollama

    • URL: http://0.0.0.0:11434 (всі інтерфейси)
    • Моделі: 5 встановлених (qwen3:8b, qwen2.5:7b, тощо)
    • GPU: Активний (CUDA)
    • Статус: Healthy
  2. DAGI Router

    • URL: http://144.76.224.179:9102
    • Підключення до Ollama: Працює
    • Агенти: helion, greenfood, yaromir, тощо
    • Статус: Healthy
  3. Frontend

    • Чат з оркестраторами: Працює
    • Fallback обробка: Налаштована
    • Підключення до Router: Працює

🎯 Результати

До налаштування:

  • Router не міг підключитися до Ollama
  • Помилка: "Provider error: All connection attempts failed"
  • Чат показував тільки fallback повідомлення

Після налаштування:

  • Router успішно підключається до Ollama
  • Агенти (helion, greenfood, yaromir) працюють
  • Чат повертає реальні відповіді від LLM
  • Модель qwen3:8b обробляє запити коректно

📝 Налаштування Router

Файл: /opt/dagi-router/router-config.yml

llm_profiles:
  local_qwen3_8b:
    provider: ollama
    base_url: http://172.17.0.1:11434  # ✅ Працює з Docker контейнерів
    model: qwen3:8b
    max_tokens: 1024
    temperature: 0.2
    top_p: 0.9
    timeout_ms: 30000

agents:
  helion:
    description: "Helion - AI agent for Energy Union platform"
    default_llm: local_qwen3_8b  # ✅ Використовує Ollama
    system_prompt: |
      Ти - Helion, AI-агент платформи Energy Union.
      ...

🚀 Наступні кроки (опціонально)

  1. Моніторинг

    • Додати метрики для Ollama (Prometheus)
    • Відстежувати час відповіді Router
  2. Оптимізація

    • Налаштувати connection pooling для Ollama
    • Додати кешування відповідей
  3. Безпека

    • Обмежити доступ до Ollama тільки з Docker мережі
    • Додати аутентифікацію (якщо потрібно)

Висновок

LLM сервіси повністю налаштовані та працюють:

  • Ollama доступний з Docker контейнерів
  • Router підключається до Ollama
  • Агенти обробляють запити через LLM
  • Чат працює з реальними відповідями

Система готова до використання! 🎉