Some checks failed
Build and Deploy Docs / build-and-deploy (push) Has been cancelled
- Created logs/ structure (sessions, operations, incidents) - Added session-start/log/end scripts - Installed Git hooks for auto-logging commits/pushes - Added shell integration for zsh - Created CHANGELOG.md - Documented today's session (2026-01-10)
5.2 KiB
5.2 KiB
Налаштування LLM Сервісів - Завершено ✅
Дата: 2025-11-23
Статус: ✅ Повністю налаштовано та працює
🔧 Виконані зміни
1. Налаштування Ollama для доступу з Docker
Проблема: Ollama слухав тільки на 127.0.0.1:11434, тому Docker контейнери не могли достукатися.
Рішення: Налаштували Ollama слухати на всіх інтерфейсах (0.0.0.0:11434).
Файл: /etc/systemd/system/ollama.service.d/override.conf
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"
Команди:
# Оновлення конфігурації
echo '[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"' > /etc/systemd/system/ollama.service.d/override.conf
# Перезапуск Ollama
systemctl daemon-reload
systemctl restart ollama
Результат:
- ✅ Ollama тепер слухає на
*:11434(всі інтерфейси) - ✅ Docker контейнери можуть підключатися через
172.17.0.1:11434 - ✅ Router може підключатися до Ollama
✅ Перевірка роботи
1. Статус Ollama
$ systemctl status ollama
● ollama.service - Ollama Service
Active: active (running)
OLLAMA_HOST: http://0.0.0.0:11434
2. Доступність з Docker
$ docker exec dagi-router curl -s http://172.17.0.1:11434/api/tags
{"models":[...]} # ✅ Працює
3. Тест Router з агентом Helion
$ curl -X POST http://144.76.224.179:9102/route \
-H 'Content-Type: application/json' \
-d '{"agent":"helion","message":"Привіт","mode":"chat"}'
{
"data": {
"text": "Привіт! 😊 Я тут, щоб допомогти. Що ти хочеш обговорити або зробити?"
}
}
Результат: ✅ Router успішно підключається до Ollama та обробляє запити!
📊 Поточний стан сервісів
✅ Працюючі сервіси
-
Ollama
- URL:
http://0.0.0.0:11434(всі інтерфейси) - Моделі: 5 встановлених (qwen3:8b, qwen2.5:7b, тощо)
- GPU: ✅ Активний (CUDA)
- Статус: ✅ Healthy
- URL:
-
DAGI Router
- URL:
http://144.76.224.179:9102 - Підключення до Ollama: ✅ Працює
- Агенти: helion, greenfood, yaromir, тощо
- Статус: ✅ Healthy
- URL:
-
Frontend
- Чат з оркестраторами: ✅ Працює
- Fallback обробка: ✅ Налаштована
- Підключення до Router: ✅ Працює
🎯 Результати
До налаштування:
- ❌ Router не міг підключитися до Ollama
- ❌ Помилка: "Provider error: All connection attempts failed"
- ❌ Чат показував тільки fallback повідомлення
Після налаштування:
- ✅ Router успішно підключається до Ollama
- ✅ Агенти (helion, greenfood, yaromir) працюють
- ✅ Чат повертає реальні відповіді від LLM
- ✅ Модель qwen3:8b обробляє запити коректно
📝 Налаштування Router
Файл: /opt/dagi-router/router-config.yml
llm_profiles:
local_qwen3_8b:
provider: ollama
base_url: http://172.17.0.1:11434 # ✅ Працює з Docker контейнерів
model: qwen3:8b
max_tokens: 1024
temperature: 0.2
top_p: 0.9
timeout_ms: 30000
agents:
helion:
description: "Helion - AI agent for Energy Union platform"
default_llm: local_qwen3_8b # ✅ Використовує Ollama
system_prompt: |
Ти - Helion, AI-агент платформи Energy Union.
...
🚀 Наступні кроки (опціонально)
-
Моніторинг
- Додати метрики для Ollama (Prometheus)
- Відстежувати час відповіді Router
-
Оптимізація
- Налаштувати connection pooling для Ollama
- Додати кешування відповідей
-
Безпека
- Обмежити доступ до Ollama тільки з Docker мережі
- Додати аутентифікацію (якщо потрібно)
✅ Висновок
LLM сервіси повністю налаштовані та працюють:
- ✅ Ollama доступний з Docker контейнерів
- ✅ Router підключається до Ollama
- ✅ Агенти обробляють запити через LLM
- ✅ Чат працює з реальними відповідями
Система готова до використання! 🎉