Some checks failed
Build and Deploy Docs / build-and-deploy (push) Has been cancelled
- Created logs/ structure (sessions, operations, incidents) - Added session-start/log/end scripts - Installed Git hooks for auto-logging commits/pushes - Added shell integration for zsh - Created CHANGELOG.md - Documented today's session (2026-01-10)
187 lines
5.2 KiB
Markdown
187 lines
5.2 KiB
Markdown
# Налаштування LLM Сервісів - Завершено ✅
|
||
|
||
**Дата:** 2025-11-23
|
||
**Статус:** ✅ Повністю налаштовано та працює
|
||
|
||
---
|
||
|
||
## 🔧 Виконані зміни
|
||
|
||
### 1. Налаштування Ollama для доступу з Docker
|
||
|
||
**Проблема:** Ollama слухав тільки на `127.0.0.1:11434`, тому Docker контейнери не могли достукатися.
|
||
|
||
**Рішення:** Налаштували Ollama слухати на всіх інтерфейсах (`0.0.0.0:11434`).
|
||
|
||
**Файл:** `/etc/systemd/system/ollama.service.d/override.conf`
|
||
|
||
```ini
|
||
[Service]
|
||
Environment="OLLAMA_HOST=0.0.0.0:11434"
|
||
Environment="OLLAMA_NUM_GPU=1"
|
||
Environment="OLLAMA_GPU_LAYERS=35"
|
||
Environment="CUDA_VISIBLE_DEVICES=0"
|
||
Environment="OLLAMA_KEEP_ALIVE=24h"
|
||
```
|
||
|
||
**Команди:**
|
||
```bash
|
||
# Оновлення конфігурації
|
||
echo '[Service]
|
||
Environment="OLLAMA_HOST=0.0.0.0:11434"
|
||
Environment="OLLAMA_NUM_GPU=1"
|
||
Environment="OLLAMA_GPU_LAYERS=35"
|
||
Environment="CUDA_VISIBLE_DEVICES=0"
|
||
Environment="OLLAMA_KEEP_ALIVE=24h"' > /etc/systemd/system/ollama.service.d/override.conf
|
||
|
||
# Перезапуск Ollama
|
||
systemctl daemon-reload
|
||
systemctl restart ollama
|
||
```
|
||
|
||
**Результат:**
|
||
- ✅ Ollama тепер слухає на `*:11434` (всі інтерфейси)
|
||
- ✅ Docker контейнери можуть підключатися через `172.17.0.1:11434`
|
||
- ✅ Router може підключатися до Ollama
|
||
|
||
---
|
||
|
||
## ✅ Перевірка роботи
|
||
|
||
### 1. Статус Ollama
|
||
```bash
|
||
$ systemctl status ollama
|
||
● ollama.service - Ollama Service
|
||
Active: active (running)
|
||
OLLAMA_HOST: http://0.0.0.0:11434
|
||
```
|
||
|
||
### 2. Доступність з Docker
|
||
```bash
|
||
$ docker exec dagi-router curl -s http://172.17.0.1:11434/api/tags
|
||
{"models":[...]} # ✅ Працює
|
||
```
|
||
|
||
### 3. Тест Router з агентом Helion
|
||
```bash
|
||
$ curl -X POST http://144.76.224.179:9102/route \
|
||
-H 'Content-Type: application/json' \
|
||
-d '{"agent":"helion","message":"Привіт","mode":"chat"}'
|
||
|
||
{
|
||
"data": {
|
||
"text": "Привіт! 😊 Я тут, щоб допомогти. Що ти хочеш обговорити або зробити?"
|
||
}
|
||
}
|
||
```
|
||
|
||
**Результат:** ✅ Router успішно підключається до Ollama та обробляє запити!
|
||
|
||
---
|
||
|
||
## 📊 Поточний стан сервісів
|
||
|
||
### ✅ Працюючі сервіси
|
||
|
||
1. **Ollama**
|
||
- URL: `http://0.0.0.0:11434` (всі інтерфейси)
|
||
- Моделі: 5 встановлених (qwen3:8b, qwen2.5:7b, тощо)
|
||
- GPU: ✅ Активний (CUDA)
|
||
- Статус: ✅ Healthy
|
||
|
||
2. **DAGI Router**
|
||
- URL: `http://144.76.224.179:9102`
|
||
- Підключення до Ollama: ✅ Працює
|
||
- Агенти: helion, greenfood, yaromir, тощо
|
||
- Статус: ✅ Healthy
|
||
|
||
3. **Frontend**
|
||
- Чат з оркестраторами: ✅ Працює
|
||
- Fallback обробка: ✅ Налаштована
|
||
- Підключення до Router: ✅ Працює
|
||
|
||
---
|
||
|
||
## 🎯 Результати
|
||
|
||
### До налаштування:
|
||
- ❌ Router не міг підключитися до Ollama
|
||
- ❌ Помилка: "Provider error: All connection attempts failed"
|
||
- ❌ Чат показував тільки fallback повідомлення
|
||
|
||
### Після налаштування:
|
||
- ✅ Router успішно підключається до Ollama
|
||
- ✅ Агенти (helion, greenfood, yaromir) працюють
|
||
- ✅ Чат повертає реальні відповіді від LLM
|
||
- ✅ Модель qwen3:8b обробляє запити коректно
|
||
|
||
---
|
||
|
||
## 📝 Налаштування Router
|
||
|
||
**Файл:** `/opt/dagi-router/router-config.yml`
|
||
|
||
```yaml
|
||
llm_profiles:
|
||
local_qwen3_8b:
|
||
provider: ollama
|
||
base_url: http://172.17.0.1:11434 # ✅ Працює з Docker контейнерів
|
||
model: qwen3:8b
|
||
max_tokens: 1024
|
||
temperature: 0.2
|
||
top_p: 0.9
|
||
timeout_ms: 30000
|
||
|
||
agents:
|
||
helion:
|
||
description: "Helion - AI agent for Energy Union platform"
|
||
default_llm: local_qwen3_8b # ✅ Використовує Ollama
|
||
system_prompt: |
|
||
Ти - Helion, AI-агент платформи Energy Union.
|
||
...
|
||
```
|
||
|
||
---
|
||
|
||
## 🚀 Наступні кроки (опціонально)
|
||
|
||
1. **Моніторинг**
|
||
- Додати метрики для Ollama (Prometheus)
|
||
- Відстежувати час відповіді Router
|
||
|
||
2. **Оптимізація**
|
||
- Налаштувати connection pooling для Ollama
|
||
- Додати кешування відповідей
|
||
|
||
3. **Безпека**
|
||
- Обмежити доступ до Ollama тільки з Docker мережі
|
||
- Додати аутентифікацію (якщо потрібно)
|
||
|
||
---
|
||
|
||
## ✅ Висновок
|
||
|
||
LLM сервіси повністю налаштовані та працюють:
|
||
- ✅ Ollama доступний з Docker контейнерів
|
||
- ✅ Router підключається до Ollama
|
||
- ✅ Агенти обробляють запити через LLM
|
||
- ✅ Чат працює з реальними відповідями
|
||
|
||
**Система готова до використання!** 🎉
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|
||
|