Files
microdao-daarion/LLM-SERVICES-SETUP-COMPLETE.md
Apple 6bd769ef40 feat(city-map): Add 2D City Map with coordinates and agent presence
- Add migration 013_city_map_coordinates.sql with map coordinates, zones, and agents table
- Add /city/map API endpoint in city-service
- Add /city/agents and /city/agents/online endpoints
- Extend presence aggregator to include agents[] in snapshot
- Add AgentsSource for fetching agent data from DB
- Create CityMap component with interactive room tiles
- Add useCityMap hook for fetching map data
- Update useGlobalPresence to include agents
- Add map/list view toggle on /city page
- Add agent badges to room cards and map tiles
2025-11-27 07:00:47 -08:00

176 lines
5.2 KiB
Markdown
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
# Налаштування LLM Сервісів - Завершено ✅
**Дата:** 2025-11-23
**Статус:** ✅ Повністю налаштовано та працює
---
## 🔧 Виконані зміни
### 1. Налаштування Ollama для доступу з Docker
**Проблема:** Ollama слухав тільки на `127.0.0.1:11434`, тому Docker контейнери не могли достукатися.
**Рішення:** Налаштували Ollama слухати на всіх інтерфейсах (`0.0.0.0:11434`).
**Файл:** `/etc/systemd/system/ollama.service.d/override.conf`
```ini
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"
```
**Команди:**
```bash
# Оновлення конфігурації
echo '[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_NUM_GPU=1"
Environment="OLLAMA_GPU_LAYERS=35"
Environment="CUDA_VISIBLE_DEVICES=0"
Environment="OLLAMA_KEEP_ALIVE=24h"' > /etc/systemd/system/ollama.service.d/override.conf
# Перезапуск Ollama
systemctl daemon-reload
systemctl restart ollama
```
**Результат:**
- ✅ Ollama тепер слухає на `*:11434` (всі інтерфейси)
- ✅ Docker контейнери можуть підключатися через `172.17.0.1:11434`
- ✅ Router може підключатися до Ollama
---
## ✅ Перевірка роботи
### 1. Статус Ollama
```bash
$ systemctl status ollama
● ollama.service - Ollama Service
Active: active (running)
OLLAMA_HOST: http://0.0.0.0:11434
```
### 2. Доступність з Docker
```bash
$ docker exec dagi-router curl -s http://172.17.0.1:11434/api/tags
{"models":[...]} # ✅ Працює
```
### 3. Тест Router з агентом Helion
```bash
$ curl -X POST http://144.76.224.179:9102/route \
-H 'Content-Type: application/json' \
-d '{"agent":"helion","message":"Привіт","mode":"chat"}'
{
"data": {
"text": "Привіт! 😊 Я тут, щоб допомогти. Що ти хочеш обговорити або зробити?"
}
}
```
**Результат:** ✅ Router успішно підключається до Ollama та обробляє запити!
---
## 📊 Поточний стан сервісів
### ✅ Працюючі сервіси
1. **Ollama**
- URL: `http://0.0.0.0:11434` (всі інтерфейси)
- Моделі: 5 встановлених (qwen3:8b, qwen2.5:7b, тощо)
- GPU: ✅ Активний (CUDA)
- Статус: ✅ Healthy
2. **DAGI Router**
- URL: `http://144.76.224.179:9102`
- Підключення до Ollama: ✅ Працює
- Агенти: helion, greenfood, yaromir, тощо
- Статус: ✅ Healthy
3. **Frontend**
- Чат з оркестраторами: ✅ Працює
- Fallback обробка: ✅ Налаштована
- Підключення до Router: ✅ Працює
---
## 🎯 Результати
### До налаштування:
- ❌ Router не міг підключитися до Ollama
- ❌ Помилка: "Provider error: All connection attempts failed"
- ❌ Чат показував тільки fallback повідомлення
### Після налаштування:
- ✅ Router успішно підключається до Ollama
- ✅ Агенти (helion, greenfood, yaromir) працюють
- ✅ Чат повертає реальні відповіді від LLM
- ✅ Модель qwen3:8b обробляє запити коректно
---
## 📝 Налаштування Router
**Файл:** `/opt/dagi-router/router-config.yml`
```yaml
llm_profiles:
local_qwen3_8b:
provider: ollama
base_url: http://172.17.0.1:11434 # ✅ Працює з Docker контейнерів
model: qwen3:8b
max_tokens: 1024
temperature: 0.2
top_p: 0.9
timeout_ms: 30000
agents:
helion:
description: "Helion - AI agent for Energy Union platform"
default_llm: local_qwen3_8b # ✅ Використовує Ollama
system_prompt: |
Ти - Helion, AI-агент платформи Energy Union.
...
```
---
## 🚀 Наступні кроки (опціонально)
1. **Моніторинг**
- Додати метрики для Ollama (Prometheus)
- Відстежувати час відповіді Router
2. **Оптимізація**
- Налаштувати connection pooling для Ollama
- Додати кешування відповідей
3. **Безпека**
- Обмежити доступ до Ollama тільки з Docker мережі
- Додати аутентифікацію (якщо потрібно)
---
## ✅ Висновок
LLM сервіси повністю налаштовані та працюють:
- ✅ Ollama доступний з Docker контейнерів
- ✅ Router підключається до Ollama
- ✅ Агенти обробляють запити через LLM
- ✅ Чат працює з реальними відповідями
**Система готова до використання!** 🎉