- K8s deployment для DAGI Router (NODE1) - K8s deployment для Swapper Service (NODE1) - ConfigMaps для конфігурацій - Services (ClusterIP + NodePort) - Інтеграція з NATS JetStream - Оновлено DEPLOYMENT-PLAN.md з конкретними інструкціями TODO: Створити аналоги для NODE3
6.6 KiB
6.6 KiB
📋 План Deployment — DAGI Router, Swapper Service, Агенти
Дата: 2026-01-11
Версія: 1.0.0
✅ Поточний статус
DAGI Router
- NODE2: ✅ Працює (dagi-router, port 9102, healthy)
- NODE1: ❌ Не встановлено
- NODE3: ❌ Не встановлено
Swapper Service
- NODE2: ✅ Працює (swapper-service, port 8890)
- NODE1: ❌ Не встановлено
- NODE3: ❌ Не встановлено
Агенти
- Документація: ✅ Створена
- Підключення: ⏳ Очікує налаштування інфраструктури
🎯 Відповіді на питання
1. Коли підключати агентів?
Рекомендація: Після налаштування інфраструктури
Порядок:
- ✅ Генерація секретів та auth enforcement
- ✅ NATS JetStream працює
- ✅ Memory Service працює
- ⏳ DAGI Router на NODE1/NODE3
- ⏳ Swapper Service на NODE1/NODE3
- ⏳ Підключення агентів
Чому після:
- Агенти потребують Router для маршрутизації
- Swapper Service потрібен для LLM inference
- Memory Service має бути готовий для збереження пам'яті агентів
2. DAGI Router — коли встановлювати на NODE1/NODE3?
Рекомендація: Після auth enforcement та тестування
План:
-
NODE1 (Production):
- Встановити після генерації секретів
- Інтегрувати з NATS JetStream
- Налаштувати для production workloads
-
NODE3 (AI/ML Workstation):
- Встановити після NODE1
- Використовувати для GPU-інтенсивних задач
- Інтегрувати з Ollama на NODE3
Кроки:
# 1. Генерація секретів
./infrastructure/auth/generate-all-secrets.sh
# 2. Auth enforcement
./infrastructure/auth/enforce-auth.sh
# 3. Встановлення DAGI Router на NODE1
# (інструкції нижче)
# 4. Встановлення DAGI Router на NODE3
# (інструкції нижче)
3. Swapper Service — коли встановлювати на NODE1/NODE3?
Рекомендація: Одночасно з DAGI Router
Причина:
- Swapper Service інтегрований з Router
- Потрібен для LLM inference
- Має бути доступний на всіх production нодах
План:
- NODE1: Swapper Service для production LLM workloads
- NODE3: Swapper Service для GPU-інтенсивних моделей
4. Чи записуються всі дії в GitLab та логи?
Статус:
✅ Git Remotes
- GitHub: ✅ Налаштовано (origin)
- Gitea: ✅ Налаштовано (localhost:3000)
- GitLab: ✅ Налаштовано (localhost:8929 через SSH tunnel)
✅ Логи сесій
- Файл:
logs/sessions/2026-01-10.md✅ Існує - Розмір: 14KB
- Останнє оновлення: 2026-01-10 10:57
✅ Коміти
- Всі коміти записуються в GitHub ✅
- Всі коміти синхронізуються в Gitea ✅
- Всі коміти синхронізуються в GitLab ✅
Перевірка:
# Останні 10 комітів
git log --oneline -10
# Перевірка GitLab
git remote -v | grep gitlab
5. Чи потрібно перевірити NODE1 на інциденти?
✅ Перевірка виконана (2026-01-11 15:04):
Результати:
- ✅ Підозрілих процесів не знайдено
- ✅ Підозрілих файлів в /tmp не знайдено
- ✅ Cron jobs чистий
- ✅ Systemd services чистий
- ✅ Мережеві з'єднання нормальні
- ✅ Docker контейнери: тільки dagi-postgres (нормально)
- ✅ CPU/Memory: нормальне навантаження
Висновок: NODE1 чистий, інцидентів не виявлено.
📋 План дій
Етап 1: Завершення інфраструктури (зараз)
- ✅ Генерація секретів
- ✅ Auth enforcement
- ✅ Тестування
- ⏳ Встановлення DAGI Router на NODE1/NODE3
- ⏳ Встановлення Swapper Service на NODE1/NODE3
Етап 2: Підключення агентів (після інфраструктури)
- ⏳ Налаштування агентів в Memory Service
- ⏳ Інтеграція з DAGI Router
- ⏳ Тестування агентів
- ⏳ Production deployment
🔧 Інструкції для встановлення
DAGI Router на NODE1 (K8s)
# 1. Застосування K8s deployment
kubectl apply -f infrastructure/deployment/dagi-router-node1.yaml
# 2. Перевірка статусу
kubectl get pods -n daarion -l app=dagi-router
# 3. Перевірка health
kubectl port-forward -n daarion svc/dagi-router 9102:9102
curl http://localhost:9102/health
DAGI Router на NODE3 (K8s)
# Аналогічно до NODE1
# + інтеграція з Ollama на NODE3 (через Ollama service)
kubectl apply -f infrastructure/deployment/dagi-router-node3.yaml
Swapper Service на NODE1 (K8s)
# 1. Застосування K8s deployment
kubectl apply -f infrastructure/deployment/swapper-service-node1.yaml
# 2. Перевірка статусу
kubectl get pods -n daarion -l app=swapper-service
# 3. Перевірка health
kubectl port-forward -n daarion svc/swapper-service 8890:8890
curl http://localhost:8890/health
Swapper Service на NODE3 (K8s)
# Аналогічно до NODE1
# + використання GPU на NODE3 для моделей
kubectl apply -f infrastructure/deployment/swapper-service-node3.yaml
📊 Статус логування
✅ Працює
- Git hooks (post-commit, pre-push)
- Session logging (logs/sessions/)
- Multi-remote sync (GitHub, Gitea, GitLab)
⏳ Потрібно додати
- Автоматичне логування всіх команд (shell integration)
- Логування в Matrix rooms
- Централізовані логи (Loki)
Документ створено: 2026-01-11 15:04 CET