📊 Add Memory Module Status Report across all nodes
Some checks failed
Build and Deploy Docs / build-and-deploy (push) Has been cancelled

This commit is contained in:
Apple
2026-01-10 08:11:12 -08:00
parent eed1e30aca
commit 8aee29d42d

View File

@@ -0,0 +1,281 @@
# 🧠 Agent Memory Module — Status Report
**Дата:** 2026-01-10
**Версія документа:** 1.0.0
---
## 📊 Загальний статус
| Компонент | NODE1 | NODE2 | NODE3 |
|-----------|-------|-------|-------|
| **PostgreSQL** | ✅ K8s (CloudNativePG) | ❌ | ✅ Docker |
| **Qdrant** | ✅ K8s | ✅ Docker (unhealthy) | ❌ |
| **Neo4j** | ❌ | ⚠️ Docker (restarting) | ❌ |
| **Ollama** | ✅ v0.13.5 (fresh) | ✅ v0.12.11 | ✅ v0.13.5 |
| **NVIDIA GPU** | ❌ (CPU only) | ❌ (Apple M4) | ✅ RTX 3090 |
| **LTS-2 (CUDA)** | ⚠️ Driver 590.48.01 | N/A | ✅ CUDA 13.0 |
---
## 🖥️ NODE1 — Production Server (Hetzner)
**IP:** `144.76.224.179`
**OS:** Ubuntu 24.04.3 LTS
**Role:** K8s Master (K3s), Primary Database Host
### Memory System Components
#### ✅ PostgreSQL (CloudNativePG)
```
Status: Running (1/1)
Pod: daarion-postgres-1
Namespace: daarion
Storage: PVC-backed
```
**Таблиці (Agent Memory Schema):**
| Таблиця | Призначення |
|---------|-------------|
| `organizations` | Мультитенантність |
| `workspaces` | Проєкти в організації |
| `users` | Користувачі системи |
| `agents` | AI агенти |
| `conversation_threads` | Контекст розмов (Short-term) |
| `conversation_events` | Сирий лог повідомлень (Short-term) |
| `thread_summaries` | Підсумки тредів (Mid-term) |
| `long_term_memory_items` | Факти, преференції (Long-term) |
| `memory_feedback` | Корекції користувачів |
#### ✅ Qdrant (Vector Database)
```
Status: Running (1/1)
Pod: qdrant-5d45444569-hfbzg
Namespace: qdrant
Port: 6333 (internal), 30333 (NodePort)
```
**Колекції:**
- `memories` — 1024-dimensional vectors (Cohere embed-multilingual-v3.0)
#### ✅ External Secrets (Vault Integration)
```
postgres-credentials: SecretSynced ✅
memory-service-secrets: SecretSynced ✅
```
#### ✅ Ollama
```
Version: 0.13.5
Service: systemd (enabled, running)
API: http://127.0.0.1:11434
Models: (none downloaded yet)
GPU: NVIDIA Driver 590.48.01 (DKMS installed)
```
#### ❌ Neo4j
```
Status: NOT INSTALLED
```
---
## 💻 NODE2 — MacBook M4 (Development)
**Type:** Apple MacBook Pro M4
**OS:** macOS Darwin 25.2.0
**Role:** Development, Local Testing
### Memory System Components
#### ❌ PostgreSQL
```
Status: NOT INSTALLED
Note: Can use NODE1's PostgreSQL via SSH tunnel
```
#### ⚠️ Qdrant (Docker)
```
Container: qdrant-vector-db
Status: Up 5 hours (unhealthy)
Ports: 6333-6335
```
#### ⚠️ Neo4j (Docker)
```
Containers:
- dagi-neo4j: Restarting (exit code 1)
- dagi-neo4j-exporter: Restarting (exit code 0)
Image: neo4j:5.15-community
Status: NEEDS ATTENTION
```
#### ✅ Ollama
```
Version: 0.12.11
Location: /opt/homebrew/bin/ollama
```
**Завантажені моделі:**
| Model | Size | Modified |
|-------|------|----------|
| deepseek-r1:70b | 42 GB | 7 weeks ago |
| qwen2.5-coder:32b | 19 GB | 7 weeks ago |
| deepseek-coder:33b | 18 GB | 7 weeks ago |
| gemma2:27b | 15 GB | 7 weeks ago |
| gpt-oss:latest | 13 GB | 7 weeks ago |
| llava:13b | 8.0 GB | 6 weeks ago |
| mistral-nemo:12b | 7.1 GB | 7 weeks ago |
| phi3:latest | 2.2 GB | 7 weeks ago |
| starcoder2:3b | 1.7 GB | 7 weeks ago |
---
## 🎮 NODE3 — AI/ML Workstation
**IP:** `80.77.35.151:33147`
**OS:** Linux (Ubuntu)
**Role:** GPU Compute, ML Inference, GitLab Host
### Hardware
```
GPU: NVIDIA GeForce RTX 3090 (24GB VRAM)
Driver: 580.95.05
CUDA: 13.0
```
### Memory System Components
#### ✅ PostgreSQL (Docker)
```
Container: dagi-postgres
Image: postgres (23e88eb049fd)
Status: Up 3 hours
Port: 5432
```
#### ❌ Qdrant
```
Status: NOT INSTALLED
Note: Can deploy via Docker or K3s
```
#### ❌ Neo4j
```
Status: NOT INSTALLED
```
#### ✅ Ollama
```
Version: 0.13.5
Location: /usr/local/bin/ollama
GPU: RTX 3090 (CUDA enabled)
```
**Завантажені моделі:**
| Model | Size | Modified |
|-------|------|----------|
| qwen3:32b | 20 GB | 25 hours ago |
| llama3:latest | 4.7 GB | 2 days ago |
#### ✅ LTS-2 / CUDA
```
NVIDIA-SMI: 580.95.05
Driver Version: 580.95.05
CUDA Version: 13.0
GPU Memory: 24576 MiB
Temperature: 56°C
Power: 126W / 390W
```
---
## 🔗 Архітектура Memory Module
```
┌─────────────────────────────────────────────────────────────────┐
│ AGENT MEMORY SYSTEM │
├─────────────────────────────────────────────────────────────────┤
│ │
│ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │
│ │ SHORT-TERM │ │ MID-TERM │ │ LONG-TERM │ │
│ │ │ │ │ │ │ │
│ │ conversation │ │ thread │ │ memory │ │
│ │ _events │───▶│ _summaries │───▶│ _items │ │
│ │ │ │ │ │ │ │
│ │ (raw log) │ │ (rolling │ │ (distilled │ │
│ │ │ │ summaries) │ │ facts) │ │
│ └──────────────┘ └──────────────┘ └──────────────┘ │
│ │ │ │ │
│ └───────────────────┼───────────────────┘ │
│ │ │
│ ▼ │
│ ┌─────────────────────────────────────────────────────────┐ │
│ │ PostgreSQL (NODE1) │ │
│ │ CloudNativePG + pgvector │ │
│ └─────────────────────────────────────────────────────────┘ │
│ │ │
│ ▼ │
│ ┌─────────────────────────────────────────────────────────┐ │
│ │ Qdrant (NODE1) │ │
│ │ Semantic Search (1024-dim) │ │
│ │ Cohere embed-multilingual-v3.0 │ │
│ └─────────────────────────────────────────────────────────┘ │
│ │
├─────────────────────────────────────────────────────────────────┤
│ INFERENCE LAYER │
│ │
│ ┌──────────────┐ ┌──────────────┐ ┌──────────────┐ │
│ │ NODE1 │ │ NODE2 │ │ NODE3 │ │
│ │ Ollama │ │ Ollama │ │ Ollama │ │
│ │ (CPU) │ │ (M4) │ │ (RTX 3090) │ │
│ │ │ │ │ │ │ │
│ │ API-only │ │ 9 models │ │ 2 models │ │
│ │ inference │ │ (42GB max) │ │ (20GB max) │ │
│ └──────────────┘ └──────────────┘ └──────────────┘ │
│ │
└─────────────────────────────────────────────────────────────────┘
```
---
## 📋 TODO / Recommendations
### Критичні
- [ ] **NODE2 Neo4j** — Виправити контейнер (постійний restart)
- [ ] **NODE2 Qdrant** — Перевірити healthcheck
### Рекомендовані
- [ ] **NODE1** — Завантажити базову модель в Ollama (e.g., `llama3:8b`)
- [ ] **NODE3** — Встановити Qdrant для локального семантичного пошуку
- [ ] **NODE1** — Встановити Neo4j для графового зберігання зв'язків
### Опціональні
- [ ] Налаштувати реплікацію PostgreSQL NODE1 ↔ NODE3
- [ ] Розгорнути Memory Service (FastAPI) в K8s
- [ ] Інтегрувати Cohere API для автоматичного ембедингу
---
## 🔐 Credentials Reference
| Service | Location | Access |
|---------|----------|--------|
| PostgreSQL | NODE1 K8s | Via Vault → External Secrets |
| Qdrant | NODE1 K8s | Internal ClusterIP |
| Ollama NODE1 | localhost:11434 | UFW port 11434 |
| Ollama NODE3 | localhost:11434 | SSH tunnel required |
| Cohere API | Memory Service | `nOdOXnuepLku2ipJWpe6acWgAsJCsDhMO0RnaEJB` |
---
## 📁 Related Files
- `infrastructure/database/agent-memory-schema.sql` — PostgreSQL schema
- `infrastructure/kubernetes/apps/qdrant/deployment.yaml` — Qdrant K8s config
- `services/memory-service/` — FastAPI Memory Service (not deployed yet)
- `INFRASTRUCTURE.md` — Main infrastructure documentation
---
*Документ згенеровано автоматично: 2026-01-10 17:10 CET*