Files
microdao-daarion/docs/MEMORY-MODULE-STATUS.md
Apple 8aee29d42d
Some checks failed
Build and Deploy Docs / build-and-deploy (push) Has been cancelled
📊 Add Memory Module Status Report across all nodes
2026-01-10 08:11:12 -08:00

10 KiB

🧠 Agent Memory Module — Status Report

Дата: 2026-01-10 Версія документа: 1.0.0


📊 Загальний статус

Компонент NODE1 NODE2 NODE3
PostgreSQL K8s (CloudNativePG) Docker
Qdrant K8s Docker (unhealthy)
Neo4j ⚠️ Docker (restarting)
Ollama v0.13.5 (fresh) v0.12.11 v0.13.5
NVIDIA GPU (CPU only) (Apple M4) RTX 3090
LTS-2 (CUDA) ⚠️ Driver 590.48.01 N/A CUDA 13.0

🖥️ NODE1 — Production Server (Hetzner)

IP: 144.76.224.179 OS: Ubuntu 24.04.3 LTS Role: K8s Master (K3s), Primary Database Host

Memory System Components

PostgreSQL (CloudNativePG)

Status: Running (1/1)
Pod: daarion-postgres-1
Namespace: daarion
Storage: PVC-backed

Таблиці (Agent Memory Schema):

Таблиця Призначення
organizations Мультитенантність
workspaces Проєкти в організації
users Користувачі системи
agents AI агенти
conversation_threads Контекст розмов (Short-term)
conversation_events Сирий лог повідомлень (Short-term)
thread_summaries Підсумки тредів (Mid-term)
long_term_memory_items Факти, преференції (Long-term)
memory_feedback Корекції користувачів

Qdrant (Vector Database)

Status: Running (1/1)
Pod: qdrant-5d45444569-hfbzg
Namespace: qdrant
Port: 6333 (internal), 30333 (NodePort)

Колекції:

  • memories — 1024-dimensional vectors (Cohere embed-multilingual-v3.0)

External Secrets (Vault Integration)

postgres-credentials: SecretSynced ✅
memory-service-secrets: SecretSynced ✅

Ollama

Version: 0.13.5
Service: systemd (enabled, running)
API: http://127.0.0.1:11434
Models: (none downloaded yet)
GPU: NVIDIA Driver 590.48.01 (DKMS installed)

Neo4j

Status: NOT INSTALLED

💻 NODE2 — MacBook M4 (Development)

Type: Apple MacBook Pro M4 OS: macOS Darwin 25.2.0 Role: Development, Local Testing

Memory System Components

PostgreSQL

Status: NOT INSTALLED
Note: Can use NODE1's PostgreSQL via SSH tunnel

⚠️ Qdrant (Docker)

Container: qdrant-vector-db
Status: Up 5 hours (unhealthy)
Ports: 6333-6335

⚠️ Neo4j (Docker)

Containers:
  - dagi-neo4j: Restarting (exit code 1)
  - dagi-neo4j-exporter: Restarting (exit code 0)
Image: neo4j:5.15-community
Status: NEEDS ATTENTION

Ollama

Version: 0.12.11
Location: /opt/homebrew/bin/ollama

Завантажені моделі:

Model Size Modified
deepseek-r1:70b 42 GB 7 weeks ago
qwen2.5-coder:32b 19 GB 7 weeks ago
deepseek-coder:33b 18 GB 7 weeks ago
gemma2:27b 15 GB 7 weeks ago
gpt-oss:latest 13 GB 7 weeks ago
llava:13b 8.0 GB 6 weeks ago
mistral-nemo:12b 7.1 GB 7 weeks ago
phi3:latest 2.2 GB 7 weeks ago
starcoder2:3b 1.7 GB 7 weeks ago

🎮 NODE3 — AI/ML Workstation

IP: 80.77.35.151:33147 OS: Linux (Ubuntu) Role: GPU Compute, ML Inference, GitLab Host

Hardware

GPU: NVIDIA GeForce RTX 3090 (24GB VRAM)
Driver: 580.95.05
CUDA: 13.0

Memory System Components

PostgreSQL (Docker)

Container: dagi-postgres
Image: postgres (23e88eb049fd)
Status: Up 3 hours
Port: 5432

Qdrant

Status: NOT INSTALLED
Note: Can deploy via Docker or K3s

Neo4j

Status: NOT INSTALLED

Ollama

Version: 0.13.5
Location: /usr/local/bin/ollama
GPU: RTX 3090 (CUDA enabled)

Завантажені моделі:

Model Size Modified
qwen3:32b 20 GB 25 hours ago
llama3:latest 4.7 GB 2 days ago

LTS-2 / CUDA

NVIDIA-SMI: 580.95.05
Driver Version: 580.95.05
CUDA Version: 13.0
GPU Memory: 24576 MiB
Temperature: 56°C
Power: 126W / 390W

🔗 Архітектура Memory Module

┌─────────────────────────────────────────────────────────────────┐
│                        AGENT MEMORY SYSTEM                       │
├─────────────────────────────────────────────────────────────────┤
│                                                                  │
│  ┌──────────────┐    ┌──────────────┐    ┌──────────────┐       │
│  │  SHORT-TERM  │    │   MID-TERM   │    │  LONG-TERM   │       │
│  │              │    │              │    │              │       │
│  │ conversation │    │   thread     │    │   memory     │       │
│  │   _events    │───▶│  _summaries  │───▶│   _items     │       │
│  │              │    │              │    │              │       │
│  │  (raw log)   │    │ (rolling     │    │ (distilled   │       │
│  │              │    │  summaries)  │    │  facts)      │       │
│  └──────────────┘    └──────────────┘    └──────────────┘       │
│         │                   │                   │                │
│         └───────────────────┼───────────────────┘                │
│                             │                                    │
│                             ▼                                    │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │                    PostgreSQL (NODE1)                    │    │
│  │                  CloudNativePG + pgvector                │    │
│  └─────────────────────────────────────────────────────────┘    │
│                             │                                    │
│                             ▼                                    │
│  ┌─────────────────────────────────────────────────────────┐    │
│  │                    Qdrant (NODE1)                        │    │
│  │              Semantic Search (1024-dim)                  │    │
│  │              Cohere embed-multilingual-v3.0              │    │
│  └─────────────────────────────────────────────────────────┘    │
│                                                                  │
├─────────────────────────────────────────────────────────────────┤
│                        INFERENCE LAYER                           │
│                                                                  │
│  ┌──────────────┐    ┌──────────────┐    ┌──────────────┐       │
│  │   NODE1      │    │    NODE2     │    │    NODE3     │       │
│  │   Ollama     │    │    Ollama    │    │    Ollama    │       │
│  │   (CPU)      │    │    (M4)      │    │   (RTX 3090) │       │
│  │              │    │              │    │              │       │
│  │  API-only    │    │  9 models    │    │  2 models    │       │
│  │  inference   │    │  (42GB max)  │    │  (20GB max)  │       │
│  └──────────────┘    └──────────────┘    └──────────────┘       │
│                                                                  │
└─────────────────────────────────────────────────────────────────┘

📋 TODO / Recommendations

Критичні

  • NODE2 Neo4j — Виправити контейнер (постійний restart)
  • NODE2 Qdrant — Перевірити healthcheck

Рекомендовані

  • NODE1 — Завантажити базову модель в Ollama (e.g., llama3:8b)
  • NODE3 — Встановити Qdrant для локального семантичного пошуку
  • NODE1 — Встановити Neo4j для графового зберігання зв'язків

Опціональні

  • Налаштувати реплікацію PostgreSQL NODE1 ↔ NODE3
  • Розгорнути Memory Service (FastAPI) в K8s
  • Інтегрувати Cohere API для автоматичного ембедингу

🔐 Credentials Reference

Service Location Access
PostgreSQL NODE1 K8s Via Vault → External Secrets
Qdrant NODE1 K8s Internal ClusterIP
Ollama NODE1 localhost:11434 UFW port 11434
Ollama NODE3 localhost:11434 SSH tunnel required
Cohere API Memory Service nOdOXnuepLku2ipJWpe6acWgAsJCsDhMO0RnaEJB

  • infrastructure/database/agent-memory-schema.sql — PostgreSQL schema
  • infrastructure/kubernetes/apps/qdrant/deployment.yaml — Qdrant K8s config
  • services/memory-service/ — FastAPI Memory Service (not deployed yet)
  • INFRASTRUCTURE.md — Main infrastructure documentation

Документ згенеровано автоматично: 2026-01-10 17:10 CET