Поточний стан моделей Ollama на НОДА2¶
Дата перевірки: 2025-11-21 (актуально)
⚠️ ВАЖЛИВЕ ПОПЕРЕДЖЕННЯ¶
Встановлені моделі мають значно менші розміри, ніж планувалося!
Причина: Ollama автоматично вибрав :latest теги, які встановили менші версії моделей:
- deepseek-r1:latest = 5.2 GB (8.2B) замість планованих ~40 GB
- qwen2.5-coder:latest = 4.7 GB (7.6B) замість планованих ~40 GB (72B)
- starcoder2:latest = 1.7 GB (3B) замість планованих ~20 GB (34B)
- gemma2:latest = 5.4 GB (9.2B) замість планованих ~18 GB (27B)
Детальний аналіз: Див. docs/node2/MODELS_DETAILED_LIST.md
📊 Встановлені моделі (8 моделей)¶
Список встановлених моделей:¶
| Модель | Розмір | Параметри | Квантізація | Встановлено | Призначення |
|---|---|---|---|---|---|
| phi3:latest | 2.2 GB | 3.8B | Q4_0 | 2 години тому | Memory Agents |
| gpt-oss:latest | 13 GB | 20.9B | MXFP4 | 2 години тому | Fast Agents |
| starcoder2:latest | 1.7 GB | 3B | Q4_0 | 2 години тому | Code Engineering |
| qwen2.5-coder:latest | 4.7 GB | 7.6B | Q4_K_M | 2 години тому | Code Engineering |
| gemma2:latest | 5.4 GB | 9.2B | Q4_0 | 2 години тому | Reasoning/Strategic |
| mistral-nemo:latest | 7.1 GB | 12.2B | Q4_0 | 2 години тому | Reasoning/Strategic |
| deepseek-r1:latest | 5.2 GB | 8.2B | Q4_K_M | 2 години тому | Reasoning/Strategic |
| qwen3-vl:latest | 6.1 GB | 8.8B | Q4_K_M | 42 години тому | Vision Agents |
Загальний розмір: ~45.6 GB
✅ Порівняння з планом встановлення¶
🔴 Пріоритет 1 (Critical Models) - 9 моделей¶
| Планована модель | Статус | Фактична модель | Примітка |
|---|---|---|---|
| deepseek-r1:q4 | ⚠️ | deepseek-r1:latest | МЕНША ВЕРСІЯ (5.2 GB, 8.2B замість ~40 GB) |
| mistral-nemo:22b:q4 | ⚠️ | mistral-nemo:latest | МЕНША ВЕРСІЯ (7.1 GB, 12.2B замість ~13 GB, 22B) |
| gemma2:27b-it:q4 | ⚠️ | gemma2:latest | МЕНША ВЕРСІЯ (5.4 GB, 9.2B замість ~18 GB, 27B) |
| qwen2.5-coder:72b:q4 | ⚠️ | qwen2.5-coder:latest | МЕНША ВЕРСІЯ (4.7 GB, 7.6B замість ~40 GB, 72B) |
| starcoder2:34b:q4 | ⚠️ | starcoder2:latest | МЕНША ВЕРСІЯ (1.7 GB, 3B замість ~20 GB, 34B) |
| qwen2-vl:32b-instruct:q4 | ⚠️ | qwen3-vl:latest | Замінено на qwen3-vl (6.1 GB) |
| mistral:7b-instruct:4.1 | ❌ | - | Не встановлено |
| qwen2.5:7b-instruct:4.4 | ❌ | - | Не встановлено |
| gpt-oss:20b:q4 | ✅ | gpt-oss:latest | Встановлено (13 GB) |
Результат: 6/9 встановлено (67%)
🟡 Пріоритет 2 (Specialized Models) - 1 модель¶
| Планована модель | Статус | Фактична модель | Примітка |
|---|---|---|---|
| deepseek-math:33b:q4 | ❌ | - | Не встановлено |
Результат: 0/1 встановлено (0%)
🟢 Пріоритет 3 (Ultra-light Models) - 3 моделі¶
| Планована модель | Статус | Фактична модель | Примітка |
|---|---|---|---|
| gemma2:2b-it | ⚠️ | gemma2:latest | Встановлено, але інша версія |
| phi3:mini | ⚠️ | phi3:latest | Встановлено, але інша версія (2.2 GB) |
| qwen2.5:3b-instruct | ❌ | - | Не встановлено |
Результат: 2/3 встановлено (67%)
📊 Загальна статистика¶
- Всього встановлено: 8 моделей
- Загальний розмір: ~45.6 GB
- З плану Пріоритет 1: 6/9 (67%)
- З плану Пріоритет 2: 0/1 (0%)
- З плану Пріоритет 3: 2/3 (67%)
- Загальний прогрес: 8/13 (62%)
⚠️ Відсутні моделі (критичні)¶
Для Fast Agents:¶
- ❌ mistral:7b-instruct - швидка модель для швидких агентів
- ❌ qwen2.5:7b-instruct - альтернатива для швидких агентів
Для Math Agents:¶
- ❌ deepseek-math:33b - спеціалізована модель для математичних задач
Для Memory Agents:¶
- ❌ qwen2.5:3b-instruct - легка модель для memory агентів
Для Vision Agents (покращення):¶
- ⚠️ qwen2-vl:32b-instruct - краща якість ніж qwen3-vl (опціонально)
✅ Доступні категорії моделей¶
1. Reasoning/Strategic Agents ✅¶
- ✅ deepseek-r1:latest (5.2 GB) - основна
- ✅ mistral-nemo:latest (7.1 GB) - альтернатива
- ✅ gemma2:latest (5.4 GB) - альтернатива
2. Code Engineering Agents ✅¶
- ✅ qwen2.5-coder:latest (4.7 GB) - основна
- ✅ starcoder2:latest (1.7 GB) - легка альтернатива
3. Vision Agents ✅¶
- ✅ qwen3-vl:latest (6.1 GB) - встановлено
4. Fast Agents ⚠️¶
- ✅ gpt-oss:latest (13 GB) - встановлено
- ❌ mistral:7b-instruct - відсутня
- ❌ qwen2.5:7b-instruct - відсутня
5. Memory Agents ✅¶
- ✅ phi3:latest (2.2 GB) - встановлено
- ⚠️ gemma2:latest (5.4 GB) - є, але не 2B версія
- ❌ qwen2.5:3b-instruct - відсутня
6. Math Agents ❌¶
- ❌ deepseek-math:33b - відсутня
💡 Рекомендації¶
1. Встановити відсутні критичні моделі:¶
# Fast Agents
ollama pull mistral:7b-instruct
ollama pull qwen2.5:7b-instruct
# Math Agents
ollama pull deepseek-math:33b
# Memory Agents
ollama pull qwen2.5:3b-instruct
2. Перевірити версії моделей:¶
Деякі моделі встановлені як :latest замість конкретних версій. Це нормально, але варто перевірити:
- gemma2:latest - чи це 27b-it версія?
- qwen2.5-coder:latest - чи це 72b версія?
- starcoder2:latest - чи це 34b версія?
3. Оновити конфігурацію Swoper:¶
Оновити ~/node2/swoper/config_node2.yaml з фактичними назвами моделей:
- Використовувати :latest теги або конкретні версії
- Перевірити розміри моделей
📋 Наступні кроки¶
- ✅ Завершено: Перевірка поточного стану моделей
- ⏳ Рекомендовано: Встановити відсутні критичні моделі
- ⏳ Потрібно: Оновити конфігурацію Swoper з фактичними назвами
- ⏳ Потрібно: Створити агентів з правильним призначенням LLM
📁 Збережені файли¶
~/node2/installed_models.txt- список моделей~/node2/models_details.json- детальна інформація про моделі
Останнє оновлення: 2025-11-21 (актуально)