Skip to content

Поточний стан моделей Ollama на НОДА2

Дата перевірки: 2025-11-21 (актуально)

⚠️ ВАЖЛИВЕ ПОПЕРЕДЖЕННЯ

Встановлені моделі мають значно менші розміри, ніж планувалося!

Причина: Ollama автоматично вибрав :latest теги, які встановили менші версії моделей: - deepseek-r1:latest = 5.2 GB (8.2B) замість планованих ~40 GB - qwen2.5-coder:latest = 4.7 GB (7.6B) замість планованих ~40 GB (72B) - starcoder2:latest = 1.7 GB (3B) замість планованих ~20 GB (34B) - gemma2:latest = 5.4 GB (9.2B) замість планованих ~18 GB (27B)

Детальний аналіз: Див. docs/node2/MODELS_DETAILED_LIST.md


📊 Встановлені моделі (8 моделей)

Список встановлених моделей:

Модель Розмір Параметри Квантізація Встановлено Призначення
phi3:latest 2.2 GB 3.8B Q4_0 2 години тому Memory Agents
gpt-oss:latest 13 GB 20.9B MXFP4 2 години тому Fast Agents
starcoder2:latest 1.7 GB 3B Q4_0 2 години тому Code Engineering
qwen2.5-coder:latest 4.7 GB 7.6B Q4_K_M 2 години тому Code Engineering
gemma2:latest 5.4 GB 9.2B Q4_0 2 години тому Reasoning/Strategic
mistral-nemo:latest 7.1 GB 12.2B Q4_0 2 години тому Reasoning/Strategic
deepseek-r1:latest 5.2 GB 8.2B Q4_K_M 2 години тому Reasoning/Strategic
qwen3-vl:latest 6.1 GB 8.8B Q4_K_M 42 години тому Vision Agents

Загальний розмір: ~45.6 GB


✅ Порівняння з планом встановлення

🔴 Пріоритет 1 (Critical Models) - 9 моделей

Планована модель Статус Фактична модель Примітка
deepseek-r1:q4 ⚠️ deepseek-r1:latest МЕНША ВЕРСІЯ (5.2 GB, 8.2B замість ~40 GB)
mistral-nemo:22b:q4 ⚠️ mistral-nemo:latest МЕНША ВЕРСІЯ (7.1 GB, 12.2B замість ~13 GB, 22B)
gemma2:27b-it:q4 ⚠️ gemma2:latest МЕНША ВЕРСІЯ (5.4 GB, 9.2B замість ~18 GB, 27B)
qwen2.5-coder:72b:q4 ⚠️ qwen2.5-coder:latest МЕНША ВЕРСІЯ (4.7 GB, 7.6B замість ~40 GB, 72B)
starcoder2:34b:q4 ⚠️ starcoder2:latest МЕНША ВЕРСІЯ (1.7 GB, 3B замість ~20 GB, 34B)
qwen2-vl:32b-instruct:q4 ⚠️ qwen3-vl:latest Замінено на qwen3-vl (6.1 GB)
mistral:7b-instruct:4.1 - Не встановлено
qwen2.5:7b-instruct:4.4 - Не встановлено
gpt-oss:20b:q4 gpt-oss:latest Встановлено (13 GB)

Результат: 6/9 встановлено (67%)

🟡 Пріоритет 2 (Specialized Models) - 1 модель

Планована модель Статус Фактична модель Примітка
deepseek-math:33b:q4 - Не встановлено

Результат: 0/1 встановлено (0%)

🟢 Пріоритет 3 (Ultra-light Models) - 3 моделі

Планована модель Статус Фактична модель Примітка
gemma2:2b-it ⚠️ gemma2:latest Встановлено, але інша версія
phi3:mini ⚠️ phi3:latest Встановлено, але інша версія (2.2 GB)
qwen2.5:3b-instruct - Не встановлено

Результат: 2/3 встановлено (67%)


📊 Загальна статистика

  • Всього встановлено: 8 моделей
  • Загальний розмір: ~45.6 GB
  • З плану Пріоритет 1: 6/9 (67%)
  • З плану Пріоритет 2: 0/1 (0%)
  • З плану Пріоритет 3: 2/3 (67%)
  • Загальний прогрес: 8/13 (62%)

⚠️ Відсутні моделі (критичні)

Для Fast Agents:

  • mistral:7b-instruct - швидка модель для швидких агентів
  • qwen2.5:7b-instruct - альтернатива для швидких агентів

Для Math Agents:

  • deepseek-math:33b - спеціалізована модель для математичних задач

Для Memory Agents:

  • qwen2.5:3b-instruct - легка модель для memory агентів

Для Vision Agents (покращення):

  • ⚠️ qwen2-vl:32b-instruct - краща якість ніж qwen3-vl (опціонально)

✅ Доступні категорії моделей

1. Reasoning/Strategic Agents ✅

  • ✅ deepseek-r1:latest (5.2 GB) - основна
  • ✅ mistral-nemo:latest (7.1 GB) - альтернатива
  • ✅ gemma2:latest (5.4 GB) - альтернатива

2. Code Engineering Agents ✅

  • ✅ qwen2.5-coder:latest (4.7 GB) - основна
  • ✅ starcoder2:latest (1.7 GB) - легка альтернатива

3. Vision Agents ✅

  • ✅ qwen3-vl:latest (6.1 GB) - встановлено

4. Fast Agents ⚠️

  • ✅ gpt-oss:latest (13 GB) - встановлено
  • ❌ mistral:7b-instruct - відсутня
  • ❌ qwen2.5:7b-instruct - відсутня

5. Memory Agents ✅

  • ✅ phi3:latest (2.2 GB) - встановлено
  • ⚠️ gemma2:latest (5.4 GB) - є, але не 2B версія
  • ❌ qwen2.5:3b-instruct - відсутня

6. Math Agents ❌

  • ❌ deepseek-math:33b - відсутня

💡 Рекомендації

1. Встановити відсутні критичні моделі:

# Fast Agents
ollama pull mistral:7b-instruct
ollama pull qwen2.5:7b-instruct

# Math Agents
ollama pull deepseek-math:33b

# Memory Agents
ollama pull qwen2.5:3b-instruct

2. Перевірити версії моделей:

Деякі моделі встановлені як :latest замість конкретних версій. Це нормально, але варто перевірити: - gemma2:latest - чи це 27b-it версія? - qwen2.5-coder:latest - чи це 72b версія? - starcoder2:latest - чи це 34b версія?

3. Оновити конфігурацію Swoper:

Оновити ~/node2/swoper/config_node2.yaml з фактичними назвами моделей: - Використовувати :latest теги або конкретні версії - Перевірити розміри моделей


📋 Наступні кроки

  1. Завершено: Перевірка поточного стану моделей
  2. Рекомендовано: Встановити відсутні критичні моделі
  3. Потрібно: Оновити конфігурацію Swoper з фактичними назвами
  4. Потрібно: Створити агентів з правильним призначенням LLM

📁 Збережені файли

  • ~/node2/installed_models.txt - список моделей
  • ~/node2/models_details.json - детальна інформація про моделі

Останнє оновлення: 2025-11-21 (актуально)