Детальний список встановлених моделей на НОДА2¶
Дата перевірки: 2025-11-21
Загальна кількість моделей: 8
Загальний розмір: ~45.6 GB
⚠️ ВАЖЛИВО: Розбіжність з планом¶
Проблема: Встановлені моделі мають значно менші розміри, ніж планувалося. Це відбулося тому, що Ollama автоматично вибрав :latest теги, які встановили менші версії моделей замість великих.
Приклад:
- Планувалося: deepseek-r1:q4 = 40 GB
- Встановлено: deepseek-r1:latest = 5.2 GB (8.2B параметрів)
📊 Детальний список моделей¶
1. phi3:latest¶
- Розмір файлу: 2.2 GB (2,176,178,913 bytes)
- Параметри: 3.8B
- Архітектура: phi3
- Квантізація: Q4_0
- Контекстне вікно: 131,072 токенів
- Embedding length: 3,072
- Модифіковано: 2 години тому
- Призначення: Memory Agents
- Статус: ✅ Встановлено правильно (відповідає плану phi3:mini)
2. gpt-oss:latest¶
- Розмір файлу: 13 GB (13,793,441,244 bytes)
- Параметри: 20.9B
- Архітектура: gptoss
- Квантізація: MXFP4
- Модифіковано: 2 години тому
- Призначення: Fast Agents
- Статус: ✅ Встановлено правильно (відповідає плану gpt-oss:20b)
3. starcoder2:latest¶
- Розмір файлу: 1.7 GB (1,709,901,728 bytes)
- Параметри: 3B
- Архітектура: starcoder2
- Квантізація: Q4_0
- Контекстне вікно: 16,384 токенів
- Модифіковано: 2 години тому
- Призначення: Code Engineering Agents
- План: starcoder2:34b:q4 (20 GB)
- Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (3B замість 34B)
Проблема: Встановлена версія 3B замість планованої 34B. Для отримання 34B версії потрібно:
ollama pull starcoder2:34b
4. qwen2.5-coder:latest¶
- Розмір файлу: 4.7 GB (4,683,087,561 bytes)
- Параметри: 7.6B
- Архітектура: qwen2
- Квантізація: Q4_K_M
- Контекстне вікно: 32,768 токенів
- Модифіковано: 2 години тому
- Призначення: Code Engineering Agents
- План: qwen2.5-coder:72b:q4 (40 GB)
- Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (7.6B замість 72B)
Проблема: Встановлена версія 7.6B замість планованої 72B. Для отримання 72B версії потрібно:
ollama pull qwen2.5-coder:72b
5. gemma2:latest¶
- Розмір файлу: 5.4 GB (5,443,152,417 bytes)
- Параметри: 9.2B
- Архітектура: gemma2
- Квантізація: Q4_0
- Контекстне вікно: 8,192 токенів
- Модифіковано: 2 години тому
- Призначення: Reasoning/Strategic Agents
- План: gemma2:27b-it:q4 (18 GB)
- Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (9.2B замість 27B)
Проблема: Встановлена версія 9.2B замість планованої 27B. Для отримання 27B версії потрібно:
ollama pull gemma2:27b-it
6. mistral-nemo:latest¶
- Розмір файлу: 7.1 GB (7,071,713,227 bytes)
- Параметри: 12.2B
- Архітектура: llama
- Квантізація: Q4_0
- Контекстне вікно: 1,024,000 токенів (1M контекст!)
- Модифіковано: 2 години тому
- Призначення: Reasoning/Strategic Agents
- План: mistral-nemo:22b:q4 (13 GB)
- Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (12.2B замість 22B)
Проблема: Встановлена версія 12.2B замість планованої 22B. Однак ця модель має дуже велике контекстне вікно (1M токенів), що компенсує меншу кількість параметрів.
Примітка: Можливо, це правильна версія, оскільки mistral-nemo може мати іншу структуру параметрів.
7. deepseek-r1:latest¶
- Розмір файлу: 5.2 GB (5,225,376,047 bytes)
- Параметри: 8.2B
- Архітектура: qwen3
- Квантізація: Q4_K_M
- Контекстне вікно: 131,072 токенів
- Модифіковано: 2 години тому
- Призначення: Reasoning/Strategic Agents
- План: deepseek-r1:q4 (40 GB)
- Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (8.2B замість очікуваної більшої)
Проблема: Встановлена версія 8.2B замість очікуваної більшої. DeepSeek-R1 має кілька версій: - DeepSeek-R1-Distilled (менші версії) - DeepSeek-R1 (повна версія)
Можливі причини: 1. Ollama автоматично вибрав distilled версію 2. Повна версія може бути недоступна через Ollama 3. Можливо, це правильна версія для Ollama
Для перевірки доступних версій:
# Спробувати інші теги
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:8b
8. qwen3-vl:latest¶
- Розмір файлу: 6.1 GB (6,140,415,879 bytes)
- Параметри: 8.8B
- Архітектура: qwen3vl
- Квантізація: Q4_K_M
- Контекстне вікно: 262,144 токенів
- Модифіковано: 42 години тому
- Призначення: Vision Agents
- План: qwen2-vl:32b-instruct:q4 (20 GB) або qwen3-vl:latest
- Статус: ✅ Встановлено правильно (qwen3-vl замість qwen2-vl)
Примітка: qwen3-vl є новішою версією, тому це правильний вибір.
📊 Порівняльна таблиця: План vs Факт¶
| Модель | Планована версія | Планований розмір | Фактична версія | Фактичний розмір | Статус |
|---|---|---|---|---|---|
| deepseek-r1 | q4 | 40 GB | latest (8.2B) | 5.2 GB | ⚠️ Менша |
| mistral-nemo | 22b:q4 | 13 GB | latest (12.2B) | 7.1 GB | ⚠️ Менша |
| gemma2 | 27b-it:q4 | 18 GB | latest (9.2B) | 5.4 GB | ⚠️ Менша |
| qwen2.5-coder | 72b:q4 | 40 GB | latest (7.6B) | 4.7 GB | ⚠️ Менша |
| starcoder2 | 34b:q4 | 20 GB | latest (3B) | 1.7 GB | ⚠️ Менша |
| qwen2-vl | 32b-instruct:q4 | 20 GB | qwen3-vl:latest (8.8B) | 6.1 GB | ✅ Замінено |
| gpt-oss | 20b:q4 | 12 GB | latest (20.9B) | 13 GB | ✅ Правильно |
| phi3 | mini | 2.3 GB | latest (3.8B) | 2.2 GB | ✅ Правильно |
🔍 Аналіз проблеми¶
Причини менших розмірів:¶
- Автоматичний вибір
:latestтегів: - Ollama автоматично вибрав найменші доступні версії
-
:latestтег не завжди означає найбільшу версію -
Відсутність конкретних тегів у скрипті:
- Скрипт використовував назви без конкретних версій
-
Ollama вибрав найменші версії за замовчуванням
-
Можливі обмеження Ollama:
- Деякі великі моделі можуть бути недоступні через Ollama
- Великі моделі можуть вимагати іншого способу встановлення
💡 Рекомендації¶
1. Встановити правильні версії моделей:¶
# Code models (великі версії)
ollama pull qwen2.5-coder:72b
ollama pull starcoder2:34b
# Reasoning models
ollama pull gemma2:27b-it
ollama pull mistral-nemo:22b
# DeepSeek-R1 (перевірити доступні версії)
ollama pull deepseek-r1:1.5b # або інші доступні версії
2. Перевірити доступні версії:¶
# Перевірити доступні теги для кожної моделі
# (може знадобитися перевірити на ollama.com або через API)
3. Оновити скрипт встановлення:¶
Додати конкретні теги версій замість :latest:
- qwen2.5-coder:72b замість qwen2.5-coder:latest
- starcoder2:34b замість starcoder2:latest
- gemma2:27b-it замість gemma2:latest
4. Перевірити чи потрібні великі версії:¶
Питання: Чи дійсно потрібні великі версії (72B, 34B, 27B)? - Переваги великих: Краща якість, більше знань - Недоліки великих: Більше RAM, повільніше інференс - Для НОДА2: 64 GB RAM може не вмістити великі моделі одночасно
Рекомендація: Для початку використовувати встановлені менші версії, якщо вони задовольняють потреби. Великі версії встановлювати за потреби.
📋 Підсумок¶
✅ Правильно встановлені (3 моделі):¶
- phi3:latest (2.2 GB)
- gpt-oss:latest (13 GB)
- qwen3-vl:latest (6.1 GB)
⚠️ Менші версії встановлені (5 моделей):¶
- deepseek-r1:latest (5.2 GB замість ~40 GB)
- mistral-nemo:latest (7.1 GB замість ~13 GB)
- gemma2:latest (5.4 GB замість ~18 GB)
- qwen2.5-coder:latest (4.7 GB замість ~40 GB)
- starcoder2:latest (1.7 GB замість ~20 GB)
📊 Загальний розмір:¶
- Планувалося: ~215 GB
- Фактично: ~45.6 GB
- Різниця: ~169 GB менше
Висновок: Встановлені менші версії моделей, що може бути достатньо для початку, але для повної функціональності потрібно встановити великі версії.
Останнє оновлення: 2025-11-21