Skip to content

Детальний список встановлених моделей на НОДА2

Дата перевірки: 2025-11-21
Загальна кількість моделей: 8
Загальний розмір: ~45.6 GB


⚠️ ВАЖЛИВО: Розбіжність з планом

Проблема: Встановлені моделі мають значно менші розміри, ніж планувалося. Це відбулося тому, що Ollama автоматично вибрав :latest теги, які встановили менші версії моделей замість великих.

Приклад: - Планувалося: deepseek-r1:q4 = 40 GB - Встановлено: deepseek-r1:latest = 5.2 GB (8.2B параметрів)


📊 Детальний список моделей

1. phi3:latest

  • Розмір файлу: 2.2 GB (2,176,178,913 bytes)
  • Параметри: 3.8B
  • Архітектура: phi3
  • Квантізація: Q4_0
  • Контекстне вікно: 131,072 токенів
  • Embedding length: 3,072
  • Модифіковано: 2 години тому
  • Призначення: Memory Agents
  • Статус: ✅ Встановлено правильно (відповідає плану phi3:mini)

2. gpt-oss:latest

  • Розмір файлу: 13 GB (13,793,441,244 bytes)
  • Параметри: 20.9B
  • Архітектура: gptoss
  • Квантізація: MXFP4
  • Модифіковано: 2 години тому
  • Призначення: Fast Agents
  • Статус: ✅ Встановлено правильно (відповідає плану gpt-oss:20b)

3. starcoder2:latest

  • Розмір файлу: 1.7 GB (1,709,901,728 bytes)
  • Параметри: 3B
  • Архітектура: starcoder2
  • Квантізація: Q4_0
  • Контекстне вікно: 16,384 токенів
  • Модифіковано: 2 години тому
  • Призначення: Code Engineering Agents
  • План: starcoder2:34b:q4 (20 GB)
  • Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (3B замість 34B)

Проблема: Встановлена версія 3B замість планованої 34B. Для отримання 34B версії потрібно:

ollama pull starcoder2:34b

4. qwen2.5-coder:latest

  • Розмір файлу: 4.7 GB (4,683,087,561 bytes)
  • Параметри: 7.6B
  • Архітектура: qwen2
  • Квантізація: Q4_K_M
  • Контекстне вікно: 32,768 токенів
  • Модифіковано: 2 години тому
  • Призначення: Code Engineering Agents
  • План: qwen2.5-coder:72b:q4 (40 GB)
  • Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (7.6B замість 72B)

Проблема: Встановлена версія 7.6B замість планованої 72B. Для отримання 72B версії потрібно:

ollama pull qwen2.5-coder:72b

5. gemma2:latest

  • Розмір файлу: 5.4 GB (5,443,152,417 bytes)
  • Параметри: 9.2B
  • Архітектура: gemma2
  • Квантізація: Q4_0
  • Контекстне вікно: 8,192 токенів
  • Модифіковано: 2 години тому
  • Призначення: Reasoning/Strategic Agents
  • План: gemma2:27b-it:q4 (18 GB)
  • Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (9.2B замість 27B)

Проблема: Встановлена версія 9.2B замість планованої 27B. Для отримання 27B версії потрібно:

ollama pull gemma2:27b-it

6. mistral-nemo:latest

  • Розмір файлу: 7.1 GB (7,071,713,227 bytes)
  • Параметри: 12.2B
  • Архітектура: llama
  • Квантізація: Q4_0
  • Контекстне вікно: 1,024,000 токенів (1M контекст!)
  • Модифіковано: 2 години тому
  • Призначення: Reasoning/Strategic Agents
  • План: mistral-nemo:22b:q4 (13 GB)
  • Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (12.2B замість 22B)

Проблема: Встановлена версія 12.2B замість планованої 22B. Однак ця модель має дуже велике контекстне вікно (1M токенів), що компенсує меншу кількість параметрів.

Примітка: Можливо, це правильна версія, оскільки mistral-nemo може мати іншу структуру параметрів.


7. deepseek-r1:latest

  • Розмір файлу: 5.2 GB (5,225,376,047 bytes)
  • Параметри: 8.2B
  • Архітектура: qwen3
  • Квантізація: Q4_K_M
  • Контекстне вікно: 131,072 токенів
  • Модифіковано: 2 години тому
  • Призначення: Reasoning/Strategic Agents
  • План: deepseek-r1:q4 (40 GB)
  • Статус: ⚠️ ВСТАНОВЛЕНО МЕНША ВЕРСІЯ (8.2B замість очікуваної більшої)

Проблема: Встановлена версія 8.2B замість очікуваної більшої. DeepSeek-R1 має кілька версій: - DeepSeek-R1-Distilled (менші версії) - DeepSeek-R1 (повна версія)

Можливі причини: 1. Ollama автоматично вибрав distilled версію 2. Повна версія може бути недоступна через Ollama 3. Можливо, це правильна версія для Ollama

Для перевірки доступних версій:

# Спробувати інші теги
ollama pull deepseek-r1:1.5b
ollama pull deepseek-r1:8b

8. qwen3-vl:latest

  • Розмір файлу: 6.1 GB (6,140,415,879 bytes)
  • Параметри: 8.8B
  • Архітектура: qwen3vl
  • Квантізація: Q4_K_M
  • Контекстне вікно: 262,144 токенів
  • Модифіковано: 42 години тому
  • Призначення: Vision Agents
  • План: qwen2-vl:32b-instruct:q4 (20 GB) або qwen3-vl:latest
  • Статус: ✅ Встановлено правильно (qwen3-vl замість qwen2-vl)

Примітка: qwen3-vl є новішою версією, тому це правильний вибір.


📊 Порівняльна таблиця: План vs Факт

Модель Планована версія Планований розмір Фактична версія Фактичний розмір Статус
deepseek-r1 q4 40 GB latest (8.2B) 5.2 GB ⚠️ Менша
mistral-nemo 22b:q4 13 GB latest (12.2B) 7.1 GB ⚠️ Менша
gemma2 27b-it:q4 18 GB latest (9.2B) 5.4 GB ⚠️ Менша
qwen2.5-coder 72b:q4 40 GB latest (7.6B) 4.7 GB ⚠️ Менша
starcoder2 34b:q4 20 GB latest (3B) 1.7 GB ⚠️ Менша
qwen2-vl 32b-instruct:q4 20 GB qwen3-vl:latest (8.8B) 6.1 GB ✅ Замінено
gpt-oss 20b:q4 12 GB latest (20.9B) 13 GB ✅ Правильно
phi3 mini 2.3 GB latest (3.8B) 2.2 GB ✅ Правильно

🔍 Аналіз проблеми

Причини менших розмірів:

  1. Автоматичний вибір :latest тегів:
  2. Ollama автоматично вибрав найменші доступні версії
  3. :latest тег не завжди означає найбільшу версію

  4. Відсутність конкретних тегів у скрипті:

  5. Скрипт використовував назви без конкретних версій
  6. Ollama вибрав найменші версії за замовчуванням

  7. Можливі обмеження Ollama:

  8. Деякі великі моделі можуть бути недоступні через Ollama
  9. Великі моделі можуть вимагати іншого способу встановлення

💡 Рекомендації

1. Встановити правильні версії моделей:

# Code models (великі версії)
ollama pull qwen2.5-coder:72b
ollama pull starcoder2:34b

# Reasoning models
ollama pull gemma2:27b-it
ollama pull mistral-nemo:22b

# DeepSeek-R1 (перевірити доступні версії)
ollama pull deepseek-r1:1.5b  # або інші доступні версії

2. Перевірити доступні версії:

# Перевірити доступні теги для кожної моделі
# (може знадобитися перевірити на ollama.com або через API)

3. Оновити скрипт встановлення:

Додати конкретні теги версій замість :latest: - qwen2.5-coder:72b замість qwen2.5-coder:latest - starcoder2:34b замість starcoder2:latest - gemma2:27b-it замість gemma2:latest

4. Перевірити чи потрібні великі версії:

Питання: Чи дійсно потрібні великі версії (72B, 34B, 27B)? - Переваги великих: Краща якість, більше знань - Недоліки великих: Більше RAM, повільніше інференс - Для НОДА2: 64 GB RAM може не вмістити великі моделі одночасно

Рекомендація: Для початку використовувати встановлені менші версії, якщо вони задовольняють потреби. Великі версії встановлювати за потреби.


📋 Підсумок

✅ Правильно встановлені (3 моделі):

  • phi3:latest (2.2 GB)
  • gpt-oss:latest (13 GB)
  • qwen3-vl:latest (6.1 GB)

⚠️ Менші версії встановлені (5 моделей):

  • deepseek-r1:latest (5.2 GB замість ~40 GB)
  • mistral-nemo:latest (7.1 GB замість ~13 GB)
  • gemma2:latest (5.4 GB замість ~18 GB)
  • qwen2.5-coder:latest (4.7 GB замість ~40 GB)
  • starcoder2:latest (1.7 GB замість ~20 GB)

📊 Загальний розмір:

  • Планувалося: ~215 GB
  • Фактично: ~45.6 GB
  • Різниця: ~169 GB менше

Висновок: Встановлені менші версії моделей, що може бути достатньо для початку, але для повної функціональності потрібно встановити великі версії.


Останнє оновлення: 2025-11-21