Files
microdao-daarion/SOFIA_CLI.md
Apple 744c149300
Some checks failed
Build and Deploy Docs / build-and-deploy (push) Has been cancelled
Add automated session logging system
- Created logs/ structure (sessions, operations, incidents)
- Added session-start/log/end scripts
- Installed Git hooks for auto-logging commits/pushes
- Added shell integration for zsh
- Created CHANGELOG.md
- Documented today's session (2026-01-10)
2026-01-10 04:53:17 -08:00

5.3 KiB
Raw Permalink Blame History

🖥️ Sofia CLI - Complete Guide

Доступні CLI інтерфейси

1. Python CLI (Найкращий)

Використання:

# Інтерактивний режим
./run_sofia.sh

# Або через venv
source sofia_venv/bin/activate
python3 sofia_agent.py

# Одне питання
python3 sofia_agent.py "Твоє питання тут"

Переваги:

  • Працює стабільно
  • Історія розмов
  • Статистика токенів
  • Підтримка Grok API + Ollama

Команди в інтерактивному режимі:

  • /help - довідка
  • /clear - очистити історію
  • /history - показати історію
  • /exit - вийти

2. Web Interface (Візуальний) 🌐

Запуск:

./start_sofia.sh

URL:

http://localhost:5173/sofia

Переваги:

  • Красивий UI
  • Градієнтний дизайн
  • Швидкі запити
  • Responsive

3. AIChat CLI (Альтернативний)

Встановлено: aichat

Конфігурація:

  • Config: ~/.config/aichat/config.yaml
  • Role: ~/.config/aichat/roles/sofia.md

Використання:

aichat --role sofia

Aliases (додані в ~/.zshrc):

sofia              # aichat --role sofia
sofia-chat         # aichat --role sofia
sofia-quick        # aichat --role sofia --no-stream

Примітка: Потребує додаткової ініціалізації при першому запуску.


4. LLM CLI (від Simon Willison)

Встановлено: llm + llm-ollama plugin

Template: ~/.config/llm/templates/sofia.txt

Використання:

# Одне питання
llm -m ollama/qwen2.5-coder:32b -s "$(cat ~/.config/llm/templates/sofia.txt)" "Твоє питання"

# Чат
llm chat -m ollama/qwen2.5-coder:32b -s "$(cat ~/.config/llm/templates/sofia.txt)"

Примітка: Може мати проблеми з шаблонами Ollama.


🎯 Рекомендації

Для щоденного використання:

# В терміналі
./run_sofia.sh

# В браузері
./start_sofia.sh
# Відкрити: http://localhost:5173/sofia

Для швидких запитів:

python3 sofia_agent.py "Швидке питання"

Для візуального досвіду:

http://localhost:5173/sofia

📊 Порівняння CLI

Особливість Python CLI Web UI aichat llm
Стабільність ⚠️ ⚠️
Історія ⚠️
Токени
Grok API
Візуалізація
Швидкість
Кольори

🚀 Швидкий старт

Для нових користувачів:

1. Спробувати CLI:

cd /Users/apple/github-projects/microdao-daarion
./run_sofia.sh

2. Спробувати Web UI:

./start_sofia.sh

Браузер автоматично відкриється на http://localhost:5173/sofia


🔧 Конфігурація

Всі CLI використовують:

  • .env файл для API ключів
  • Ollama на localhost:11434
  • Модель: qwen2.5-coder:32b

Зміна моделі:

# В .env
OLLAMA_MODEL=deepseek-r1:70b

Підключення Grok:

# В .env
XAI_API_KEY=your_key_here

📱 Додаткові можливості

Python CLI:

  • Асинхронна обробка
  • Збереження історії в пам'яті
  • Статистика токенів
  • Fallback до локальної моделі

Web UI:

  • Швидкі запити (quick actions)
  • Градієнтний дизайн
  • Автоскрол
  • Очистити чат

AIChat:

  • Syntax highlighting
  • Code block підсвітка
  • Emacs keybindings
  • Compression

LLM CLI:

  • Plugin ecosystem
  • Multiple models
  • Templates system
  • Conversation management

🎨 Кастомізація

Sofia Prompt можна змінити в:

  • Python: sofia_agent.pySOFIA_SYSTEM_PROMPT
  • Web: sofia_api.pySOFIA_SYSTEM_PROMPT
  • AIChat: ~/.config/aichat/roles/sofia.md
  • LLM: ~/.config/llm/templates/sofia.txt

💡 Поради

  1. Python CLI - найстабільніший варіант
  2. Web UI - найкрасивіший
  3. aichat - найбільше функцій
  4. llm - найпростіший для скриптів

Використовуйте той, що вам зручніший! 🚀


📚 Документація

  • SOFIA_QUICKSTART.md - швидкий старт
  • SOFIA_AGENT_README.md - повна документація Python CLI
  • SOFIA_WEB_UI.md - веб-інтерфейс
  • SOFIA_CLI.md - цей файл

Готово!

Всі CLI встановлені та налаштовані для Sofia! 🎉

Рекомендую почати з:

./run_sofia.sh