# 2026-04-08

## Сессия 1

### Темы
- Исследование ФОП (физическое лицо-предприниматель) в Украине для IT-специалиста
- Упрощённая система налогообложения: группы 1, 2, 3
- Цель — легализация дохода ~4 млн грн за 2-6 месяцев для покупки квартиры

### Что сделано
- **Perplexity research** — собрано 20+ украинских источников (статьи + YouTube) по ФОП, единому налогу, КВЭД для IT
- **NotebookLM** — создан ноутбук "ФОП Україна: спрощена система для IT" (ID: `it`, notebook: `2752b6cc`), загружено 13 источников (7 статей + 6 видео), зарегистрирован в библиотеке
- **Детальный анализ** через NotebookLM: сравнение 2 и 3 группы для IT, расчёт налогов на 4 млн грн, документооборот, дистанционное оформление
- **HTML-инфографика** — `~/fop-ukraine-it-2025-2026.html` с визуальным сравнением групп, расчётами, рисками
- **Голосовые объяснения** — отправлены 2 voice message в Telegram: документооборот ФОП и дистанционное оформление

### Ключевые выводы
- **2 группа**: ~27 000 грн налогов за 4 млн (0.67%), НО нельзя работать с юрлицами на общей системе и нерезидентами
- **3 группа**: ~251 000 грн (6.3%), без ограничений — стандарт для IT
- **Без ФОП**: 920 000 грн (23%) — категорически невыгодно
- Лимиты 2026: 2 группа — 7.2 млн грн/год, 3 группа — 10.1 млн грн/год
- Риски: финмониторинг банка при крупных оборотах, нужны договоры/акты/инвойсы
- Документооборот можно вести полностью дистанционно (КЕП, Вчасно.ЕДО, публичная оферта)

### Ссылки
- Инфографика: `~/fop-ukraine-it-2025-2026.html`
- NotebookLM: https://notebooklm.google.com/notebook/2752b6cc-d9c1-4683-bd19-f9e0fae6d216

## Сессия 2

### Темы
- Полный аудит системы Claude Code: CLAUDE.md, память, хуки, скиллы, settings.json

### Что сделано
- **Аудит памяти** — делегирован memory-keeper агенту, найдено 15+ проблем
- **Удалены мёртвые хуки** — `action-logger.sh` и `context-monitor.sh` (логика уже в `post-tool-use.sh`)
- **Исправлена память:**
  - Убрана несуществующая модель Qwen3.5-40B из reference_local_llm.md
  - Добавлен ноутбук "Покупка квартиры" (ID: 2025-2026) в reference_notebooklm_library.md
  - Убран устаревший статус "требуется логин" из reference_notebooklm_mcp.md
  - Исправлена опечатка "У Дании" → "У Дани" в user_cat_lukas.md
- **Дедупликация** — feedback_memory_usage.md и feedback_notebooklm_sources.md сокращены (операционные инструкции дублировали CLAUDE.md, оставлен только контекст "почему")
- **Формат** — лишний тег `memory` убран из 5 файлов, name-поля переведены на русский/человекочитаемый вид
- **MEMORY.md** — реорганизован по категориям: user → feedback → project → reference

### Выводы
- Система в порядке: CLAUDE.md, 20 memory-файлов, 3 хука, 14+1 скиллов — всё консистентно
- Telegram-плагин отключён намеренно (CCBot работает отдельно)
- WebSearch/WebFetch оставлены как fallback, приоритет — Perplexity
- OpenClaw остаётся незарегистрированным в library.json — на будущее

## Сессия 3

### Темы
- Установка Context7 MCP-сервера для актуальной документации библиотек

### Что сделано
- **Context7 MCP** — добавлен глобально через remote HTTP (`https://mcp.context7.com/mcp`), scope: user
- **CLAUDE.md обновлён** — добавлена секция "Context7" с правилом автоматического использования при работе с кодом/библиотеками (без "use context7" от пользователя)
- Бесплатный тариф, без API-ключа

### Выводы
- Context7 даёт два инструмента: `resolve-library-id` и `query-docs` — подтягивают свежую документацию любых библиотек прямо в контекст
- Автоматическое использование при генерации/объяснении кода с конкретными библиотеками

## Сессия 4

### Темы
- Анализ плагина superpowers для Claude Code
- Адаптация лучших практик superpowers в нашу систему

### Что сделано
- **Исследование superpowers** — полный разбор плагина obra/superpowers (14 скиллов, 1 агент, 1 хук): brainstorming, TDD, systematic debugging, subagent-driven development, planning, code review, git worktrees
- **Сравнительный анализ** — выявлены пересечения (code-review, verify, discuss, skill-creator) и уникальные функции (TDD, debugging, planning, delegation, branch finishing)
- **Решение**: не устанавливать плагин целиком (риск конфликтов хуков и мета-скилла), а адаптировать уникальные идеи

**Создано 5 новых скиллов:**
- `/tdd` — строгий RED-GREEN-REFACTOR цикл: тест первым, минимальный код, рефакторинг. Таблица рационализаций
- `/debug` — 4-фазная отладка: root cause → паттерны → гипотеза → фикс. Circuit breaker на 3 попытках
- `/plan` — декомпозиция на bite-sized задачи (2-5 мин), TDD внутри каждой, конкретный код вместо плейсхолдеров
- `/delegate` — выполнение плана через субагентов: свежий контекст, статусы (DONE/BLOCKED/NEEDS_CONTEXT), двойное ревью (спек + качество)
- `/finish-branch` — завершение ветки: тесты → 4 опции (merge/PR/keep/discard) → очистка worktree

**Обновлено 3 существующих скилла:**
- `/fix-issue` — добавлены ссылки на `/debug` (шаг 3), `/tdd` (шаг 5), `/finish-branch` (шаг 7)
- `/verify` — предложение `/debug` при нетривиальных проблемах
- `/discuss` — предложение `/plan` при сложных задачах (3+ файлов)

**Обновлён CLAUDE.md:**
- 5 новых скиллов в реестре автоматических
- Новая секция "Workflow разработки": discuss → plan → delegate/tdd → verify → finish-branch

### Выводы
- Superpowers ценен методологией (дисциплина, TDD, systematic debugging), а не инструментарием
- Наша система теперь покрывает полный цикл разработки: от обсуждения до мержа
- Всего скиллов: 19 (было 14)

## Сессия 5

### Темы
- Подключение веб-поиска к Open WebUI через SearXNG
- Настройка OpenClaw: модели, thinking, контекст
- Исследование LLM по уровню галлюцинаций (hallucination rate)
- Установка Mistral Small 3.2 24B uncensored для OpenClaw

### Что сделано
- **Open WebUI + SearXNG**: включён JSON формат в SearXNG (порт 8890), настроен веб-поиск в админке Open WebUI v0.8.12
- **OpenClaw модели**: добавлены qwen3.5-9b-uncensored:q8 и mistral-small-uncensored:q5 в конфиг
- **Qwen3.5 9B**: пересоздана в Ollama с RENDERER/PARSER qwen3.5 для поддержки tool calling
- **Исследование галлюцинаций**: через Perplexity Research найдены бенчмарки (SimpleQA, TruthfulQA, FACTS Grounding, AA-Omniscience, HalluLens). Qwen3.5 9B врёт в 82% случаев
- **Сравнение Phi-4 14B vs Mistral Small 3.2 24B**: Phi-4 точнее (82% vs 81%), но контекст всего 16K и 3x медленнее. Mistral — 131K контекст, мультимодальная, быстрее
- **Mistral Small 3.2 uncensored**: скачана i1-Q5_K_M от mradermacher (16 GB), установлена в Ollama
- **Tool calling для Mistral**: архитектура mistral3 не поддерживает tools через RENDERER — решено через Go-шаблон из официальной модели
- **Оптимизация VRAM**: контекст уменьшен с 131K до 32K — модель 100% в GPU (22 GB из 24 GB)
- **OpenClaw настройки**: thinkingDefault=high, contextTokens=131072

### Решения и выводы
- Для минимума вранья среди маленьких моделей: Phi-4 14B (82%) или Mistral Small 3.2 (81%)
- mradermacher i1-GGUF лучше обычных GGUF при том же размере (importance matrix)
- Ollama не поддерживает tool calling для кастомных GGUF с архитектурой mistral3 — обход через копирование Go-шаблона из официальной модели
- Контекст 131K для 24B модели не влезает в RTX 3090 — нужен 32K максимум

### Ключевые факты
- SearXNG: порт 8890, конфиг `/tmp/searxng/settings.yml`, host network
- Open WebUI: v0.8.12, порт 8080
- Mistral Small 3.2 uncensored: `mistral-small-uncensored:q5`, 16 GB, 32K ctx, 22 GB VRAM
- Hallucination rates: Qwen3.5 9B — 82%, Phi-4 14B — 18%, Mistral Small — 19%

**Дополнение:** Mistral Small 3.2 uncensored упала с `panic: failed to sample token` — GGUF оказался битым (первый wget оборвался на 456 MB, докачка повредила файл). Даня решил не перекачивать — модель удалена из Ollama и с диска.
