# 2026-04-07

## Темы сессии
- Тестирование NotebookLM: полный пайплайн исследования через notebooklm-py CLI
- Исследование породы "Британская серебристая шиншилла" (кот Лукас)
- Интеграция NotebookLM как базы знаний в Claude Code
- Оценка рациона Лукаса, лакомств, инструментов груминга, витаминов

## Что сделано
- Создан ноутбук "Британская серебристая шиншилла" (ID: eaf732c4) с 80+ источниками
- Протестированы все типы контента NotebookLM: ask, report (briefing-doc, study-guide), mind-map, data-table, audio podcast
- Сгенерирована HTML-инфографика ~/britanskaya-serebristaya-shinshilla.html
- Зарегистрирован ноутбук в MCP-библиотеке через add_notebook
- Создан memory-файл reference_notebooklm_library.md — реестр ноутбуков
- Обновлён CLAUDE.md: приоритет информации теперь Память → NotebookLM → Perplexity, добавлен блок правил
- MCP NotebookLM переключен на headless=true (был DISPLAY=:1)
- Оценка рациона Лукаса: 3 корма (Carnilove Quail, Farmina N&D, Carnilove Salmon) — 9/10
- Оценка режима кормления (30г сухого + 1 пауч, 5 приёмов) — 10/10
- Анализ лакомства Savory Salmon Snack — не чистит зубы, рекомендована замена
- Найдена замена: Monge Gift Cat Dental (кролик с шалфеем) — 74.70 грн MasterZoo
- Фурминатор для шиншиллы — НЕЛЬЗЯ (срезает типпинг), нужен металлический гребень
- Рекомендованы витамины для линьки: масло лосося (Омега-3), биотин (Canina), мальт-паста
- Добавлен источник про воспитание кота-самца в ноутбук

## Решения и выводы
- NotebookLM отлично работает как база знаний: 34+ источника, качественные ответы с цитатами
- deep mode research таймаутит на импорте — использовать fast mode
- Параллельные импорты в один ноутбук = дублирование, только последовательно
- Audio podcast через CLI таймаутит (5 мин лимит) — генерировать через браузер надёжнее
- Формат audio: deep-dive, brief, critique, debate
- При >80 источниках source add начинает таймаутить — лимит Google
- Для автоматического обращения к NotebookLM: память (реестр) + правило в CLAUDE.md + MCP search_notebooks

## Ключевые факты
- Лукас: британская серебристая шиншилла, 5 лет, 5.1 кг, кастрирован
- Рацион: Farmina N&D Pumpkin Neutered 30г/день + 1 пауч Carnilove (Quail или Salmon), 5 приёмов
- Суточная калорийность: 189-210 ккал (норма 204-230 ккал) — идеально
- Farmina N&D: белок 46%, жир 11% — нужен ежегодный контроль почек (креатинин, SDMA)
- Monge Gift Cat Dental кролик+шалфей — лучшее лакомство для зубов, 74.70 грн MasterZoo
- Фурминатор НЕЛЬЗЯ для серебристых шиншилл — срезает типпинг (окрас на кончике волоса 1/8)
- Natural Food Supplement лососева олія 200мл — 396 грн MasterZoo, для линьки 1-1.5 мл/день
- Ноутбук NotebookLM ID: eaf732c4-7ba1-4316-b1c5-e1e94ad8f028

## Сессия 2

## Темы сессии
- Изучение GSD (Get Shit Done) фреймворка для Claude Code — извлечение полезных идей
- Создание 4 улучшений системы по мотивам GSD
- Исследование: домашний LLM-сервер для локального инференса (бюджет 600-700K грн)
- Исправление workflow NotebookLM — только внешние первоисточники

## Что сделано
- **4 улучшения из GSD:**
  1. Хук `context-monitor.sh` — PostToolUse мониторинг контекста (50%/65%/80% пороги)
  2. Скилл `/verify` — верификация результатов работы после завершения задачи
  3. Улучшение `/save` — добавлен handoff-файл `HANDOFF.md` для продолжения сессий
  4. Скилл `/discuss` — прояснение серых зон перед реализацией сложных задач
- **Исследование LLM-сервера:**
  - Researcher агент: полный отчёт с 4 вариантами сборки
  - Отчёт сохранён в ~/claude-brain/Knowledge/Research/local-llm-server-2026.md
  - Ноутбук NotebookLM "Домашний LLM-сервер 2026" (ID: 65e01873) — 28 внешних источников
  - HTML-инфографика: ~/llm-server-2026.html
  - Подкаст-дебаты: RTX Pro 6000 vs Mac Studio — отправлен в Telegram
- **Исправление NotebookLM workflow:**
  - Переписана секция NotebookLM в CLAUDE.md — два процесса разделены
  - Researcher агент: добавлена обязательная секция "Источники для NotebookLM"
  - Feedback memory: feedback_notebooklm_sources.md — никогда не загружать свой текст

## Решения и выводы
- GSD избыточен для наших задач, но 4 идеи полезны и внедрены
- RTX Pro 6000 96GB ($11K) — рекомендуемый вариант для LLM-сервера
- 4x RTX 3090 ($5.5K) — бюджетный, но шумный и медленнее
- Mac Studio M4 Ultra ($13K) — тихий, но вдвое медленнее и нет CUDA
- NotebookLM ценен только с внешними первоисточниками, не пересказами
- CCBot: для отправки файлов в групповой чат нужен chat_id из state.json + message_thread_id

## Ключевые факты
- Хук context-monitor.sh: /tmp/claude-ctx-{session_id}.json, 3 порога (notice/warning/critical)
- RTX Pro 6000 Blackwell: 96GB GDDR7, 1.8 TB/s, 600W TDP, ~$8500-9200 (535K грн в Украине)
- Qwen 72B Q8 (~73GB) и Llama 70B Q8 (~71GB) влезают в 96GB с запасом для KV-кеша
- Лучший софт для агентских задач: vLLM (tensor parallelism, OpenAI API)
- Telegram группа CCBot: -1003792334275, топик 955
- Ноутбук LLM-сервер: 65e01873-4822-43d9-9f99-4e1ff17ba956

## Сессия 3

### Темы
- Масштабное исследование: локальные LLM для агентских задач OpenClaw
- Создание NotebookLM ноутбука с 39 источниками (статьи, бенчмарки, YouTube, документация)
- HTML-инфографика и гайд по OpenClaw + Gemma 4
- Дебаты Gemma 4 vs Qwen (аудио через NotebookLM)
- Обучающий подкаст по локальным LLM
- Объяснение форматов моделей (GGUF, GPTQ, AWQ, MLX) и бэкендов (Ollama, vLLM, llama.cpp)
- Импорт всех GGUF-моделей в Ollama, настройка Open WebUI
- Переавторизация NotebookLM CLI через VNC (Xvfb + noVNC + Playwright)

### Что сделано
- **Исследование OpenClaw + локальные LLM:**
  - Ноутбук NotebookLM: 39 источников (20 статей + 10 YouTube + 9 OpenClaw-специфичных)
  - 4 исследовательских вопроса через NotebookLM ask_question
  - Отчёт: ~/claude-brain/Knowledge/Research/local-llm-openclaw-agents-2026.md
  - Ноутбук зарегистрирован в библиотеке (ID: llm-openclaw-2026)
- **HTML-контент:**
  - Инфографика: ~/openclaw-local-llm-infographic.html (7 секций, модели, VRAM, квантизация, бэкенды)
  - Гайд: ~/openclaw-gemma4-guide.html (6-шаговый setup OpenClaw + Gemma 4 26B MoE)
- **Аудио через NotebookLM:**
  - Дебаты Gemma 4 vs Qwen (формат debate)
  - Обучающий подкаст (формат deep-dive)
- **Голосовые объяснения через TTS:**
  - Форматы моделей (GGUF, GPTQ, AWQ, MLX, SafeTensors, EXL2)
  - Бэкенды для агентов (Ollama vs vLLM vs llama.cpp)
  - Поиск моделей на HuggingFace для vLLM
- **Модели в Ollama:**
  - Импортированы все GGUF: hauhau-35b:iq4xs, qwen3.5-9b-uncensored:q8
  - Удалена qwen3.5-40b-davidau:q6 (не влезала, swap)
  - Исправлен Modelfile для 9B (ChatML template, стоп-токены, рекомендуемые параметры)
- **VNC для NotebookLM логина:**
  - Установлен noVNC, настроен Xvfb :99 + x11vnc + Playwright
  - Переавторизация CLI через Tailscale VNC (52 свежих куки)
- **Фидбэк сохранён:**
  - feedback_notebooklm_sources.md обновлён — правильный workflow исследования через NotebookLM

### Решения и выводы
- **Рекомендация для RTX 3090 + 32GB RAM:** Qwen 3.5 9B (Q5_K_M) через Ollama — баланс качества, контекста 128K, скорости 40-55 tok/s
- **Gemma 4 26B MoE** — перспективна (нативный FC, 85.5% tau2-bench), но нет BFCL результатов
- **MoE + CPU offload работает:** Qwen3-Coder-Next 80B MoE (~12 tok/s на 24GB+32GB)
- **Квантизация:** Q5_K_M — золотая середина (95-97%), AWQ опасен для tool calling
- **Бэкенд:** Ollama для агентов (tool calling из коробки), vLLM для production (GPTQ-INT8)
- **GGUF — единственный формат** для 24GB VRAM с топовыми моделями (27-31B)
- **VNC на headless-сервере:** сразу использовать Xvfb + Playwright, не пытаться через реальный :0

### Ключевые факты
- Ноутбук NotebookLM: llm-openclaw-2026 (39 источников)
- BFCL лидеры: GLM 4.5 (76.7%), Qwen3 32B (75.7%), Qwen 3.5 9B (66.1)
- Qwen3.5 4B: 97.5% tool calling в локальных тестах
- Gemma 4 26B MoE: ~15.6 ГБ при Q4, 3.8B активных, 256K контекст, 85.5% tau2-bench
- OpenClaw: нативный API (не /v1!), apiKey обязателен (фиктивный), gateway stop перед правками
- Open WebUI: http://100.66.23.33:8080 (Tailscale)
- Модели в Ollama: gemma4:31b, qwen3.5:27b, hauhau-35b, hauhau-35b:iq4xs, qwen3.5-9b-uncensored:q8
- Qwen3.5-9B-Uncensored рекомендации: temp=0.6, top_p=0.95, top_k=20, num_ctx=262144

## Сессия 4 — Фикс по аудиту системы

### Темы
- Исправление всех 20 пунктов аудита системы Claude Code (аудит был проведён в предыдущей сессии)

### Что сделано

**Ранее исправлено (13 пунктов) — проверено:**
1. ✅ xAI API ключ вынесен из tts-send.sh в ~/.ccbot/.env
2. ✅ bash-safety.sh — добавлен контекст позиции команды + systemctl паттерн
3. ✅ context-monitor.sh — MAX_TOKENS через env var `${CLAUDE_CONTEXT_TOKENS:-1000000}`
4. ✅ NotebookLM library — llm-openclaw-2026 объединён с llm-2026
5. ✅ feedback_memory_usage.md — обновлён приоритет: Память → NotebookLM → Perplexity → Спросить Даню
7. ✅ infographic — убрана двойная регистрация (command + skill), SKILL.md с комментарием
9. ✅ project_agent_kit.md — обновлён: 14 скиллов, 4 субагента
11. ✅ action-logger.sh — `stat -c%s` вместо macOS `stat -f%z`
12. ✅ context-monitor.sh — `[[ ]]` с `||` вместо `[ -o ]`
13. ✅ session-notify.sh — убран бесполезный desktop notify, коммент про ccbot
15. ✅ (частично) 19 из 20 memory-файлов с tags (было 9/20)
16. ✅ Убран хардкоженный IP 192.168.31.129 из infographic SKILL.md
18. ✅ Удалён дубль OpenClaw-исследования из Knowledge/

**Исправлено в этой сессии (7 пунктов):**
6. ✅ summary.md — убран WebFetch fallback (противоречил CLAUDE.md)
8. ✅ CLAUDE.md — уточнены границы search/news/researcher:
   - search: один факт → один ответ
   - news: события, релизы, маркеры «что нового», «вышел ли»
   - researcher: только когда нужен документ из 5+ источников
14. ✅ PostToolUse хуки — объединены action-logger + context-monitor в один `post-tool-use.sh` (1 процесс вместо 2 на каждый tool call)
15. ✅ Добавлены tags в reference_notebooklm_library.md (последний файл без tags)
17. ✅ memory-keeper.md — убран хардкоженный путь `-home-serv3090`, теперь определяет динамически через `ls`
19. ✅ settings.local.json — удалены permissions для отключённого Telegram плагина (Skill(telegram:configure), mcp__plugin_telegram_telegram__reply)
20. ✅ ~/claude-brain/Projects/ — добавлен .gitkeep

### Решения и выводы
- Аудит выявил 20 проблем: 2 критических, 3 высоких, 7 средних, 8 малых — все 20 закрыты
- Объединение PostToolUse хуков в один скрипт — правильный подход для снижения overhead (меньше fork/exec)
- Разграничение search/news/researcher по количеству источников — чёткий критерий для автоматического выбора
- Старые хуки (action-logger.sh, context-monitor.sh) оставлены на диске как бэкап, но не используются

### Ключевые файлы
- Объединённый хук: ~/.claude/hooks/post-tool-use.sh
- Обновлённый settings.json: PostToolUse теперь один хук
- Обновлённый CLAUDE.md: границы скиллов уточнены
