Ilya30 downloadsAI-powered compoundable knowledge base — extracts, synthesizes and maintains a wiki from raw sources.
Automatically builds and maintains a knowledge-base wiki from your notes using an LLM backend.
Key features:
Operations: Ingest · Query · Lint · Fix · Init · Format · Chat
Requirements: Obsidian 1.4+, desktop (mobile: Query only). For Claude Agent: iclaude CLI.
Автоматически строит и пополняет wiki-базу знаний из ваших заметок с помощью LLM.
Почему AI Wiki:
Поддерживаемые бэкенды: Ollama / OpenAI-compatible (без облака) · Claude Agent (Anthropic)
[[WikiLinks]]_schema.md, _index.md)!Temp/. Уточнение через чат, кнопки Apply/Cancel. Жёсткий инвариант: запрещено добавлять/удалять факты или искажать смысл — только перефраз для ясности.Fix, Format и Chat запускаются кнопками в боковой панели, а не через Command Palette.
Прогресс каждой операции виден в реальном времени в боковой панели Obsidian.
Мобильная версия: на мобильных устройствах работает только Query. Ingest, Lint и Init — только desktop. Бэкенд Claude Agent на мобильном автоматически переключается на Native Agent.
Не требует внешних аккаунтов — LLM работает локально.
Скачайте с ollama.com и запустите:
ollama pull llama3.2
Скопируйте папку плагина в vault:
# вариант — симлинк для разработки
ln -s /path/to/obsidian-llm-wiki ~/.config/obsidian/Plugins/obsidian-llm-wiki
Или скопируйте папку вручную в <vault>/.obsidian/plugins/obsidian-llm-wiki/.
Obsidian → Settings → Community plugins → найти «AI Wiki» → включить.
Settings → AI Wiki:
| Параметр | Значение |
|---|---|
| Backend | Native Agent (OpenAI-compatible) |
| Base URL | http://localhost:11434/v1 |
| API Key | ollama |
| Модель | llama3.2 |
| Temperature | 0.2 |
| Max tokens | 4096 |
Домен — это пара «папка с источниками → папка wiki». Команда:
Command Palette → AI Wiki: Init домена → введите имя домена (например, work) → снимите флаг Dry Run → запустите.
Плагин создаст структуру папок и служебные файлы (_schema.md, _index.md).
Command Palette → AI Wiki: Ingestion активного файлаДля пользователей с установленным Claude Code CLI.
iclaude.sh / iclaude / claude (Claude Code CLI)llm-wiki в директории <repo>/.claude-isolated/skills/llm-wiki/Аналогично шагам 2–3 секции Native Agent выше.
Settings → AI Wiki:
| Параметр | Значение |
|---|---|
| Backend | Claude Agent |
| Путь к Claude Code | /home/user/Documents/Project/iclaude/iclaude.sh |
| Путь к навыку llm-wiki | /home/user/Documents/Project/iclaude/.claude-isolated/skills/llm-wiki |
| Модель | sonnet |
| Таймауты | 300/300/900/3600 |
Аналогично шагу 6 секции Native Agent выше.
Все команды доступны через Command Palette (Ctrl+P / Cmd+P). Fix, Format и Chat — кнопки в боковой панели.
| Команда | Действие | Результат |
|---|---|---|
AI Wiki: Открыть панель |
Показать боковую панель | Живой лог операций, история |
AI Wiki: Ingestion активного файла |
Извлечь сущности из текущей заметки | Новые/обновлённые wiki-страницы (только desktop) |
AI Wiki: Запрос |
Задать вопрос по базе знаний | Ответ в панели с [[WikiLinks]] |
AI Wiki: Запрос и сохранить как страницу |
Вопрос + сохранить ответ | Новая wiki-страница, открывается автоматически |
AI Wiki: Lint домена |
Проверить качество wiki | Отчёт о проблемах в панели (только desktop) |
AI Wiki: Init домена |
Инициализировать новый домен | Структура wiki-папок и служебные файлы (только desktop) |
AI Wiki: Отмена операции |
Остановить текущую операцию | SIGTERM → SIGKILL через 3с |
| Параметр | Описание | По умолчанию |
|---|---|---|
| Backend | claude-agent или native-agent |
claude-agent |
| Лимит истории | Максимум записей в истории панели | 20 |
| Лог агента | Включить запись JSONL-лога агента; путь фиксирован в коде | выкл |
| Параметр | Описание | По умолчанию |
|---|---|---|
| Base URL | OpenAI-compatible endpoint | http://localhost:11434/v1 |
| API Key | ollama для Ollama; sk-... для OpenAI |
ollama |
| Модель | Имя модели: llama3.2, mistral, gpt-4o... |
llama3.2 |
| Temperature | 0.0–1.0. Низкая (0.1–0.3) = точные факты |
0.2 |
| Max tokens | Макс. токенов в ответе; ≥ 4096 для wiki-страниц | 4096 |
| Top-p | Nucleus sampling 0.0–1.0; пусто = отключено |
— |
| Request timeout (сек) | Таймаут HTTP; для больших моделей Ollama ≥ 300 | 300 |
| num_ctx | Размер контекста (только Ollama); пусто = дефолт модели | — |
| System prompt | Системный промпт; перезаписывает встроенный при изменении | встроенный |
| Параметр | Описание | По умолчанию |
|---|---|---|
| Путь к Claude Code | Полный путь к iclaude.sh / iclaude / claude |
— |
| Путь к навыку llm-wiki | Полный путь к папке навыка (содержит shared/domain-map-*.json) |
— |
| Allowed tools | Список через запятую | Read,Edit,Write,Glob,Grep |
| Модель | Пресет (opus/sonnet/haiku) или произвольный ID (claude-opus-4-7) |
дефолт claude |
| Таймауты | ingest/query/lint/init в секундах через / |
300/300/900/3600 |
| Показывать raw JSON | Отображать сырые JSON-события в панели | выкл |
| Параметр | Описание | По умолчанию |
|---|---|---|
| graphDepth | Глубина обхода графа при построении контекста запроса | 1 |
| hubThreshold | Минимальная степень узла для признания «хабом» | 20 |
Файл <plugin-dir>/local.json хранит machine-specific путь до iclaude.sh. При использовании Obsidian Sync / git / Syncthing для папки .obsidian/plugins/obsidian-llm-wiki/ исключите local.json из синка, иначе путь будет перезаписан на других машинах.
Карта доменов хранится в !Wiki/_domain.json (внутри vault) и нормально синхронизируется вместе с заметками.