Search...Search plugins and themes...
⌘K
Sign in
  • Get started
  • Download
  • Pricing
  • Enterprise
  • Account
  • Obsidian
  • Overview
  • Sync
  • Publish
  • Canvas
  • Mobile
  • Web Clipper
  • CLI
  • Learn
  • Help
  • Developers
  • Changelog
  • About
  • Roadmap
  • Blog
  • Resources
  • System status
  • License overview
  • Terms of service
  • Privacy policy
  • Security
  • Community
  • Plugins
  • Join the community
  • Discord
  • Forum / 中文论坛
  • Merch store
  • Brand guidelines
Follow us
DiscordTwitterBlueskyThreadsMastodonYouTubeGitHub
© 2026 Obsidian

AI Wiki

IlyaIlya30 downloads

AI-powered compoundable knowledge base — extracts, synthesizes and maintains a wiki from raw sources.

Add to Obsidian
  • Overview
  • Scorecard
  • Updates26

Automatically builds and maintains a knowledge-base wiki from your notes using an LLM backend.

Key features:

  • Offline-first — works with Ollama or any OpenAI-compatible server; data never leaves your machine
  • Compounding knowledge — each Ingest enriches the wiki; links and pages accumulate automatically
  • Real-time transparency — agent step progress visible live in the sidebar panel
  • Dual backends — Native Agent (Ollama / OpenAI) and Claude Agent; switchable in settings

Operations: Ingest · Query · Lint · Fix · Init · Format · Chat

Requirements: Obsidian 1.4+, desktop (mobile: Query only). For Claude Agent: iclaude CLI.


AI Wiki — плагин Obsidian

Автоматически строит и пополняет wiki-базу знаний из ваших заметок с помощью LLM.

Почему AI Wiki:

  • Офлайн по умолчанию — Ollama или любой OpenAI-compatible сервер; данные не покидают машину
  • Компаундируется — каждый Ingest обогащает базу; связи и страницы накапливаются сами
  • Прозрачность — прогресс шагов агента виден в реальном времени в боковой панели
  • Два бэкенда — Native Agent (Ollama / OpenAI) и Claude Agent; переключаются в настройках

Поддерживаемые бэкенды: Ollama / OpenAI-compatible (без облака) · Claude Agent (Anthropic)

Что умеет

  • Ingest — разбирает заметку, извлекает сущности (люди, технологии, процессы, термины), создаёт и обновляет wiki-страницы
  • Query — отвечает на вопрос по базе знаний; опционально сохраняет ответ как новую страницу с [[WikiLinks]]
  • Lint — проверяет качество wiki-домена, находит неполные и устаревшие страницы
  • Fix — применяет исправления по отчёту Lint: принимает инструкцию, передаёт модели, обновляет страницы. Запускается из панели после Lint.
  • Init — инициализирует новый домен с нуля (структура папок, _schema.md, _index.md)
  • Format — анализирует открытую markdown-страницу (вне wiki-доменов), предлагает правки форматирования (frontmatter, заголовки, таблицы, mermaid, описания изображений). Preview сохраняется в !Temp/. Уточнение через чат, кнопки Apply/Cancel. Жёсткий инвариант: запрещено добавлять/удалять факты или искажать смысл — только перефраз для ясности.
  • Chat — интерактивный чат в боковой панели; доступен после Lint и Query для уточнения результатов.

Fix, Format и Chat запускаются кнопками в боковой панели, а не через Command Palette.

Прогресс каждой операции виден в реальном времени в боковой панели Obsidian.

Мобильная версия: на мобильных устройствах работает только Query. Ingest, Lint и Init — только desktop. Бэкенд Claude Agent на мобильном автоматически переключается на Native Agent.


Быстрый старт: Native Agent (Ollama)

Не требует внешних аккаунтов — LLM работает локально.

1. Установите Ollama

Скачайте с ollama.com и запустите:

ollama pull llama3.2

2. Установите плагин

Скопируйте папку плагина в vault:

# вариант — симлинк для разработки
ln -s /path/to/obsidian-llm-wiki ~/.config/obsidian/Plugins/obsidian-llm-wiki

Или скопируйте папку вручную в <vault>/.obsidian/plugins/obsidian-llm-wiki/.

3. Включите плагин

Obsidian → Settings → Community plugins → найти «AI Wiki» → включить.

4. Настройте

Settings → AI Wiki:

Параметр Значение
Backend Native Agent (OpenAI-compatible)
Base URL http://localhost:11434/v1
API Key ollama
Модель llama3.2
Temperature 0.2
Max tokens 4096

5. Создайте домен

Домен — это пара «папка с источниками → папка wiki». Команда:

Command Palette → AI Wiki: Init домена → введите имя домена (например, work) → снимите флаг Dry Run → запустите.

Плагин создаст структуру папок и служебные файлы (_schema.md, _index.md).

6. Первый Ingest

  1. Откройте любую заметку в Obsidian
  2. Command Palette → AI Wiki: Ingestion активного файла
  3. Следите за прогрессом в боковой панели
  4. После завершения — новые wiki-страницы появятся в папке домена

Быстрый старт: Claude Agent

Для пользователей с установленным Claude Code CLI.

1. Требования

  • Установленный iclaude.sh / iclaude / claude (Claude Code CLI)
  • Скилл llm-wiki в директории <repo>/.claude-isolated/skills/llm-wiki/

2. Установите плагин

Аналогично шагам 2–3 секции Native Agent выше.

3. Настройте

Settings → AI Wiki:

Параметр Значение
Backend Claude Agent
Путь к Claude Code /home/user/Documents/Project/iclaude/iclaude.sh
Путь к навыку llm-wiki /home/user/Documents/Project/iclaude/.claude-isolated/skills/llm-wiki
Модель sonnet
Таймауты 300/300/900/3600

4. Первый Ingest

Аналогично шагу 6 секции Native Agent выше.


Команды

Все команды доступны через Command Palette (Ctrl+P / Cmd+P). Fix, Format и Chat — кнопки в боковой панели.

Команда Действие Результат
AI Wiki: Открыть панель Показать боковую панель Живой лог операций, история
AI Wiki: Ingestion активного файла Извлечь сущности из текущей заметки Новые/обновлённые wiki-страницы (только desktop)
AI Wiki: Запрос Задать вопрос по базе знаний Ответ в панели с [[WikiLinks]]
AI Wiki: Запрос и сохранить как страницу Вопрос + сохранить ответ Новая wiki-страница, открывается автоматически
AI Wiki: Lint домена Проверить качество wiki Отчёт о проблемах в панели (только desktop)
AI Wiki: Init домена Инициализировать новый домен Структура wiki-папок и служебные файлы (только desktop)
AI Wiki: Отмена операции Остановить текущую операцию SIGTERM → SIGKILL через 3с

Справочник настроек

Общие (оба бэкенда)

Параметр Описание По умолчанию
Backend claude-agent или native-agent claude-agent
Лимит истории Максимум записей в истории панели 20
Лог агента Включить запись JSONL-лога агента; путь фиксирован в коде выкл

Native Agent

Параметр Описание По умолчанию
Base URL OpenAI-compatible endpoint http://localhost:11434/v1
API Key ollama для Ollama; sk-... для OpenAI ollama
Модель Имя модели: llama3.2, mistral, gpt-4o... llama3.2
Temperature 0.0–1.0. Низкая (0.1–0.3) = точные факты 0.2
Max tokens Макс. токенов в ответе; ≥ 4096 для wiki-страниц 4096
Top-p Nucleus sampling 0.0–1.0; пусто = отключено —
Request timeout (сек) Таймаут HTTP; для больших моделей Ollama ≥ 300 300
num_ctx Размер контекста (только Ollama); пусто = дефолт модели —
System prompt Системный промпт; перезаписывает встроенный при изменении встроенный

Claude Agent

Параметр Описание По умолчанию
Путь к Claude Code Полный путь к iclaude.sh / iclaude / claude —
Путь к навыку llm-wiki Полный путь к папке навыка (содержит shared/domain-map-*.json) —
Allowed tools Список через запятую Read,Edit,Write,Glob,Grep
Модель Пресет (opus/sonnet/haiku) или произвольный ID (claude-opus-4-7) дефолт claude
Таймауты ingest/query/lint/init в секундах через / 300/300/900/3600
Показывать raw JSON Отображать сырые JSON-события в панели выкл

Graph

Параметр Описание По умолчанию
graphDepth Глубина обхода графа при построении контекста запроса 1
hubThreshold Минимальная степень узла для признания «хабом» 20

Синхронизация

Файл <plugin-dir>/local.json хранит machine-specific путь до iclaude.sh. При использовании Obsidian Sync / git / Syncthing для папки .obsidian/plugins/obsidian-llm-wiki/ исключите local.json из синка, иначе путь будет перезаписан на других машинах.

Карта доменов хранится в !Wiki/_domain.json (внутри vault) и нормально синхронизируется вместе с заметками.


Документация

  • docs/dev.md — сборка, установка, smoke-test чеклист для разработчиков
  • docs/publishing.md — публикация релиза
97%
HealthExcellent
ReviewSatisfactory
About
Build and maintain a local wiki knowledge base from your notes using LLMs and keep data on your machine. Ingest notes to extract entities and auto-create or update pages, query the wiki and save answers as [[WikiLinks]], lint and init domains, and suggest safe formatting edits with real-time agent progress and Ollama/compatible or Claude Code backends.
AILinksResearch
Details
Current version
0.1.99
Last updated
Yesterday
Created
3 weeks ago
Updates
26 releases
Downloads
30
Compatible with
Obsidian 1.7.2+
Platforms
Desktop, Mobile
License
Apache-2.0
Report bugRequest featureReport plugin
Author
IlyaIlyaikeniborn
GitHubikeniborn
  1. Community
  2. Plugins
  3. AI
  4. AI Wiki

Related plugins

Smart Connections

AI link discovery copilot. See related notes as you write. Lookup using semantic (vector) search across your vault. Zero-setup local model for embeddings, no API keys, private.

Khoj

An AI personal assistant for your digital brain.

YOLO

Smart, snappy, and multilingual AI assistant for your vault.

Influx

A bullet journaling plugin that aggregates a terse stream of backlinked clippings in the footer of notes.

Local LLM Helper

Use a local LLM server to augment your notes

InfraNodus AI Graph View

Interactive 3D graph view: text analysis, topic modeling, gap detection, and AI.

Smart Connections Visualizer

View your Smart Connections in a visualized format.

Enzyme

A chat agent that actually knows the ideas in your Obsidian vault.

Copilot

Your AI Copilot: Chat with Your Second Brain, Learn Faster, Work Smarter.

Claudian

Embeds Claude Code/Codex as an AI collaborator in your vault. Your vault becomes agent's working directory, giving it full agentic capabilities: file read/write, search, bash commands, and multi-step workflows.