Skip to main content
ClaudeObsidianAI automation

Claude + Obsidian: Bequem, aber die Token verzeihen nichts

Ja, Sie können Claude über Plugins wie Claude Code und MCP mit Obsidian verbinden, um eine funktionale KI-Automatisierung zu schaffen. Die eigentliche Herausforderung ist jedoch nicht die Integration, sondern die Kontextkosten. Wenn Sie Ihr gesamtes Vault an das Modell verfüttern, werden die Token extrem schnell verbraucht.

Technischer Kontext

Ich liebe solche Kombinationen: Man nimmt Claude, verbindet es mit Obsidian und erhält nicht nur ein Chat-Spielzeug, sondern ein fast lebendiges System für die KI-Implementierung in einer persönlichen oder beruflichen Wissensdatenbank. Doch eine einfache Tatsache wird schnell klar: Die Integration ist einfach, aber einen Token-Brand zu vermeiden, ist es nicht.

Nach dem, was derzeit im Ökosystem verfügbar ist, lässt sich Claude gut über Plugins, Claude Code, Desktop und MCP-Server in Obsidian integrieren. Das bedeutet, das Modell kann lokale Markdown-Dateien lesen, Notizen bearbeiten, [[note]]-Links folgen und mit dem Vault nicht blind, sondern unter Berücksichtigung der Struktur arbeiten.

Besonders gefällt mir der Ansatz mit einer CLAUDE.md-Datei im Stammverzeichnis des Vaults. Man beschreibt einmal die Notizstruktur, Benennungsregeln und Gewohnheiten bei Tags und Formatierung und muss dies nicht in jeder Anfrage wiederholen. In der Praxis ist das nicht nur Kosmetik, sondern ein direkter Weg, den Token-Verbrauch zu senken.

Wenn man über Agent Client, Claude Sidebar oder MCP Tools geht, ist die UX ziemlich benutzerfreundlich: Man kann gezielt Notizen, Textauswahlen und einzelne Ordner abrufen, anstatt dem Modell das gesamte Archiv der letzten fünf Jahre zu übergeben. Und das ist entscheidend. Denn die Versuchung, dem Modell den gesamten Vault zu geben, ist riesig, und die Rechnung, die danach kommt, ist ebenso real.

Ein weiterer wichtiger Punkt: Obsidian selbst bietet keine native KI-Architektur, alles basiert auf Plugins und externen Tools. Für mich ist das kein Nachteil, sondern einfach eine Tatsache. Es bietet mehr Flexibilität, aber die Verantwortung für die KI-Integration, Zugriffsrechte, Kontextgröße und das Routing von Anfragen liegt bei dem, der es einrichtet.

Auswirkungen auf Unternehmen und Automatisierung

Für Unternehmen sehe ich hier nicht "intelligente Notizen", sondern den Anfang eines richtigen Knowledge-Ops-Systems. Man kann KI-Lösungen für Unternehmen rund um Richtlinien, Besprechungsnotizen, eine Entscheidungsdatenbank und interne Wikis aufbauen, damit das Modell das Nötige findet, Dokumente verknüpft und Entwürfe ohne manuelles Graben erstellt.

Teams, die bereits Disziplin bei ihren Notizen und ihrer Struktur haben, werden gewinnen. Diejenigen, die Magie auf einem chaotischen Dateihaufen wollen, werden verlieren: Das Modell wird das Durcheinander nur teurer hervorheben.

Die zweite große Überlegung sind die Kosten. Wenn man Claude gezielten Zugriff auf die benötigten Notizen gibt, einen konstanten Kontext in CLAUDE.md beibehält und unnötige Vault-Scans vermeidet, ist die Wirtschaftlichkeit vernünftig. Baut man jedoch eine Automatisierung ohne Kontextbeschränkungen auf, wird das Budget schneller verbrennen, als der Nutzen sichtbar wird.

Bei Nahornyi AI Lab bauen wir genau solche Dinge: nicht "KI um der KI willen hinzufügen", sondern KI-Automatisierung so gestalten, dass eine Wissensdatenbank tatsächlich Zeit spart und nicht nur das API-Budget. Wenn Sie bereits Dokumentation, Notizen oder ein internes Wiki ansammeln, können Sie gemeinsam mit Vadym Nahornyi eine Architektur entwerfen und eine saubere Integration ohne unnötigen Lärm und überflüssige Token aufbauen.

Wir haben bereits untersucht, wie sich die Updates von Obsidian, einschließlich CLI, Bases und Secret Storage, auf die Architektur des persönlichen Wissensmanagements (PKM) und die KI-Automatisierung auswirken. Dies bietet einen tieferen Einblick in die Entwicklung der Plattform für den Aufbau robuster, KI-gestützter Wissensdatenbanken.

Diesen Artikel teilen