Jedes Tool findet, was existiert. m1nd findet, was fehlt.
Jede Sitzung liest dein Agent die gesamte Codebase erneut — verbrennt $0,05–$0,50 pro Suchzyklus an LLM-Tokens und vergisst alles bis zur naechsten Sitzung. m1nd ersetzt diesen Kreislauf durch einen persistenten Code-Graphen, der aus Nutzung lernt, strukturelle Luecken erkennt, die kein grep je finden koennte, und in 31ms fuer $0,00 antwortet. Lokale Rust-Binary. Keine API-Keys. Kein Zaehler tickt.
Jedes Mal, wenn ein Agent Kontext braucht, feuert er LLM-Aufrufe zum Suchen, Lesen und Raten. Bei einer 10.000-Dateien-Codebase sind das Hunderte Dollar pro Woche — und er uebersieht trotzdem, was nicht da ist.
| Ansatz | Was es tut | Warum es scheitert |
|---|---|---|
| Volltextsuche | Findet Token-Treffer | Findet, was du gesagt hast, nicht was du meintest |
| RAG | Embeddet Chunks, Top-K | Jeder Abruf ist amnesisch. Keine Beziehungen. |
| Statische Analyse | AST, Call-Graphen | Eingefrorener Snapshot. Kann kein "Was waere wenn?" beantworten. Kann nicht lernen. |
| Wissensgraphen | Triple-Stores | Manuelle Pflege. Gibt nur zurueck, was explizit kodiert wurde. |
Keine inkrementellen Verbesserungen. Strukturelle Unterschiede.
m1nd durchsucht deine Daten nicht -- es aktiviert sie. Frag nach einem Konzept, und der Graph leuchtet auf.
Klicke auf den Graphen, um Spreading Activation in Aktion zu sehen
2026 ist das Jahr des KI-Slop — Agenten, die sich mit Brute-Force durch Codebases schlagen, mit grep-Schleifen, Tokens verbrennend wie Zunder. grep, ripgrep, tree-sitter: brillante Werkzeuge. Fuer Menschen, die Terminals lesen. Aber ein KI-Agent will keine 200 Zeilen Output linear interpretieren. Er will einen Graphen mit Gewichten, Dimensionen und einer direkten Antwort: "was relevant ist und was fehlt" — bereit zur Entscheidung, nicht zum Parsen.
Das Ende des Context-Window-Theaters. Schluss damit, Suchergebnisse an ein LLM zu fuettern, damit es erneut suchen kann.
m1nd gibt keinen Text aus, den ein LLM erneut interpretieren muss. Es liefert strukturierte Entscheidungen — gewichtete Knoten, Konfidenz-Scores, dimensionale Rankings, strukturelle Luecken. Das Format, das ein Agent tatsaechlich zum Handeln braucht, nicht mehr Slop zum Kauen.
Wenn ein KI-Agent deinen Code mit einem LLM durchsucht, sendet er deinen Code an eine Cloud-API, zahlt pro Token (Input + Output), wartet auf die Antwort und wiederholt das oft 3–5 Mal. Jeder Zyklus kostet $0,05–$0,50.
m1nd verwendet null LLM-Aufrufe. Deine Codebase lebt als gewichteter Graph im lokalen RAM. Anfragen sind reine Mathematik — Spreading Activation, Graph-Traversierung, lineare Algebra — ausgefuehrt durch eine Rust-Binary auf deinem Rechner. Kein API-Aufruf. Keine Tokens. Keine Daten verlassen deinen Computer. Deshalb kostet es $0,00 und laeuft in 31ms.
grep ist zustandslos. Jede Suche beginnt bei null. m1nd Perspectives pflegen eine lebende Navigationssitzung — mit Historie, Verzweigungen und Vorschlaegen.
12 Tools. Zustandsbasierte Exploration mit Gedaechtnis, Verzweigung und Undo.
Kein anderes Code-Navigationstool auf dem Markt kann das.
Aufrufbar von jedem MCP-Client via JSON-RPC stdio. Kein SDK noetig.
Gemessen an einem 335-Dateien-Projekt mit Rust + Python + TypeScript. Kein Cherry-Picking.
Andere Kategorie, nicht nur eine bessere Version.
Jedes Mal, wenn ein KI-Agent deine Codebase grepped und Ergebnisse ans LLM fuettert, zahlst du. Cursor-Nutzer berichten von $22K/Monat an Ueberziehungen. Teams mit Copilot + Frontier-Modellen auf grossen Repos sehen $200–$500/Monat allein an unsichtbaren Suchkosten.
| m1nd | Sourcegraph | Cursor | Copilot | Greptile | |
|---|---|---|---|---|---|
| Code-Graph | Vollstaendiger Property-Graph | Symbol-Index | Keiner | Keiner | AST-Index |
| Lernt aus Nutzung | Hebbian plasticity | No | No | No | No |
| Persistiert Ermittlungen | Trail system | No | No | No | No |
| Testet Hypothesen | Bayesian engine | No | No | No | No |
| Simuliert Entfernung | Counterfactual | No | No | No | No |
| Multi-Agent-Locks | Lock-System (funktioniert) | No | Versucht, gescheitert | No | No |
| Multi-Repo | Federation | Yes | No | No | Per-repo |
| Suchlatenz | 31ms (lokal) | ~200ms (Cloud) | 320ms+ (Cloud) | 500–800ms | Cloud-abhaengig |
| Agent-Schnittstelle | 43 MCP tools | API | Nur integriert | Nur integriert | API |
| Monatliche Kosten | $0 (fuer immer) | $59/user/mo | $20+/mo (overages to $22K) | $19+/mo | $30/dev/mo |
| Faehigkeiten (von 16) | 16/16 | 1/16 | 0/16 | 0/16 | 1/16 |
Wir haben m1nd gegen jedes Tool der Kategorie ueber 16 Faehigkeiten gebenchmarkt. m1nd erreicht 16/16. Der beste Wettbewerber erreicht 3. Cursor und Copilot erreichen null.
m1nd beim Einlesen und Analysieren einer Produktions-Codebase. Jede Zahl ist echt.
m1nd startet als JSON-RPC-stdio-Server. MCP-kompatibel ab Werk.
MCP-Nachrichten ueber stdin senden. Zustand wird automatisch persistiert.
Nicht nur Code. Jeden Wissensgraphen aus JSON einlesen.
Kein Tool kann alles. Hier sind die Grenzen von m1nd.
Open Source. Lokal. Null Kosten. Eine Binary. 43 Tools.
Deine Codebase verlaesst nie deinen Rechner.
MIT-Lizenz · Rust · ~8 MB Binary · Funktioniert mit jedem MCP-Client