43 MCP-Tools · Rust · $0,00/Anfrage

Dein KI-Agent hat Amnesie.
m1nd erinnert sich.

Jedes Tool findet, was existiert. m1nd findet, was fehlt.

Jede Sitzung liest dein Agent die gesamte Codebase erneut — verbrennt $0,05–$0,50 pro Suchzyklus an LLM-Tokens und vergisst alles bis zur naechsten Sitzung. m1nd ersetzt diesen Kreislauf durch einen persistenten Code-Graphen, der aus Nutzung lernt, strukturelle Luecken erkennt, die kein grep je finden koennte, und in 31ms fuer $0,00 antwortet. Lokale Rust-Binary. Keine API-Keys. Kein Zaehler tickt.

Claude Code Cursor Windsurf GitHub Copilot Zed Cline Roo Code Continue OpenCode Amazon Q
find
what's missing
what if?
navigate
9,767 nodes · 26,557 edges · 335 files
28 Sprachen. Null Konfiguration.
Regex-Extraktoren, Tree-sitter-Parser und generischer Fallback — alles eingebaut.
PythonPython
RustRust
TypeScriptTypeScript
JavaScriptJavaScript
GoGo
JavaJava
CC
C++C++
C#C#
RubyRuby
PHPPHP
SwiftSwift
KotlinKotlin
ScalaScala
BashBash
LuaLua
RR
HTMLHTML
CSSCSS
JSONJSON
ElixirElixir
DartDart
ZigZig
HaskellHaskell
OCamlOCaml
TOMLTOML
YAMLYAML
SQLSQL
+ generischer Regex-Fallback für jede nicht aufgeführte Sprache
Funktioniert mit jedem MCP-Client
Standard-MCP-Protokoll. Eine Binary, jeder Client.
Claude Code
Cursor
Windsurf
GitHub Copilot
Zed
Cline
Roo Code
Continue
OpenCode
Amazon Q
Mit Rust gebaut
MIT-Lizenz
Null LLM-Tokens
Nur lokal — dein Code verlässt niemals dein Gerät

KI-Agenten sind starke Denker.
Furchtbare Navigatoren.

Jedes Mal, wenn ein Agent Kontext braucht, feuert er LLM-Aufrufe zum Suchen, Lesen und Raten. Bei einer 10.000-Dateien-Codebase sind das Hunderte Dollar pro Woche — und er uebersieht trotzdem, was nicht da ist.

"Was beeinflusst diese Aenderung?"
Der Blast-Radius ist ohne strukturelle Analyse unsichtbar.
m1nd.impact
"Was uebersehe ich?"
Strukturelle Luecken sind durch Stichwortsuche nicht auffindbar.
m1nd.missing
"Was aendert sich noch?"
Co-Change-Muster erfordern historischen Kontext.
m1nd.predict
"Wie haengen diese zusammen?"
Abhaengigkeitsketten erstrecken sich ueber Dateien, Module und Abstraktionsebenen.
m1nd.why
Ansatz Was es tut Warum es scheitert
Volltextsuche Findet Token-Treffer Findet, was du gesagt hast, nicht was du meintest
RAG Embeddet Chunks, Top-K Jeder Abruf ist amnesisch. Keine Beziehungen.
Statische Analyse AST, Call-Graphen Eingefrorener Snapshot. Kann kein "Was waere wenn?" beantworten. Kann nicht lernen.
Wissensgraphen Triple-Stores Manuelle Pflege. Gibt nur zurueck, was explizit kodiert wurde.

Sechs Faehigkeiten, die kein anderes Tool hat.

Keine inkrementellen Verbesserungen. Strukturelle Unterschiede.

Der Graph lernt
Hebbian Plasticity
Wenn Ergebnisse korrekt sind, verstaerken sich Pfade. Wenn falsch, schwaecken sie sich ab. Jede Anfrage macht die naechste praeziser. Der Graph passt sich deiner Codebase an, nicht umgekehrt.
Der Graph unterdrueckt Rauschen
XLR Differential Processing
Entlehnt aus der Audiotechnik. Zwei Signale auf demselben Pfad -- die Differenz enthuellt die Wahrheit. Falsch-positive Kanten werden eliminiert, bevor sie Ergebnisse verschmutzen.
Der Graph erinnert sich
Trail-System
Ermittlungszustand ueber Sitzungen hinweg speichern, fortsetzen und zusammenfuehren. Ein Agent setzt exakt dort an, wo ein anderer aufgehoert hat. Kein erneutes Entdecken. Kein verlorener Kontext.
Der Graph testet Behauptungen
Hypothesen-Engine
25.015 Pfade in 58ms exploriert. Bayesian-Konfidenz-Scoring. Der Graph ruft nicht nur ab -- er bewertet, ob eine strukturelle Behauptung plausibel ist.
Der Graph simuliert Alternativen
Kontrafaktuale Engine
4.189 betroffene Knoten in 3ms analysiert. Ein Modul virtuell entfernen, sehen was bricht, Kaskadenriefe messen -- bevor eine einzige Codezeile angefasst wird.
Der Graph laesst dich navigieren
Zustandsbasierte Exploration mit Historie, Verzweigung und Undo. Eine Perspektive betreten, Routen folgen, Untersuchung aufteilen, Pfade vergleichen. 12 Tools. Wie ein Chirurg in deiner Codebase.

Der Kernzyklus

m1nd durchsucht deine Daten nicht -- es aktiviert sie. Frag nach einem Konzept, und der Graph leuchtet auf.

RUHEND — KLICK ZUM AKTIVIEREN 0.94 0.89 0.83 0.71 0.23 hole!

Klicke auf den Graphen, um Spreading Activation in Aktion zu sehen

01
Ingest
Property-Graph aus Quelldaten bauen. Code, JSON, jede Domaene.
02
Activate
Spreading Activation ueber 4 Dimensionen mit XLR-Rauschunterdrueckung.
03
Learn
Hebbian Plasticity: Korrekte Ergebnisse verstaerken Verbindungen, falsche schwaecchen sie.
04
Persist
Graph + Plastizitaetszustand auf Disk gespeichert. Naechste Sitzung beginnt, wo diese aufgehoert hat.

Vier Aktivierungsdimensionen

Strukturell
Graph-Topologie: Kanten, PageRank, Community-Struktur. Wie Dinge verdrahtet sind.
Semantisch
Label-Aehnlichkeit: Char-N-Gramme, Ko-Okkurrenz (PPMI), Synonym-Expansion.
Temporal
Zeitdynamik: Aktualitaets-Decay, Aenderungsgeschwindigkeit, Co-Change-Historie.
Kausal
Abhaengigkeitsfluss: Gerichtete Kausalitaet entlang Import-, Aufruf- und Enthaelt-Kanten.

Jedes Such-Tool wurde fuer Menschen gebaut.
m1nd wurde fuer Agenten gebaut.

2026 ist das Jahr des KI-Slop — Agenten, die sich mit Brute-Force durch Codebases schlagen, mit grep-Schleifen, Tokens verbrennend wie Zunder. grep, ripgrep, tree-sitter: brillante Werkzeuge. Fuer Menschen, die Terminals lesen. Aber ein KI-Agent will keine 200 Zeilen Output linear interpretieren. Er will einen Graphen mit Gewichten, Dimensionen und einer direkten Antwort: "was relevant ist und was fehlt" — bereit zur Entscheidung, nicht zum Parsen.

Das Ende des Context-Window-Theaters. Schluss damit, Suchergebnisse an ein LLM zu fuettern, damit es erneut suchen kann.

Der Slop-Zyklus
1. Agent ruft grep auf 200 Zeilen Rauschen
2. Fuettert gesamten Output ans LLM verbrennt Tokens beim Text-Parsen
3. LLM entscheidet, erneut zu greppen 3–5 Mal wiederholen
4. Handelt schliesslich auf unvollstaendigem Bild
$0,30–$0,50 verbrannt pro Suche. 10 Sekunden verloren. Strukturelle blinde Flecken bleiben.
Praezisionschirurgie
1. Agent ruft m1nd.activate auf
2. Erhaelt gewichteten Subgraphen mit Konfidenz-Scores
3. Sieht strukturelle Luecken, die keine Textsuche finden kann
4. Handelt sofort mit vollstaendigem Bild
1 Aufruf. 31ms. $0,00. Null Tokens. Vollstaendiges strukturelles Verstaendnis.

m1nd gibt keinen Text aus, den ein LLM erneut interpretieren muss. Es liefert strukturierte Entscheidungen — gewichtete Knoten, Konfidenz-Scores, dimensionale Rankings, strukturelle Luecken. Das Format, das ein Agent tatsaechlich zum Handeln braucht, nicht mehr Slop zum Kauen.

Warum $0,00 echt ist — kein Marketing

Wenn ein KI-Agent deinen Code mit einem LLM durchsucht, sendet er deinen Code an eine Cloud-API, zahlt pro Token (Input + Output), wartet auf die Antwort und wiederholt das oft 3–5 Mal. Jeder Zyklus kostet $0,05–$0,50.

m1nd verwendet null LLM-Aufrufe. Deine Codebase lebt als gewichteter Graph im lokalen RAM. Anfragen sind reine Mathematik — Spreading Activation, Graph-Traversierung, lineare Algebra — ausgefuehrt durch eine Rust-Binary auf deinem Rechner. Kein API-Aufruf. Keine Tokens. Keine Daten verlassen deinen Computer. Deshalb kostet es $0,00 und laeuft in 31ms.

LLM-grep-Zyklus
Dein Code → Cloud-API → Tokens → $$
Wie jedes Mal Google Maps fragen, wenn du die Strasse ueberqueren willst
m1nd-Anfrage
Graph im RAM → Mathematik → Antwort → $0
Wie auf eine Karte schauen, die schon auf deinem Schreibtisch liegt

Navigiere Code wie ein Chirurg.

grep ist zustandslos. Jede Suche beginnt bei null. m1nd Perspectives pflegen eine lebende Navigationssitzung — mit Historie, Verzweigungen und Vorschlaegen.

🔍
start
Eine Perspektive betreten. Eine navigierbare Oberflaeche bildet sich um deine Anfrage.
🧭
routes
Gewichtete Routen durchstoebern — gewichtete Pfade durch den Graphen.
🎯
follow
Fokus auf ein Ziel bewegen. Neue Routen werden automatisch synthetisiert.
🔀
branch
Exploration aufteilen. Wie Git-Branches, aber fuer Ermittlungen.
💡
suggest
m1nd empfiehlt deinen naechsten Schritt basierend auf der Navigationshistorie.
⚖️
compare
Zwei Perspektiven vergleichen. Gemeinsame Knoten, einzigartige Pfade, Dimensions-Deltas.

12 Tools. Zustandsbasierte Exploration mit Gedaechtnis, Verzweigung und Undo.
Kein anderes Code-Navigationstool auf dem Markt kann das.

Perspektiv-Sitzung
$ m1nd.perspective_start --query "payment flow"
Perspective p-7a3f opened · 6 routes synthesized

$ m1nd.perspective_follow --route "checkout → stripe"
Focus moved to stripe/client.rs · 4 new routes from this node

$ m1nd.perspective_branch --name "refund-path"
Branch created · forked from stripe/client.rs

$ m1nd.perspective_suggest
refund/handler.rs (affinity: 0.91, structural + causal)
  "Based on 3 hops: this is the most likely next dependency"

$ m1nd.perspective_compare --a "main" --b "refund-path"
Shared: 12 nodes · Unique to refund-path: 5 nodes · Divergence: 0.34

Alles, was ein Agent braucht.

Aufrufbar von jedem MCP-Client via JSON-RPC stdio. Kein SDK noetig.

Grundlagen (13)
m1nd.ingest
Daten in den Graphen laden. Code-Extraktor oder JSON-Deskriptor.
m1nd.activate
Spreading-Activation-Anfrage -- "Was haengt mit X zusammen?"
m1nd.impact
Blast-Radius -- "Was beeinflusst eine Aenderung an X?"
m1nd.why
Pfaderklaerung -- "Wie sind A und B verbunden?"
m1nd.learn
Hebbian-Feedback -- "Dieses Ergebnis war korrekt / falsch / teilweise."
m1nd.drift
Gewichtsdrift-Analyse -- "Was hat sich seit der letzten Sitzung geaendert?"
m1nd.health
Diagnostik -- Knoten-/Kanten-Anzahl, Sitzungen, Persistenz-Status.
m1nd.seek
Gezielte Knotensuche -- bestimmte Entitaeten nach ID oder Muster finden.
m1nd.scan
Breiter Graph-Scan -- Knoten nach Typ, Label oder Nachbarschaft auflisten.
m1nd.timeline
Zeitliche Abfolge -- wie sich Knoten ueber die Zeit veraendert haben.
m1nd.diverge
Branch-Analyse -- wo divergieren zwei Pfade?
m1nd.warmup
Kontext-Priming -- "Bereite dich auf Aufgabe X vor."
m1nd.federate
Multi-Repo-Federation -- Graphen ueber Repositories vernaehen.
Perspektiv-Navigation (12)
perspective.start
Neue Perspektive oeffnen -- eine begrenzte, filterbare Sicht in den Graphen.
perspective.routes
Alle Pfade zwischen zwei Knoten innerhalb der Perspektive finden.
perspective.follow
Vorwaerts navigieren -- einer Kante von der aktuellen Position folgen.
perspective.back
Rueckwaerts navigieren -- zu einer vorherigen Position zurueckgehen.
perspective.peek
Nachbarn vorschauen ohne sich zu bewegen -- erst schauen, dann springen.
perspective.inspect
Vollstaendige Details zum aktuellen Knoten -- Kanten, Gewichte, Metadaten.
perspective.suggest
KI-gestuetzte Navigation -- "Wohin soll ich als naechstes?"
perspective.affinity
Bewerten, wie verwandt zwei Knoten von diesem Standpunkt aus sind.
perspective.branch
Aktuelle Perspektive in parallele Explorationen aufteilen.
perspective.compare
Zwei Perspektiven vergleichen -- was sieht jede, das die andere nicht sieht?
perspective.list
Alle aktiven Perspektiven und ihre Positionen auflisten.
perspective.close
Perspektive schliessen und ihre Ressourcen freigeben.
Lock-System (5)
lock.create
Graph-Zustand snapshotten -- Baseline fuer Vergleich erstellen.
lock.watch
Aenderungen gegen den Lock ueberwachen -- Echtzeit-Drift-Erkennung.
lock.diff
Aktuellen Zustand gegen Lock vergleichen -- was hat sich geaendert?
lock.rebase
Lock auf aktuellen Zustand aktualisieren -- alle Aenderungen akzeptieren.
lock.release
Lock freigeben und Snapshot-Speicher loeschen.
Superkraefte (13)
m1nd.hypothesize
Strukturelle Behauptung testen -- Bayesian-Konfidenz ueber 25K+ Pfade.
m1nd.counterfactual
Entfernungssimulation -- "Was bricht, wenn wir X entfernen?"
m1nd.missing
Strukturelle-Luecken-Erkennung -- "Was fehlt in diesem Bild?"
m1nd.resonate
Harmonische Analyse -- stehende Wellen, Resonanzfrequenzen.
m1nd.fingerprint
Aequivalenzerkennung -- "Sind diese zwei Dinge Duplikate?"
m1nd.trace
Vollstaendiger Aktivierungs-Trace -- jeder Hop, jedes Gewicht, jede Entscheidung.
m1nd.validate_plan
Implementierungsplan gegen die Graph-Struktur validieren.
m1nd.predict
Co-Change-Vorhersage -- "Was muss sich noch aendern?"
m1nd.differential
XLR-Differential -- Signal von Rauschen zwischen zwei Anfragen trennen.
trail.save
Aktuellen Ermittlungszustand speichern -- alle Aktivierungen, Perspektiven, Kontext.
trail.resume
Gespeicherten Trail fortsetzen -- exakt dort weitermachen, wo aufgehoert wurde.
trail.merge
Zwei Trails zusammenfuehren -- parallele Ermittlungen kombinieren.
trail.list
Alle gespeicherten Trails mit Metadaten und Zeitstempeln auflisten.

Echte Zahlen von einer echten Codebase.

Gemessen an einem 335-Dateien-Projekt mit Rust + Python + TypeScript. Kein Cherry-Picking.

Vollstaendiges Ingest
910ms
335 files → 9,767 nodes → 26,557 edges
Spreading Activation
31-77ms
4-dimensionale Wellenfront, XLR-Noise-Gate
Blast-Radius (Impact)
5-52ms
Vollstaendige Kaskadenanalyse mit Hop-Tiefe
Kontrafaktuale Simulation
3ms
4.189 betroffene Knoten ausgewertet
Lock-Diff
0.08µs
Snapshot-Vergleich, nahezu sofort
Federation (2 Repos)
1.3s
18.203 Cross-Repo-Kanten vernaeht

m1nd vs. die Alternativen.

Andere Kategorie, nicht nur eine bessere Version.

Die Token-Steuer ist echt

Jedes Mal, wenn ein KI-Agent deine Codebase grepped und Ergebnisse ans LLM fuettert, zahlst du. Cursor-Nutzer berichten von $22K/Monat an Ueberziehungen. Teams mit Copilot + Frontier-Modellen auf grossen Repos sehen $200–$500/Monat allein an unsichtbaren Suchkosten.

100 Suchen/Tag × $0,30/Suche = $9/Tag = $270/Monat
Das sind $3.240/Jahr nur fuer Suche. Pro Entwickler.
m1nd
$0
/Anfrage. /Tag. /Monat. /Fuer immer.
Lokale Rust-Binary. Keine API-Keys. Keine Cloud.
Keine Daten verlassen deinen Rechner. Niemals.
m1nd Sourcegraph Cursor Copilot Greptile
Code-Graph Vollstaendiger Property-Graph Symbol-Index Keiner Keiner AST-Index
Lernt aus Nutzung Hebbian plasticity No No No No
Persistiert Ermittlungen Trail system No No No No
Testet Hypothesen Bayesian engine No No No No
Simuliert Entfernung Counterfactual No No No No
Multi-Agent-Locks Lock-System (funktioniert) No Versucht, gescheitert No No
Multi-Repo Federation Yes No No Per-repo
Suchlatenz 31ms (lokal) ~200ms (Cloud) 320ms+ (Cloud) 500–800ms Cloud-abhaengig
Agent-Schnittstelle 43 MCP tools API Nur integriert Nur integriert API
Monatliche Kosten $0 (fuer immer) $59/user/mo $20+/mo (overages to $22K) $19+/mo $30/dev/mo
Faehigkeiten (von 16) 16/16 1/16 0/16 0/16 1/16

3–4 Jahre voraus. Gemessen.

Wir haben m1nd gegen jedes Tool der Kategorie ueber 16 Faehigkeiten gebenchmarkt. m1nd erreicht 16/16. Der beste Wettbewerber erreicht 3. Cursor und Copilot erreichen null.

Abgedeckte Faehigkeiten (von 16)
m1nd
16/16
100%
CodeGraphCtx
3/16
Joern
2/16
CodeQL
2/16
ast-grep
2/16
Letta Code
2/16
Sourcegraph
1/16
Augment
1/16
Greptile
1/16
Cursor
0/16
Copilot
0/16
Sechs Dinge, die niemand sonst behaupten kann
01 — NULL WETTBEWERBER
Hebbian Plasticity auf Code-Graphen
Der Graph verdrahtet sich selbst basierend darauf, welche Anfragepfade zu korrekten Ergebnissen fuehren. Kein anderes Tool tut das. Keine publizierte Arbeit beschreibt das fuer Code.
02 — 10-30x SCHNELLER
$0.00/query at 31ms
Lokale Rust-Binary. Keine LLM-Tokens pro Anfrage verbrannt. Jedes LLM-abhaengige Tool zahlt $0,10-$0,50 pro Suche und wartet 300ms-2s auf Ergebnisse.
03 — NULL VORARBEITEN
Findet, was im Code FEHLT
Strukturelle Luecken-Erkennung aus Burts Soziologietheorie, angewandt auf Code-Graphen. Findet Luecken in deiner Architektur, die keine Suche aufdecken kann.
04 — GROESSTE OBERFLAECHE
43 MCP-Tools = vollstaendiger kognitiver Zyklus
Ingest, Aktivierung, Hypothesentest, Simulation, Lernen, Navigation, Federation. Der groesste Wettbewerber bietet ~15 Tools. Die meisten bieten 3-5.
05 — UNPUBLIZIERTE TECHNIK
XLR noise cancellation
Entlehnt aus der Audiotechnik: Cross-Layer-Resonance-Filterung unterdrueckt falsch-positive Kanten waehrend der Spreading Activation. Keine Vorarbeiten fuer Code-Graphen. Null Wettbewerber, null Paper.
06 — ANDERE HABEN VERSUCHT UND VERSAGT
Multi-Agent-Graph-Locking
Cursor hat Multi-Agent-File-Locking versucht und aufgegeben. m1nd liefert 5 Lock-Tools, die funktionieren: Snapshot, Watch, Diff, Rebase, Release. Mehrere Agenten, ein konsistenter Graph.
3–4 Jahre voraus
Gebaut auf 6 Disziplinen, die kein einzelner Wettbewerber abdeckt: Kognitionswissenschaft, Soziologie, Neurowissenschaft, Signalverarbeitung, Physik und verteilte Systeme.
Vollstaendige Wettbewerbsanalyse lesen →

Eine vollstaendige Sitzung, von Anfang bis Ende.

m1nd beim Einlesen und Analysieren einer Produktions-Codebase. Jede Zahl ist echt.

m1nd Produktions-Sitzung
1. Ingest > m1nd.ingest path=./
Scanned 335 source files across 3 languages
9,767 nodes, 26,557 edges built in 910ms
Co-change history: 214 commit groups analyzed

2. Activate > m1nd.activate query="spreading activation"
Seeds: activation.rs, graph.rs, xlr.rs
Wavefront: 3 → 18 → 47 nodes
0.94 fn::propagate_wavefront (structural 0.97)
0.91 fn::score_candidates (semantic 0.93)
0.87 fn::xlr_gate (causal 0.89)
0.72 fn::compute_pagerank (structural 0.78)
XLR cancelled 12 noise edges · 31ms

3. Impact > m1nd.impact targets=["graph.rs"]
Blast radius: 23 nodes across 4 hops
Direct: activation.rs, xlr.rs, temporal.rs, builder.rs
Indirect: server.rs, tools.rs, session.rs
High-impact: graph.rs is a keystone (PageRank top 3%)

4. Hypothesize > m1nd.hypothesize "graph.rs depends on temporal.rs"
Explored 25,015 paths in 58ms
Confidence: 0.87 (strong structural + temporal evidence)
Supporting: 14 direct paths, 3 co-change clusters
Weakening: 2 paths through deprecated module

5. Counterfactual > m1nd.counterfactual remove=["graph.rs"]
CASCADE: 4,189 affected nodes in 3ms
ORPHANED: 8 functions become unreachable
RESILIENT: temporal.rs, domain.rs survive via alternate paths
Simulation complete: graph.rs is load-bearing

6. Learn > m1nd.learn feedback=correct nodes=[activation.rs, xlr.rs]
LTP applied: 14 edges strengthened (avg +0.12)
Plasticity state persisted · 2,847 modified weights total

In 60 Sekunden einsatzbereit.

1

Bauen

cargo build --release
2

Ausfuehren

m1nd startet als JSON-RPC-stdio-Server. MCP-kompatibel ab Werk.

./target/release/m1nd-mcp
3

Einlesen & Abfragen

MCP-Nachrichten ueber stdin senden. Zustand wird automatisch persistiert.

// Ingest a codebase
{"method":"tools/call","params":{"name":"m1nd.ingest",
  "arguments":{"path":"/your/project","agent_id":"my-agent"}}}

// Query
{"method":"tools/call","params":{"name":"m1nd.activate",
  "arguments":{"query":"authentication","agent_id":"my-agent"}}}

// Learn from results
{"method":"tools/call","params":{"name":"m1nd.learn",
  "arguments":{"feedback":"correct","node_ids":["file::src/auth.rs"]}}}
4

Jede Domaene

Nicht nur Code. Jeden Wissensgraphen aus JSON einlesen.

// JSON descriptor -- works for any domain
{"nodes": [
  {"id":"concept::activation", "label":"Spreading Activation", "type":"Concept"},
  {"id":"concept::plasticity", "label":"Hebbian Plasticity", "type":"Process"}
],
"edges": [
  {"source":"concept::activation", "target":"concept::plasticity",
   "relation":"enables", "weight":0.8}
]}

Was m1nd nicht ist.

Kein Tool kann alles. Hier sind die Grenzen von m1nd.

Kein Code-Editor
m1nd navigiert und analysiert. Es schreibt nicht, refaktoriert nicht und wendet keine Patches an. Kombiniere es mit einem Agenten, der das tut.
Keine Suchmaschine
Es findet strukturelle Beziehungen, keine String-Treffer. Fuer wortwoertliche Textsuche: grep. Fuer strukturelles Verstaendnis: m1nd.
Graph lebt im Speicher
Der vollstaendige Graph wird fuer Geschwindigkeit im RAM gehalten. Grosse Monorepos (100K+ Dateien) benoetigen viel Speicher. Persistenz auf Disk beim Herunterfahren.
Heute Einzelrechner
Federation vernaeht Graphen aus mehreren Repos, aber der Server selbst laeuft auf einem Rechner. Verteilter Modus ist noch nicht implementiert.
~15,500
Zeilen Rust
159
Tests
43
MCP-Tools
6+1
Sprachen
~8 MB
Binary (ARM64)

Hoer auf, fuer Amnesie zu zahlen.
Gib deinen Agenten einen m1nd.

Open Source. Lokal. Null Kosten. Eine Binary. 43 Tools.
Deine Codebase verlaesst nie deinen Rechner.

m1nd auf GitHub holen Dieses Projekt unterstuetzen

MIT-Lizenz · Rust · ~8 MB Binary · Funktioniert mit jedem MCP-Client