Chaque outil trouve ce qui existe. m1nd trouve ce qui manque.
À chaque session, votre agent relit l'intégralité de votre codebase — brûlant 0,05 à 0,50 $ par cycle de recherche en tokens LLM, oubliant tout à la session suivante. m1nd remplace cette boucle par un graphe de code persistant qui apprend de l'utilisation, détecte les trous structurels qu'aucun grep ne pourra jamais trouver, et répond en 31ms à 0,00 $. Binaire Rust local. Zéro clé API. Zéro compteur qui tourne.
À chaque fois qu'un agent a besoin de contexte, il lance des appels LLM pour chercher, lire et deviner. Sur une codebase de 10 000 fichiers, c'est des centaines de dollars par semaine — et il manque quand même ce qui n'est pas là.
| Approche | Ce qu'elle fait | Pourquoi elle échoue |
|---|---|---|
| Recherche full-text | Correspondance de tokens | Trouve ce que vous avez dit, pas ce que vous vouliez dire |
| RAG | Embedding de chunks, top-K | Chaque retrieval est amnésique. Aucune relation. |
| Analyse statique | AST, call graphs | Snapshot figé. Ne répond pas à « et si ? ». N'apprend pas. |
| Knowledge graphs | Triple stores | Curation manuelle. Ne retourne que ce qui a été encodé explicitement. |
Pas des améliorations incrémentales. Des différences structurelles.
m1nd ne cherche pas dans vos données -- il les active. Interrogez un concept, et le graphe s'illumine.
Cliquez sur le graphe pour voir la spreading activation en action
2026 est l'année de l'AI slop — des agents qui forcent leur chemin à travers les codebases avec des boucles grep, brûlant des tokens comme du petit bois. grep, ripgrep, tree-sitter : des outils brillants. Pour les humains qui lisent des terminaux. Mais un agent IA ne veut pas 200 lignes d'output à interpréter linéairement. Il veut un graphe avec des poids, des dimensions et une réponse directe : « ce qui compte et ce qui manque » — prêt à décider, pas à parser.
La fin du théâtre de la fenêtre de contexte. Plus besoin de passer des résultats de recherche à un LLM pour qu'il cherche à nouveau.
m1nd ne produit pas du texte qu'un LLM doit réinterpréter. Il produit des décisions structurées — nœuds pondérés, scores de confiance, classements dimensionnels, trous structurels. Le format dont un agent a réellement besoin pour agir, pas plus de slop à mâcher.
Quand un agent IA cherche dans votre code avec un LLM, il envoie votre code à une API cloud, paie par token (entrée + sortie), attend la réponse, et répète souvent 3–5 fois. Chaque cycle coûte 0,05 à 0,50 $.
m1nd utilise zéro appel LLM. Votre codebase vit sous forme de graphe pondéré en RAM locale. Les requêtes sont de la math pure — spreading activation, parcours de graphe, algèbre linéaire — exécutées par un binaire Rust sur votre machine. Pas d'appel API. Pas de tokens. Aucune donnée ne quitte votre ordinateur. C'est pour ça que c'est à 0,00 $ en 31ms.
grep est stateless. Chaque recherche part de zéro. Les Perspectives m1nd maintiennent une session de navigation vivante — avec historique, branches et suggestions.
12 outils. Exploration stateful avec mémoire, branches et annulation.
Aucun autre outil de navigation de code sur le marché ne fait ça.
Invocables par tout client MCP via JSON-RPC stdio. Aucun SDK requis.
Mesurés sur un projet de 335 fichiers en Rust + Python + TypeScript. Zéro cherry-picking.
Une catégorie différente, pas juste une meilleure version.
Chaque fois qu'un agent IA grep votre codebase et envoie les résultats à un LLM, vous payez. Des utilisateurs Cursor ont signalé des dépassements de 22 000 $/mois. Des équipes utilisant Copilot + modèles frontier sur de gros repos voient 200–500 $/mois en coûts de recherche invisibles.
| m1nd | Sourcegraph | Cursor | Copilot | Greptile | |
|---|---|---|---|---|---|
| Graphe de code | Property graph complet | Index de symboles | Aucun | Aucun | Index AST |
| Apprend de l'usage | Hebbian plasticity | Non | Non | Non | Non |
| Persiste les enquêtes | Trail system | Non | Non | Non | Non |
| Teste les hypothèses | Moteur bayésien | Non | Non | Non | Non |
| Simule la suppression | Counterfactual | Non | Non | Non | Non |
| Verrous multi-agents | Système de verrous (opérationnel) | Non | Tenté, échoué | Non | Non |
| Multi-repo | Fédération | Oui | Non | Non | Par repo |
| Latence de recherche | 31ms (local) | ~200ms (cloud) | 320ms+ (cloud) | 500–800ms | Dépendant du cloud |
| Interface agent | 43 outils MCP | API | Intégré uniquement | Intégré uniquement | API |
| Coût mensuel | 0 $ (pour toujours) | 59 $/utilisateur/mois | 20+ $/mois (dépassements jusqu'à 22K $) | 19+ $/mois | 30 $/dev/mois |
| Capacités (sur 16) | 16/16 | 1/16 | 0/16 | 0/16 | 1/16 |
Nous avons comparé m1nd à chaque outil de la catégorie sur 16 capacités. m1nd obtient 16/16. Le meilleur concurrent obtient 3. Cursor et Copilot obtiennent zéro.
m1nd ingérant et analysant une codebase de production. Chaque chiffre est réel.
m1nd démarre en tant que serveur JSON-RPC stdio. Compatible MCP dès le départ.
Envoyez des messages MCP via stdin. L'état persiste automatiquement.
Pas que du code. Ingérez n'importe quel knowledge graph depuis JSON.
Aucun outil ne fait tout. Voici les limites de m1nd.
Open source. Local. Zéro coût. Un seul binaire. 43 outils.
Votre codebase ne quitte jamais votre machine.
Licence MIT · Rust · ~8 Mo binaire · Compatible avec tout client MCP