Tilth v0.3 structure l’accès aux codebases via parsing AST. Résultat : −26 % de coût avec Sonnet, −14 % avec Opus, −82 % avec Haiku en configuration contrainte. Outil open-source, 9 langages supportés.
Le problème : la navigation en aveugle brûle des tokens
Laisser une IA naviguer dans un codebase produit généralement une cascade de requêtes non optimisées. L’agent appelle glob pour lister des fichiers, read pour ouvrir le premier, constate que le fichier est trop volumineux, recourt à grep pour affiner, puis relance des lectures. Chaque round-trip consomme des tokens et alourdit la facture.
Tilth inverse cette logique en fournissant une navigation structurée. Au lieu d’une succession de tâtonnements, l’agent reçoit en un seul appel MCP une vue intelligente du code : outline des fichiers volumineux, définitions localisées via parsing AST (non simple regex), signatures des fonctions appelées. Résultat : moins d’appels, moins de tokens dépensés.
Architecture : parsing AST et compression des résultats
Tilth repose sur trois briques :
- tree-sitter — Un parser incrémental qui construit une arborescence du code plutôt qu’une recherche textuelle brute.
- ripgrep — Pour les recherches rapides et ciblées.
- Logique de compression — Les fichiers volumineux ne sont jamais affichés intégralement. Tilth génère un outline (structure des fonctions et classes), et l’agent demande une section précise si nécessaire.
Cette approche économise des tokens à deux niveaux : chaque réponse devient plus compacte, et l’agent a moins besoin de relancer des appels pour affiner sa recherche.
Le benchmark : impact selon le modèle
Jahala, créateur de Tilth, a mesuré l’impact sur 21 tâches réelles de navigation de code dans 4 repositories (Express, FastAPI, Gin, ripgrep). La métrique : le coût par réponse correcte, c’est-à-dire le budget cumulé avant d’obtenir une réponse utilisable, en tenant compte des retries.
| Modèle | Réduction | Accuracy | Adoption |
|---|---|---|---|
| Sonnet 4.5 | −26 % | 79 % → 86 % | 95 % |
| Opus 4.6 | −14 % | — | 94 % |
| Haiku 4.5 (standard) | Faible | — | 9 % |
| Haiku 4.5 (contrainte*) | −82 % | 100 % | 100 % |
*Configuration contrainte : outils chevauchants désactivés.
Cas de Haiku : Le petit modèle n’adopte pas spontanément Tilth comme ses grands frères (9 % d’adoption). Son instruction tuning n’est pas assez évolué pour préférer le nouvel outil face aux outils intégrés (Bash, Grep, etc.).
Lorsqu’on désactive les outils chevauchants, Haiku bascule à 100 % d’adoption et atteint 100 % d’accuracy à 0,04 USD par réponse. Cette configuration reste cependant non-standard et s’applique surtout aux scénarios purement orientés navigation de code.
Technique et portabilité
Tilth est écrit en Rust (environ 6 000 lignes) sans dépendance runtime — un atout pour la légèreté et la portabilité.
Neuf langages supportés via tree-sitter : Rust, TypeScript, JavaScript, Python, Go, Java, C, C++, Ruby.
Installation :
- CLI : cargo install tilth ou npx tilth
- Intégration MCP : tilth install claude-code
Après installation, Claude utilise Tilth comme outil natif dans Claude Code, Cursor, Windsurf et VS Code.
Limites et points d'interrogation
Le benchmark couvre 21 tâches dans 4 codebases. Généraliser à des projets plus vastes ou à d’autres scénarios (debug, génération de tests) reste une question ouverte.
Jahala reconnaît avoir un budget limité pour Opus et demande une reproduction indépendante des tests. L’adoption réelle n’est pas documentée non plus — l’annonce remonte à quelques heures, sans chiffres de download ou d’utilisateurs actifs. Le projet dépend aussi de l’écosystème MCP pour sa diffusion, un vecteur encore émergent.
Reste enfin à observer comment ce gain évoluera avec les futures versions de Claude. Si Anthropic améliore l’instruction tuning des petits modèles ou intègre une vision directe de l’AST, une partie de l’avantage de Tilth pourrait se réduire.
En synthèse
Tilth montre qu’une structuration intelligente de l’accès aux ressources — le code, en l’occurrence — réduit le bruit et le coût des appels IA. Pour les développeurs utilisant Claude dans des workflows d’agentic programming, cette tâche figure en première ligne des usages.
L’outil open-source livrant un gain immédiatement mesurable : −26 % pour Sonnet, −14 % pour Opus. Le −82 % chez Haiku demeure un cas spécifique en configuration contrainte, mais illustre le potentiel de l’approche AST sur les modèles plus petits.
FAQ
Qu'est-ce que Tilth et comment réduit-il le coût des requêtes IA sur le code ?
Tilth est un outil MCP qui structure l’accès aux codebases via parsing AST plutôt que via navigation brute. Au lieu de laisser l’IA faire des appels successifs (glob, read, grep), Tilth fournit une vue intelligente du code en un seul appel : outlines des fichiers volumineux, définitions localisées, signatures des fonctions. Cela réduit le nombre d’appels et les tokens consommés.
Quel modèle Claude économise le plus avec Tilth ?
Sonnet 4.5 réduit son coût de 26 % et améliore son accuracy de 79 % à 86 %. Opus 4.6 économise 14 %. Haiku 4.5 en configuration standard n’adopte pas spontanément Tilth (9 % d’adoption), mais lorsqu’on désactive les outils chevauchants, Haiku atteint 100 % d’adoption et −82 % de coût à 0,04 USD par réponse, bien que cette configuration soit non-standard.
Tilth fonctionne-t-il avec tous les langages de programmation ?
Tilth supporte neuf langages via tree-sitter : Rust, TypeScript, JavaScript, Python, Go, Java, C, C++, Ruby. Il ne couvre pas tous les langages, mais les plus courants dans les workflows d’agentic programming.
Comment installer et utiliser Tilth avec Claude ?
Installation CLI : cargo install tilth ou npx tilth. Intégration MCP : tilth install claude-code. Après installation, Claude utilise Tilth comme outil natif dans Claude Code, Cursor, Windsurf et VS Code.
Quelles sont les limites du benchmark Tilth ?
Le benchmark couvre 21 tâches dans 4 codebases seulement. Généraliser à des projets plus vastes ou à d’autres scénarios (debug, génération de tests) reste une question ouverte. Jahala reconnaît un budget limité pour Opus et demande une reproduction indépendante. L’adoption réelle n’est pas documentée (l’annonce est récente), et le projet dépend de l’écosystème MCP émergent pour sa diffusion.









