我们把这个工具叫 Manon,但对外介绍它时,我们不想说「这是一款产品」。它更准确的定位是:我们交付软件时依赖的内部开发基础设施。
本文记录它是什么、怎么工作、以及我们实际用它开发软件时得到的数据。
起点:AI 编程的两个结构性缺陷
我们在把 AI 深度引入开发工作流的过程中,发现了两个反复出现的根本性问题:
缺陷一:上下文不足。AI 看到的永远是代码片段,看不到调用图、依赖链、模块边界。它能读懂你给它的文件,但不知道这个函数被哪 23 个地方调用,不知道这个改动会沿着调用边传播到哪里。结果是幻觉——技术上正确,但破坏了你的架构意图。
缺陷二:流程无结构。给 AI 一个需求,它会立刻开始写代码。没有需求精化,没有影响评估,没有测试策略,没有上线验证。代码写得越快,累积的技术债越快。
模型越强,这两个问题越严重——强模型以机器速度输出结构性错误,而且足够自信让人忽略检查。
两层解法
Manon 从两个层面解决这两个问题:
第一层:代码知识图谱(解决上下文问题)
索引代码库中每一个可命名的实体及其关系:函数、类、方法、模块,以及它们之间的调用(CALLS)、导入(IMPORTS)、继承(INHERITS)关系。
图谱构建流程:本地 tree-sitter 解析源文件 → 提取 AST 元数据(代码不离开本地)→ 上传到云端构建有向图 + 向量索引 → 支持混合查询(图遍历 + 语义搜索)。
四个查询工具解决四类场景:
| 工具 | 解决什么问题 |
|---|---|
manon_search | 不知道关键词,用自然语言描述找代码 |
manon_graph | 改这个函数会影响哪里(调用图遍历) |
manon_deep_query | 跨模块的架构理解(多轮迭代查询) |
manon_impact | commit 后的风险评分(0-100) |
第二层:五个开发技能(解决流程问题)
五个技能覆盖完整开发生命周期,每个技能只在普通 AI 对话无法胜任时存在——需要外部工具集成、确定性流程或结构化输出。
| 技能 | 阶段 | 做什么 |
|---|---|---|
/idea | 需求 | 图谱 + GitHub 调研 → 苏格拉底式追问 → 开发文档 |
| 图谱工具 | 开发 | 写代码时精准获取上下文,commit 后自动影响分析 |
/dao | 维护 | 健康扫描 → 三层分类 → 自动简化 + 图谱验证 |
/tc | 测试 | 覆盖率扫描 → 图谱排优先级 → 写测试 → 验证 |
/exp | 验证 | AI Agent 像真实用户操作产品,最多 3 轮自动修复 |
代码健康度:8 个维度
知识图谱让我们可以量化代码库的结构质量,而不是靠感觉判断「代码写得好不好」:
| 维度 | 衡量内容 |
|---|---|
| MC 模块耦合度 | 跨模块依赖比例 |
| CD 循环依赖 | 循环依赖数量 |
| FI 扇入集中度 | 高扇入实体比例(单点依赖风险) |
| DC 死代码 | 零调用者实体比例 |
| FS 函数复杂度 | 超大函数比例 |
| TD 技术债务 | TODO/FIXME 密度 |
| MF 模块碎片化 | 微型模块 + 深路径比例 |
| RE 间接层密度 | 桶式重导出比例 |
这个评分系统让「代码质量」从主观判断变成可追踪的数字。我们在每个客户项目上都会建立健康度基线,每个里程碑后重新评分。
真实效果数据
在 OpenClaw 项目(2,100 个文件)的对比测试中:
| 指标 | 有图谱 | 无图谱(原生工具) |
|---|---|---|
| 代码理解耗时 | ~30 分钟 | ~8-12 小时(快 16-24 倍) |
| 准确率 | 95%+ | 60-70%(+30%) |
| 每任务工具调用 | 1 次 | 13.7 次(减少 91%) |
| Token 消耗 | ~19.5K | ~350K(节省 94%) |
自举验证:用 Manon 开发 Manon
最有力的验证方式是用工具开发工具本身。Manon v1.0 到 v1.2.4 完全通过自己的技能体系完成迭代。关键数据节点:
/dao 应用于自身代码库(93 文件,800+ 实体)后:健康度 88→97,死代码 -38%,测试覆盖率 32%→61%。
/exp 在 v1.2.4 发布前测试 /idea 技能:3 轮测试,发现 4 个真实 Bug(Windows 编码崩溃、API 响应解析错误、中文查询崩溃)。没有 /exp,这些 Bug 会直接发布给用户。
这对客户项目意味着什么
我们把这套工作流用在每一个客户软件开发项目上。具体体现在:
- 需求阶段基于你现有代码库的事实追问,而不是泛泛的「你想要什么功能」
- 每次重要改动前有影响分析,你知道这次改动涉及哪些模块
- 每个里程碑后有代码健康度报告,项目越做越干净
- 上线前 AI 会像真实用户一样把主要功能点击一遍
这不是锦上添花,是我们交付质量的底层保障。