研究与体感在同一个方向上收敛
Theo 先引用研究结果,Agent MD / Claude MD 在多个模型上会稳定拉低表现,然后用自己 20% 左右的额外成本和更差结果去呼应。这个一致性很有说服力。
Theo 先引用研究结果,Agent MD / Claude MD 在多个模型上会稳定拉低表现,然后用自己 20% 左右的额外成本和更差结果去呼应。这个一致性很有说服力。
他对某个 agent MD 样本的拆解很狠,commands、架构、数据流状态、目录说明,几乎都被判定为“代码里已经有”。重复描述只会把模型往错误方向 steer。
Theo 一个很有意思的点是,把 agent 的困惑当作 codebase design feedback。它卡住的地方,往往说明你的结构、命名、边界或 discoverability 有问题。
他甚至会有意通过 agent MD 暴露模型卡点,但目标不是长期保留这些提示,而是借此观察,再去调整架构。
Theo 先把“每个 repo 都该有 CLAUDE.md”这类流行信条打碎。
他把问题归结到 context management,不必要的 steer 会让模型偏离真正该看的源头。
commands、architecture、workflow states 等条目被逐一否定,因为它们并非高价值常驻信息。
Theo 说明自己很多时候只 merge 少量 agent 改动,但会利用其余输出去改进代码库。
这把“prompting”问题重新定位回软件工程本身。
Theo 把问题讲得更彻底,很多人把 agent 失误归咎于“没写好提示文件”,但真正的病灶常常在 repo 本身。对 2026 年的 AI engineer 来说,最有价值的能力不是写更长的 CLAUDE.md,而是把代码库做成一个 agent 自然读得懂、走得通、改得动的环境。