首页
cover
AI Engineer 2026 · Synthesis

把 Mario、Peter、Ryan 放在一起看,2026 agent engineering 的真正主线就清楚了

三场 talk 分别从 harness、project governance、team workflow 三个层面,拼出了一个完整的 agent engineering 图景。
如果只单看其中一场,你会觉得这是三种不同叙事。Mario 像是在反平台化,Peter 像是在处理开源爆炸后的善后,Ryan 则像在推动 agent-first 工程革命。但把三场合起来,核心其实是一致的:2026 年的软件工程正在围绕“控制、治理、编排”重构。

核心观点提炼

Mario 提供“控制”视角

工程师必须掌握上下文主权、可观测性和可扩展性,否则 agent 会在黑盒里替你做决定。

Peter 提供“治理”视角

一旦项目爆发,安全披露、维护者组织、基金会中立性、权限边界与生态协作都会压过 feature hype。

Ryan 提供“编排”视角

团队层面要把文档、repo、PR、CI、skills 组织成 agent 可持续执行的环境,让代码生产真正规模化。

三者共同收敛到“人类负责 taste 与边界”

无论是 Pi、OpenClaw 还是 OpenAI 内部流程,最后都承认同一件事:human bottleneck 仍然在判断、方向、边界定义与 taste。

站在 2026 AI engineer 的学习点

内容脉络与时间线

主线一

从“能用 agent”到“控制 agent”

Mario 把底层问题说清楚,agent 的首要设计变量是 controllability。

主线二

从“现象级产品”到“长期维护系统”

Peter 证明 agent 项目爆发之后,治理和安全不是附加题,而是主问题。

主线三

从“个人提效”到“组织级 agent production”

Ryan 展示如何把 agent 变成团队的默认执行力量。

共同结论

代码更便宜了,但理解与判断更贵了

这三场 talk 最终都把人的角色推回到更高层。

值得反复咀嚼的句子

“My context wasn't my context.”
Mario 把控制问题钉死。
“The big risk is access to your data, untrusted content, and the ability to communicate.”
Peter 把 threat model 压缩成一句话。
“Code is free.”
Ryan 把资源约束变化讲透。

三人观点对照

Mario 的偏好

极简、可塑、可观测,反对黑盒自动注入,强调 bounded task。

Peter 的偏好

开放生态、多模型、中立治理、清晰 threat model、ubiquitous personal AI。

Ryan 的偏好

repo/PR 中心、少量稳定 skills、文档即控制面、重 CI 和 reviewer agents。

我的综合判断

未来最强的团队会把这三者拼起来:底层可控,中层可治理,上层可规模化编排。

对 Kai 这类重度 agent 使用者最值得拿走的东西

我的结论

三场 talk 合起来最重要的启示是,2026 年的 AI engineer 不该再以“写代码的熟练度”定义自己,而应该以三种能力定义自己:一,能设计 controllable harness;二,能治理高增长 agent 系统;三,能把组织经验沉淀成 agent 可执行环境。谁先完成这三件事,谁就会在下一轮软件范式迁移里占到高地。