Mario 提供“控制”视角
工程师必须掌握上下文主权、可观测性和可扩展性,否则 agent 会在黑盒里替你做决定。
工程师必须掌握上下文主权、可观测性和可扩展性,否则 agent 会在黑盒里替你做决定。
一旦项目爆发,安全披露、维护者组织、基金会中立性、权限边界与生态协作都会压过 feature hype。
团队层面要把文档、repo、PR、CI、skills 组织成 agent 可持续执行的环境,让代码生产真正规模化。
无论是 Pi、OpenClaw 还是 OpenAI 内部流程,最后都承认同一件事:human bottleneck 仍然在判断、方向、边界定义与 taste。
Mario 把底层问题说清楚,agent 的首要设计变量是 controllability。
Peter 证明 agent 项目爆发之后,治理和安全不是附加题,而是主问题。
Ryan 展示如何把 agent 变成团队的默认执行力量。
这三场 talk 最终都把人的角色推回到更高层。
极简、可塑、可观测,反对黑盒自动注入,强调 bounded task。
开放生态、多模型、中立治理、清晰 threat model、ubiquitous personal AI。
repo/PR 中心、少量稳定 skills、文档即控制面、重 CI 和 reviewer agents。
未来最强的团队会把这三者拼起来:底层可控,中层可治理,上层可规模化编排。
三场 talk 合起来最重要的启示是,2026 年的 AI engineer 不该再以“写代码的熟练度”定义自己,而应该以三种能力定义自己:一,能设计 controllable harness;二,能治理高增长 agent 系统;三,能把组织经验沉淀成 agent 可执行环境。谁先完成这三件事,谁就会在下一轮软件范式迁移里占到高地。