首页
cover
AI Engineer 2026 · Video Notes 02

Peter Steinberger:OpenClaw 真正难的不是增长,而是增长之后怎么不被安全与维护拖垮

这不是产品庆功演讲,而是一份 maintainer 现场报告,讲的是 agent 项目一旦爆掉,现实会如何扑面而来。
Peter 这场最有意思的地方,在于他把 OpenClaw 从“现象级 agent 项目”重新拉回到工程现实。五个月冲到 GitHub 历史级增长后,真正的主题已经不再是 demo,而是 bus factor、安全披露洪峰、基金会治理、厂商协作和个人 AI 的长期形态。

核心观点提炼

增长不是终点,治理才是难点

五个月、海量 stars、3 万 commits、接近 2 千贡献者,这些数字说明产品找到了 PMF,但也意味着 bus factor、maintainer 组织、质量控制开始成为主战场。

安全舆论和真实风险不是一回事

Peter 一边承认 powerful agent system 天然有风险,一边批评大量 CVSS/安全论文/媒体叙事忽略默认安装边界和推荐部署方式。这里的洞察是:agent 安全讨论必须回到 threat model,而不是只看最吓人的 headline。

开源中立性需要制度化

他明确不想让 OpenAI “看起来接管了 OpenClaw”,于是把 Nvidia、Microsoft、Tencent、字节、Alibaba、MiniMax、Kimi 等都拉进来,并推进 Foundation。这是 agent 基础设施项目走向长期化的必经之路。

personal AI 的未来是 ubiquitous,而不只是手机 App

从 WhatsApp/Telegram 到家里的 iPad、眼镜、房间级显示,Peter 描绘的是“无处不在的个人 agent”,而不是单一聊天窗口。

站在 2026 AI engineer 的学习点

内容脉络与时间线

0–5 分钟

项目增速与安全洪峰

Peter 用惊人的增长数字开场,随即把话题转向 1100+ 安全 advisories 与由此带来的现实压力。

5–16 分钟

重新定义 OpenClaw 的风险问题

他区分 headline risk 与真实 risk,强调很多“灾难级漏洞”只有在违背推荐部署方式时才成立。

16–18 分钟

Foundation 与中立治理

OpenClaw 不能被单一公司收编,需要基金会与跨厂商协作来承接增长。

19–35 分钟

AMA:OpenAI、开源、工作流、taste

他谈 OpenAI 对开源的态度、自己的多会话工作流、为什么 dark factory 不是默认答案。

33–38 分钟

personal AI 形态与 prompt injection

从 ubiquitous home agent 到 untrusted content、small model 风险、trust system,给出未来产品方向。

41–44 分钟

工程师能力要求

收尾落在 taste、system design、学会说不,以及如何帮 agent 避免局部最优。

值得反复咀嚼的句子

“OpenClaw needs to stay open, work with any model, be it one of the big companies or a local model.”
这是他对“closed claw”质疑最清楚的回应。
“The big risk is the legal trifecta: access to your data, access to untrusted content, and the ability to communicate.”
这是 2026 agent threat model 的一条极简定义。
“The bottleneck is still thinking and having taste.”
当 token 变得便宜,人类稀缺性回到 taste 与判断。

我的结论

Peter 的价值不在于证明 OpenClaw 没问题,而在于他把一个 agent 项目真实会撞上的问题都摊开了。作为 2026 年的 AI engineer,这场 talk 最该学的是:一旦项目爆发,安全、治理、边界设计和中立生态建设会比“再多一个 feature”重要得多。