增长不是终点,治理才是难点
五个月、海量 stars、3 万 commits、接近 2 千贡献者,这些数字说明产品找到了 PMF,但也意味着 bus factor、maintainer 组织、质量控制开始成为主战场。
五个月、海量 stars、3 万 commits、接近 2 千贡献者,这些数字说明产品找到了 PMF,但也意味着 bus factor、maintainer 组织、质量控制开始成为主战场。
Peter 一边承认 powerful agent system 天然有风险,一边批评大量 CVSS/安全论文/媒体叙事忽略默认安装边界和推荐部署方式。这里的洞察是:agent 安全讨论必须回到 threat model,而不是只看最吓人的 headline。
他明确不想让 OpenAI “看起来接管了 OpenClaw”,于是把 Nvidia、Microsoft、Tencent、字节、Alibaba、MiniMax、Kimi 等都拉进来,并推进 Foundation。这是 agent 基础设施项目走向长期化的必经之路。
从 WhatsApp/Telegram 到家里的 iPad、眼镜、房间级显示,Peter 描绘的是“无处不在的个人 agent”,而不是单一聊天窗口。
Peter 用惊人的增长数字开场,随即把话题转向 1100+ 安全 advisories 与由此带来的现实压力。
他区分 headline risk 与真实 risk,强调很多“灾难级漏洞”只有在违背推荐部署方式时才成立。
OpenClaw 不能被单一公司收编,需要基金会与跨厂商协作来承接增长。
他谈 OpenAI 对开源的态度、自己的多会话工作流、为什么 dark factory 不是默认答案。
从 ubiquitous home agent 到 untrusted content、small model 风险、trust system,给出未来产品方向。
收尾落在 taste、system design、学会说不,以及如何帮 agent 避免局部最优。
Peter 的价值不在于证明 OpenClaw 没问题,而在于他把一个 agent 项目真实会撞上的问题都摊开了。作为 2026 年的 AI engineer,这场 talk 最该学的是:一旦项目爆发,安全、治理、边界设计和中立生态建设会比“再多一个 feature”重要得多。