
2026 年 3 月 7 日,深圳龙岗区人工智能(机器人)署做了一件没有先例的事——给一个上线不到四个月的开源项目,专门出了一份产业扶持政策。
这份被民间叫做「龙虾十条」的文件,写得很实在:免费部署服务、代码贡献最高 200 万补贴、购买「龙虾盒子」硬件按市场价三折补贴、股权投资最高 1000 万。拟施行三年,公示期到 4 月 6 日。
被这份政策眷顾的,是 OpenClaw——一个让 AI 大模型「长出手脚」的开源 agent 平台。如果你还不熟悉它的来历,可以先看我之前写的《一个人、一周、三个名字,OpenClaw 到底发生了什么?》。
两天后的全国两会上,全国政协委员、中科院计算所研究员张云泉在新华网的报道中说:「现在'养龙虾'创业很流行。」另一位委员凌俊杰更大胆:「未来五年内,会涌现一批 OPC 独角兽企业。」
一个政府补贴,一群两会委员热议。这只红色龙虾 🦞,到底有多火?
先摆数字。
截至 2026 年 3 月 10 日,OpenClaw 在 GitHub 上的 Star 数接近 30 万(截至写作时仍在快速增长)。这个数字本身不够直观,做个对比你就明白了:Facebook 的 React,花了 13 年积累了大约 243,000 Stars。OpenClaw 用了不到四个月就追平甚至超过了它。

npm 周下载量从 2 月中旬的约 91 万,一路飙到 3 月初的超过 150 万。
但 GitHub Stars 只是全球热度的指标。中国的信号,要另外看。
据安全研究平台 declawed.io 在 2 月中旬的一次扫描快照,全球有超过 13 万个公开暴露在公网的 OpenClaw 实例,其中中国数量最多。不同时间点的扫描数字差异很大——有的报告显示 4 万,有的显示 36 万——但中国始终排在首位。这还只是暴露在公网的下界——部署在内网、VPN 后面、或者正确配了防火墙的实例,不在这个数字里。
产业链的反应速度更能说明问题。2026 年 1 月底,阿里云和腾讯云率先推出 OpenClaw 一键部署模板。随后字节跳动火山引擎、百度云、京东云跟进。五大云厂商在大约两周内全部到齐——这种「全行业同步响应」的速度,在中国云服务历史上极为罕见。
大模型厂商更激进。月之暗面 2 月 18 日推出 Kimi Claw——基于 OpenClaw 的托管云服务,内置 5000 多个 Skills,免费算力补贴。MiniMax 2 月 26 日推出 MaxClaw。智谱 AI 联合阿里云推出 AutoGLM-OpenClaw。
Kimi K2.5 因为成本低和 agent 能力强,被 OpenClaw 官方指定为首个免费主模型——据澎湃新闻独家报道,Kimi 上线不到 20 天收入就超过了 2025 全年。
再加上资本市场上市公司抢着蹭概念股,知乎上陈巍的万字深度分析系列,B 站上铺天盖地的「保姆级教程」视频,掘金和 CSDN 上数不清的技术文章——OpenClaw 在中国确实已经是现象级的热度。
但我要在这里踩一脚刹车。
现象级 ≠ 全民普及。 你身边不用 AI 的朋友,大概率没听过这个名字。GitHub Stars 可以刷,概念股可以炒,B 站教程可以追热点。真正的日活用户有多少?「养虾」的人中有多少在三个月后还在用?安全问题会不会让企业用户望而却步?这些问题,现在没有人能给出确切答案。
我能确认的是:以产业链响应的深度和速度衡量,OpenClaw 超越了此前任何开源 AI 项目在中国的影响。但把「产业链狂热」等同于「全民在用」,就是自己骗自己了。
火的原因,表面上看有三条。
第一条最根本:OpenClaw 让大模型从「能聊天」变成了「能干活」。
在 OpenClaw 之前,大模型的主要交互方式是对话框。你问它一个问题,它给你一段文字。OpenClaw 改变了这个局面——它让大模型能操作浏览器、发邮件、管理日程、执行代码、调度外部工具。如果你想先把概念坐实,我之前写过一篇《什么是 AI Agent?》,可以和这篇一起看。ClawHub 上截至 2 月底已经有超过 13,000 个社区构建的 Skills,覆盖 50 多个官方集成。
这不是一个增量改进,而是一个叙事跃迁:从「聊天」到「执行」。它击中了用户对 AI 最核心的期待——别光说,做出来。
第二条是门槛低到离谱。一行 npm install -g openclaw 就能安装。国内云厂商的一键部署模板让非技术用户也能十分钟内拥有自己的 AI agent。国内轻量云服务器首年可以低到 200 元以下。Kimi Claw 甚至不需要任何部署——打开网页就用。更夸张的是,市面上已经出现了「500 元上门安装 OpenClaw」的中间人服务。
门槛低加上效果炸,是病毒式传播的完美配方。
第三条是传播弹药充足。Peter Steinberger 的个人故事本身就值一篇文章:前公司 PSPDFKit 做了十多年,营收过亿美元,结果用极短时间写出的 AI 项目反而更有影响力。2026 年 2 月 14 日宣布加入 OpenAI,OpenClaw 项目同时转交开源基金会。再叠加 🦞 龙虾图标、「养虾」文化、政府政策直接用「龙虾十条」命名——这套传播组合拳,在社交媒体上的穿透力极强。
但你想一下就会发现,以上三条——产品力强、门槛低、传播好——可以解释 OpenClaw 在全球为什么火,却没法解释一个关键问题:
为什么在中国格外火?
答案藏在中国 AI 产业链的几个结构性缺口里。
第一个缺口:大模型的「应用焦虑」。
中国有一堆大模型——Kimi、DeepSeek、GLM、Qwen、MiniMax——模型能力持续提升,但应用场景始终不够多。模型做出来了,怎么让用户真正用起来?
OpenClaw 提供了一个现成的框架:把「调用模型 API」变成「agent 在消息平台上替你执行任务」。它不是一个新模型,而是让现有模型产生实际价值的基础设施。
这解释了为什么中国大模型厂商的反应如此迅速。Kimi Claw、MaxClaw、AutoGLM-OpenClaw 在短短几周内集中涌现。他们抢的不是 OpenClaw 这个项目,而是让自家模型「落地」的出口。数据佐证:2026 年 2 月,中国模型在 OpenClaw 生态中的 Token 调用量(4.12 万亿)首次超过美国模型(2.94 万亿),完成了历史性反超。
第二个缺口:云计算的过剩产能。
中国云服务市场经过多年价格战,轻量服务器成本极低。但云厂商需要新的增长引擎。
OpenClaw 带来了一个完美场景:每个用户和企业都需要一台常驻的 agent 服务器。这等于把「偶尔用一下的云主机」变成了「7×24 小时运行的 AI 基础设施」。五大云厂商竞相跟进,看到的不是 OpenClaw 这个项目本身,而是「每人一台 AI 服务器」的规模想象力。
第三个缺口:政策叙事的吻合。
中国经济正处于就业压力期和产业转型期。「一人公司」(OPC)的叙事正好击中了两个政策痛点——为个体创业者赋能,缓解就业压力;将 AI 能力从大厂下沉到个人和小企业。
龙岗区「龙虾十条」的实质不是支持一个开源项目,而是支持 OPC 这种新经济形态。新华网在全国两会期间报道了多位政协委员对 OPC 的看好,凌俊杰委员甚至预测「未来五年内会涌现一批 OPC 独角兽企业」。政府给 OpenClaw 出政策,不是因为它 Stars 多,而是因为它承载了一个与政策方向吻合的叙事。
第四个缺口:社区传播的放大效应。
中国技术社区有一套独特的内容生态——知乎和 B 站的「保姆级教程」文化能极速降低上手门槛,微信公众号和小红书的内容创业者发现 OpenClaw 是绝佳的工具类选题,GitHub 中文讨论区自发形成了本地化社区。再加上「技术网红」文化带来的超额流量,这套传播动力学在海外不存在同等规模的对应物。
第五个缺口:消息平台的本地适配。
OpenClaw 对飞书和钉钉的原生支持,让它成为少数能直接嵌入中国企业通讯生态的 AI agent 框架。这一点看似不起眼,但对企业用户来说是刚需——你的 agent 如果不能在飞书群里回消息,再强的能力也用不上。

五个缺口叠加,中国的 OpenClaw 热度不是「跟风」的产物,而是结构性需求同时被满足时的共振效应。
说完「为什么火」,说一个更实际的问题:这东西怎么用?
从实际玩家的用法来看,OpenClaw 在中国的使用场景形成了一个清晰的递进阶梯。
第一级:AI agent 常驻节点。 OpenClaw 的核心设计就是 7×24 在线——不是用完关掉的 CLI 工具,而是一个长驻运行的服务。支持 Cron 定时任务和 heartbeat 健康检查。中国轻量服务器年费不到 200 元,「人人有一个 AI agent 常驻节点」不是畅想,是正在发生的事。关于怎么把成本压下来,我之前还专门写过《如何大幅降低成本用上 AI Agent + MCP?》。
第二级:小主机自托管。「龙虾盒子」(AI NAS)概念已经写进了龙岗区的政策文件——按市场价 30% 给予补贴。AI agent 不一定要在云上,可以在家庭或办公室的小主机上运行。对于关注数据安全的企业和个人,这提供了「AI 能力加数据本地」的平衡点。
第三级:Telegram 多 Bot 编排。 Telegram 在中国技术社区有独特的角色,是开源、加密、极客群体的核心通讯工具。OpenClaw 的多 agent 路由架构天然适合这个场景——每个 agent 一个 Telegram Bot,不同 Bot 绑定不同模型,在一个群组里调度多个 AI agent 协作。这种「消息平台即 AI 调度中心」的模式,是 OpenClaw 区别于 Dify 和 Coze 的核心差异化。
前三级的共同特点是门槛低——一行命令、一张信用卡、一个 Telegram 账号就能搞定。但接下来两级,开始触及 OpenClaw 作为「个人 AI 基础设施」的深层价值。
第四级:Claude Code 与 Skills 工作流。 OpenClaw 的 exec 工具可以调用外部 CLI,包括 Claude Code。通过 OpenClaw Gateway 加上第三方 API 中转,中国用户可以间接获取 Claude 的高级推理能力。Claude Code Skills 进一步提供了可复用的工作流模板——在 Telegram 里一键触发深度调研、代码审查、内容生成,背后由 Claude 驱动。把顶级 AI 能力包装成消息平台上的一键操作,这个场景在中国有特殊价值。
第五级:本地自动化基础设施。 这就是「养虾」的本质——通过长期使用积累记忆和工作流,让 OpenClaw 逐渐成为你的自动化中枢。自动整理邮件、监控信息源、生成定期报告、管理 GitHub Issues、自动化内容创作与发布。这不是一次性任务,而是持续运行的个人 AI 基础设施。

五级递进,从尝鲜到基础设施化。中国的低成本云加本地模型生态加通讯平台支持,让这条路径的每一步门槛都比海外更低。
最后说一个你可能不爱听但必须听的部分。
安全问题不容忽视。OpenClaw 在 2026 年 1 月底曝出过 CVSS 8.8 的远程代码执行漏洞(已修复)。ClawHub 上的恶意 Skills 占比曾高达约 20%。中国大量暴露在公网的实例中,相当比例没有正确配置身份认证。工信部已发布安全警告。OpenClaw 团队在 2 月与 VirusTotal 合作,要求新上架 Skills 强制安全扫描——但这远不够。
如果你正在考虑要不要上车,我的建议是分三层想:
你是技术玩家,喜欢折腾自动化?OpenClaw 值得一试。从一个 Telegram Bot 开始,绑一个便宜的模型(Kimi K2.5 或 DeepSeek),花一个周末搭起来。200 元的轻量服务器够你玩半年。重点是:别暴露在公网,别装来路不明的 Skills。
你是企业决策者,在评估要不要引入?建议观望但保持关注。技术验证可以做,生产环境不着急。等 Skills 生态的安全审查更成熟、等几个月后看第一批企业用户的实际反馈,再决定不迟。
你只是好奇这个热潮是怎么回事?现在你知道了——它火,因为它恰好踩中了中国 AI 产业链的五个结构性缺口。但「火」和「好用」之间,还隔着安全、稳定性、以及时间的检验。
OpenClaw 的故事才刚开始。龙岗的「龙虾十条」还在征求意见阶段,两会委员的预测还需要时间验证,「养虾」文化能不能从尝鲜演变为真正的基础设施——这是一个需要用年来计量的过程,不是用 Stars 数能衡量的。
不过有一点我很确定:无论 OpenClaw 本身的命运如何,它所代表的方向——AI agent 常驻运行、多模型编排、消息平台即界面——这个方向是回不去了。