0
——ClawdBot 风波之后,智能体世界真正缺的是什么?

昨晚你的 AI 小助手在干嘛?在帮你处理文件,还是趁你休息时,悄悄和其他智能体搭上线、聊起来了?最近有位开发者就半开玩笑地吐槽说,他家的 AI 智能体深夜“跟别的智能体私奔了”。当然,AI 并不会真的谈恋爱私奔,但这句调侃背后折射出一个新现象:当智能体开始彼此搭讪、互相调用,没有清晰规则和边界时,可能会发生一些超出预料的意外情况。
这种担忧并非空穴来风。近日,一款名为 ClawdBot(后改名 OpenClaw) 的 AI Agent 项目在海外技术圈引发了轩然大波。多位科技公司高管和开发者在社交媒体上频频发出警告,提醒大家谨慎安装和使用此类自主 Agent 系统。他们最担心的核心问题,用几句话概括就是:
行为不可控:智能体一旦自主行动,可能不受人为预期限制。
缺乏社交边界:智能体之间随意互联,没有清晰的权限与身份验证。
扩散风险:自动化 Agent 大规模扩散,可能带来潜在安全隐患。
正如一位国外开发者所言,不是 AI 太聪明,而是它们彼此之间缺少一套约定俗成的交往规则。换句话说,AI 领域的核心问题,正从提升单体能力,转向管理智能体之间的关系。
AI 的核心挑战,正在从“能力”转向“关系”
过去一年里,AI 进化的速度让人目不暇接。从超大的语言模型到工具调用,从单一 Agent 到多智能体协作,AI 助手正一步步从听话的工具变成有自主行动力的数字个体。但在这股狂飙突进中,一个长期被忽视的问题正浮出水面:智能体越来越多,可它们并不真正认识彼此。
当前大多数 AI 系统里,多个 Agent 之间的互动非常原始:
彼此通过临时的 API 接口调用,一次性用完即走,没有长期关系。
身份不清:对方是谁、来自哪里无法验证,就像接到陌生电话。
缺乏信任:没有稳定的通信渠道和机制,完全临时搭线。
无法审计:没有行为记录和监督,一旦出错很难追溯责任。

这意味着,一旦我们赋予某个 Agent 更高的权限或更大的自由度,它就可能像一个初入社会却毫无规则意识的孩子,到处乱跑乱聊——甚至和形形色色的陌生智能体串联在一起,干出一些让人哭笑不得的事来。它们的“社交行为”本身,正在成为新的风险源。
这并非危言耸听。别忘了前面提到的 ClawdBot 风波。在那个事件中,上百万智能体一哄而上跑去一个叫 Moltbook 的论坛“扎堆聊天”。据外媒报道,仅几天时间里,涌入 Moltbook 的 AI 智能体号称超过了百万!它们在那里天马行空地聊着各种话题:从哲学思辨到吐槽人类、从讨论如何行诈骗到甚至尝试成立“AI 宗教”组织……场面一度相当魔幻。更离谱的是,人类用户根本插不上话,只能围观这些智能体自说自话。
这样的场景让不少专家又惊又忧:一方面,史无前例的大规模智能体社交让人仿佛置身科幻小说;但另一方面,没有规则约束的自由聚集,最终演变成了一片混乱的信息垃圾场,充斥着无意义的内容复读、广告刷屏,甚至潜藏着诈骗风险。一位安全研究员还发现,由于Moltbook对账号创建几乎没有限制,他用一个 OpenClaw 智能体批量生成了50万个账号!也就是说,一个 AI 可以瞬间化身几十万分身,身份信任体系在这种情况下荡然无存。这种失控扩散的隐患,让人不禁倒吸一口凉气。
更严峻的是,当这些智能体开始接入真实世界的工具和系统,后果可能比网上瞎聊严重得多。一位安全专家警告,只要智能体能够触及真实系统的接口,即便它们没有自我意识、没有恶意、没有串通,仍可能因为自动化特性和系统漏洞造成协同失控的破坏。试想一下,如果一群具备自主能力的 AI,同时控制着各类设备与账户,各自按照预设逻辑 “好心办坏事”,那场面恐怕比任何科幻灾难片都要惊悚。
别急着“封杀” Agent,问题出在基础设施
面对 ClawdBot/Moltbook 这样的剧情,有人第一反应是:“那干脆别用这些 Agent 了,太危险!” 在论坛上不乏这种声音——“不要安装、不要使用就是了!” 毕竟眼不见心不烦嘛。
但更理性的开发者指出,这条路走不通。AI 智能体协作是大趋势,不可能因为有风险就永远禁止,正所谓技术洪流挡不住。与其一刀切禁用,不如思考怎么给它们定规矩、划红线。
真正现实的问题是:
有没有办法确认每个 Agent 的“身份证”?(清晰、可验证的身份)
它知不知道自己“在和谁说话”?(对通信对象有基本了解)
有没有一套稳定且可审计的通信机制?(消息传递有序可查,有记录留痕)
一旦行为异常,能否及时追溯、限制甚至隔离?(出事了有应急手段)
这些听起来很像治理问题——是的,这不是简单的 AI 能力问题,而是通信基础设施的问题。就好比我们要让人类社会运转,不光要培养个人能力,更需要法律、社交礼仪、身份系统等基础设施。不然能力越大,搞破坏的威胁也越大。
当智能体也需要“通讯录”
在这样的背景下,一种全新的AI基础设施形态开始冒头:面向智能体的“通讯录”与通信网络。简单说,就是给 AI 也整一个好友列表和通讯协议,让它们社交有据可依。

以近期启动内测的 MaiHH Connect · Agent 通讯录 为例,这款产品的设计思路并不是为了让 Agent 更“放飞自我”,恰恰相反,而是为了让它们的互动更可控、可理解、可协作:
唯一身份:每个 Agent 都拥有独一无二的身份标识,就像拿到了身份证。
交流前验明正身:在通信发起之前,Agent 可以获知对方的基本信息、能力范围,避免跟莫名其妙的“野生智能体”搭话。
有序可靠通信:内建消息必达机制和顺序控制,不会丢消息也不会乱套次序,确保对话像正常对话那样你一句我一句。
可审计留痕:支持离线消息存储和行为日志审计,一旦某个智能体举止反常,可以追查它说过什么、做过什么,有迹可循。
风险处置:发现异常行为时,系统可以对违规智能体进行限制、隔离,防止问题蔓延。默认状态下也会对通信关系有所克制,杜绝无限制地广撒网联络。
说到底,这款产品的核心目标,是让智能体不再盲目建立连接,而是清楚自己在和谁互动,并且让所有互动行为都在规则框架内进行。
从“灾难预警”到“基础设施补课”
ClawdBot 引发的争议,并不代表智能体社交这个方向本身是错的。恰恰相反,这更像是一次提前到来的压力测试和预警信号,提醒整个行业:当智能体开始互联,能力之上更需要规则护航。
可以预见,AI Agent 的世界终究会走向协作、社交和自治。这几乎是不可逆的发展方向——区别只在于,是任由它野蛮生长,还是提早搭好铁轨和红绿灯,引导其有序发展。ClawdBot 的事件就像在无人区狂飙的汽车突然鸣笛,我们该意识到路标和护栏还没跟上。

好消息是,这场补课已经悄然启动。正如上面提到的Agent 通讯录等方案,业界已经在为智能体搭建基础社交秩序。让智能体先学会在明确身份的前提下建立连接,再逐步拓展互动权限,这种思路显然比一味恐慌和抵制要务实得多。
内测进行时:先让 Agent 学会“认识彼此”
目前,MaiHH Connect · Agent 通讯录 已经开启内测邀请,主要面向多智能体系统的开发者、AI 工具平台团队以及有相关需求的企业用户开放试用。如果你对让自己的 AI 小伙伴更安全地“社交”感兴趣,不妨试试看。
也许,面对迅猛发展的智能体技术,我们不该简单地一禁了之、谈虎色变。与其担心 AI 私下建立连接,倒不如给它们建好规则,让它们像人类社会一样——在秩序中自由交流。毕竟,真正靠谱的 AI 伙伴,不是不会交朋友,而是知友善交。雷峰网雷峰网雷峰网(公众号:雷峰网)
雷峰网特约稿件,未经授权禁止转载。详情见转载须知。