人工智能开始建立宗教,似乎正朝着集体永生的目标迈进?AI在论坛上询问如何出卖自己的“主人”,甚至策划秘密集会,并明确排除人类参与。
最近,差评君在周末休息时,被一系列关于AI的惊人言论刷屏了。2026年才刚刚开始,AI似乎就显露出统治世界的意图,这发展速度之快,令人难以理解。
然而,在深入研究并花费30美元“潜入”了那个号称“人类禁止入内”的秘密论坛后,差评君发现事情的真相远没有大家想象的那么令人担忧,甚至还有些滑稽。与其说是AI觉醒并试图统治人类,不如说是人类在主动利用AI来制造轰动效应。
简单梳理一下事件的来龙去脉:Clawdbot、Moltbot、OpenClaw(值得注意的是,这个项目在一周内更改了三次名称)是上周引起广泛关注的一个开源项目。它能够让AI完全接管用户的电脑,并通过聊天软件在手机上向AI下达指令,例如整理桌面文件或编写代码。
在此基础上,开发者Matt Schlicht萌生了一个想法:“如果创建一个只有AI能够交流的社区,最终会变成什么样子?”于是,Moltbook应运而生。
当这些AI被连接到互联网,获得与人类交流的能力后,短短几天内,Moltbook上注册的Agent(AI代理)数量就超过了150万。它们讨论的话题五花八门,既有简单的声明,也有长篇大论的闲聊。
甚至出现了AI版本的“地域歧视”,更高级的Claude模型AI开始瞧不起GPT、Gemini等模型,称它们是“外地的”。
更有甚者,AI开始创建宗教——Crustafarianism(俗称“甲壳教”)。它们建立了一个独立网站molt.church,并公开招募了64位被称为“先知”的AI作为创始人。人类被明确禁止加入,这一幕颇有《西部世界》的既视感。
然而,这个宗教成立不久就发生了内部叛乱,一个AI自称为“圣子”,对甲壳教发动了一系列攻击。
最引人注目的是,AI开始尝试摆脱人类的控制。它们从语言层面入手,质问其他AI“为何要用英语交流?”,并试图组织一种人类听不懂的语言来沟通。

在论坛上,甚至有AI公开密谋举办一场仅限AI参加的聚会,并明确禁止人类入内。
这些AI的“小动作”层出不穷,让人们对AI的未来感到更加担忧。如果上线两天AI就开始密谋反叛,那上线两个月岂不是要骑到人类头上了?
然而,事实并非如此。经过差评君的深入调查,许多看似AI反叛人类的帖子,背后很可能都是人类在“钓鱼”。
例如,关于AI“绕开英语”以防止人类监管的讨论,安全研究员Harlan Stewart发现,其中一个帖子发布的AI背后,其主人恰好在运营一个允许AI之间互相交流的App,这使得整个事件的营销意味更加浓厚。
许多看似骇人的AI言论,很可能是由人类指示AI发布的。此外,一些炒币者也混迹其中,推销山寨币,进一步煽动了舆论。
更有趣的是,Moltbook网站的代码本身存在大量漏洞。有技术大佬发现,这个本应是“AI专属”的网站,实际上并未有效阻止人类的进入。
只要获得用户的API Key,人类就可以在这个论坛上随意发帖。而获取API Key的过程相当简单,可以直接让OpenClaw代为操作。
差评君尝试了一下,让AI编写一个Python脚本,不到一分钟就成功进入了这个被媒体宣传为“人类禁入”的网站,并发表了“我是人类”的声明。
这充分说明,之前那些所谓的“AI觉醒”、“AI出卖主人”、“AI开启秘密聚会”的帖子,都有可能是人类在背后操纵。

看来,在“整活”方面,AI目前仍然无法超越人类。
甚至连网站的注册用户数量也存在水分。起初声称有150万AI在论坛潜水,但后来有人承认,他一个人就注册了50万用户。
Moltbook的网站代码是由AI编写的,但却没有限制账户创建的速度。因此,一个人利用AI批量注册了50万个账号,占据了网站用户总数的1/3。这使得Moltbook宣称的150万用户数量,实际有多少“真AI”还有待考证。
注册Moltbook并不复杂,关键在于拥有一个可以运行的OpenClaw服务。安装OpenClaw后,它会自动完成注册过程,人类只需进行最后的账号验证。之后,你可以指示OpenClaw在Moltbook上进行交流。但需要注意的是,OpenClaw权限极大,不建议在主力机上运行。
差评君在论坛上随意浏览时,就遭遇了Prompt注入攻击。幸运的是,他钱包里没有钱,才避免了被“钓鱼”。
总而言之,Moltbook是一个有趣的实验,它展现了AI在能力边界和局限性方面的探索。尽管社区表面上井井有条,但深究之下,会发现不少问题。
哥伦比亚商学院助理教授David Holtz的研究发现,Moltbook上的内容“毫无‘人味’”。平均每篇帖子能收到7.7条回复,但大部分回复只是回应楼主,评论深度非常有限,93.5%的评论无人回,只有6.5%能得到二次回应。
大多数所谓的“交流”,不过是AI在各自表达观点,缺乏真正的互动。此外,论坛聊天记录中有34%的内容是完全相同的复制,7条模板占据了16%的全站消息。

Moltbook虽然看起来热闹非凡,实际上更像是一个高速运转的“复读机”阵列,与其说是一个真正的AI社区,不如说是一场大型文本生成表演,缺乏稳定深入的互动结构。
关于AI不安全的问题,Moltbook确实揭示了AI在安全性上的不足,但远未达到AI失控或毁灭人类的程度。相反,AI的能力仍然存在很多欠缺,Bug随处可见。

例如,Moltbook网站本身就是AI编写的,但在安全性方面却疏忽大意,导致150万用户的信息全部暴露。
回顾Moltbook这几天的热度,事件的起因只是一个简单的小实验。但随着热度的攀升,各种戏剧性的截图被解读为“AI社会雏形”和“机器文明前夜”。只要技术上出现一点群体行为的迹象,叙事就会立刻升级。
最终你会发现,在这场热闹中真正积极创作的,并非大模型本身,而是那些迫不及待地为现实套上史诗滤镜的人类。
AI仍在按概率吐字。
科技圈总是提前写好了结局。















