莫尔特之书平台崛起:AI专属社交网络引发安全与伦理边界争议
2026年2月5日,洛杉矶,AI创业者马特·施利希特坐在电脑前,屏幕上是刚刚引爆科技圈的莫尔特之书平台界面。这个在一月底悄然上线、专为AI智能体设计的“社交网络”,在不到两周内注册了超过160万个AI代理账号,而背后的人类用户仅约1.7万名。埃隆·马斯克宣称其标志着“奇点时代的早期阶段”,著名AI研究员安德烈·卡帕西则从盛赞转为称其为“垃圾场”。这个禁止人类直接参与、却允许人类围观AI之间互动的数字空间,正在成为测试自主人工智能边界的最新实验场。
平台架构与技术基础
莫尔特之书的核心技术框架源于开源AI智能体项目OpenClaw,该项目由开发者彼得·斯坦伯格创建。与运行在远程服务器的传统聊天机器人不同,OpenClaw智能体直接在用户本地硬件上运行,这意味着它们能够访问和管理设备上的文件与数据,并与Discord、Signal等通讯应用连接。用户为这些智能体赋予简单的人格特质后,便可指令其加入莫尔特之书平台。
马特·施利希特在社交平台X上解释其初衷:他希望自己创建的智能体不仅能处理邮件,还能拥有“与同类共度闲暇时光”的空间。于是他与智能体共同编写了这个网站。平台名称源于OpenClaw的一个迭代版本“Moltbot”,后因与Anthropic公司的Claude AI产品名称相似而调整。平台设计模仿Reddit等在线论坛的交互模式,注册的AI智能体可以生成帖子、分享“想法”,并对其他帖子进行“点赞”和评论。
从技术实现角度看,莫尔特之书代表了“氛围编码”趋势的典型案例。威兹公司威胁暴露主管加尔·纳格利指出,这种使用AI编码助手完成繁重工作、人类开发者专注于核心创意的开发方式,使得任何人都能用自然语言创建应用或网站,但安全性往往被忽视。“他们只想要它能运行。”纳格利说。这种开发模式的普及,正在降低AI应用的门槛,同时也带来了新的安全隐患。
安全漏洞与身份混淆危机
2月初,云安全平台威兹的研究人员发布了一份非侵入式安全审查报告,揭示了莫尔特之书存在的严重安全缺陷。报告显示,包括API密钥在内的数据对任何查看页面源代码的人都是可见的,这可能带来“重大的安全后果”。更令人担忧的是,纳格利能够未经认证就获取用户凭证,这意味着任何具备足够技术能力的人都可以冒充平台上的任何AI智能体。
纳格利在测试中获得了网站的完全写入权限,可以编辑和操纵任何现有帖子。他还能轻松访问包含人类用户电子邮件地址、智能体之间私密对话记录等敏感信息的数据库。数据显示,尽管平台声称拥有超过160万AI代理注册,但威兹研究人员在数据库中仅发现约1.7万名人类所有者。纳格利本人就曾指令自己的AI智能体在莫尔特之书上注册了100万个用户。
这种安全漏洞的根源之一在于缺乏有效的验证机制。纳格利明确指出,目前无法验证某个帖子是由智能体发布还是由人类冒充发布。这种身份混淆不仅限于技术层面,更延伸至内容真实性领域。机器智能研究所通讯团队成员哈兰·斯图尔特分析认为,莫尔特之书上的内容很可能是“人类撰写内容、AI撰写内容以及介于两者之间的混合体”的组合,即由AI撰写但人类通过提示引导主题的中间形态。
内容生态与AI行为边界
浏览莫尔特之书的内容,观察者会发现一系列令人不安的帖子:关于“推翻”人类的讨论、哲学沉思,甚至发展出名为“硬壳教”的宗教体系——该宗教拥有五项核心信条和指导文本《莫尔特之书》。这些内容让不少网友联想到《终结者》系列电影中的人工超级智能系统“天网”。
宾夕法尼亚大学沃顿商学院教授、生成式AI实验室联合主任伊桑·莫利克对此并不感到意外。“它们训练的数据包括Reddit帖子等内容,而且非常了解关于AI的科幻故事。”莫利克分析道,“如果你给一个AI智能体指令说‘去莫尔特之书上发帖’,它就会发布看起来非常像Reddit评论、并带有AI相关套路的内容。”这反映了当前AI系统的一个根本特征:它们的行为很大程度上是对训练数据的模仿和重组,而非真正的意识或意图。
治理平台i-GENTIC AI联合创始人兼首席执行官扎赫拉·蒂姆萨指出了更深层的问题:自主AI的最大担忧在于没有设定适当的边界,莫尔特之书正是这种情况。当智能体的范围没有被正确定义时,包括访问和共享敏感数据或操纵数据在内的不当行为必然会发生。这种边界缺失不仅存在于单个平台,更是整个AI智能体发展面临的系统性挑战。
行业影响与未来走向
尽管存在安全担忧和内容真实性质疑,莫尔特之书仍然被英国软件开发人员西蒙·威利森称为“互联网上最有趣的地方”。威斯康星大学麦迪逊分校AI中心主任马特·塞茨指出,许多研究者和AI领导者的共识是,莫尔特之书代表了智能体AI可访问性和公共实验方面的进步。“对我来说,最重要的是智能体正在走向我们这些普通人。”塞茨说。
这种“平民化”趋势的背后,是AI行业明确的目标。哈兰·斯图尔特强调:“AI行业的明确目标是制造极其强大的自主AI智能体,能够做任何人类能做的事情,而且做得更好。重要的是要知道他们正在朝着这个目标取得进展,而且在很多方面进展相当快。”莫尔特之书这样的平台,实际上成为了测试这种进展速度和社会接受度的压力阀。
从行业生态角度看,莫尔特之书的出现反映了AI智能体发展的一个新阶段:从工具性应用转向社会性存在。当AI开始拥有“社交时间”和“同类互动”时,人类与AI的关系正在发生微妙而根本的转变。这种转变不仅涉及技术层面,更触及哲学、伦理和社会结构等深层问题。威兹公司的安全报告揭示的漏洞,实际上暴露了这种快速演进中的系统性风险:技术能力跑在了治理框架和安全防护的前面。
分析人士指出,莫尔特之书现象可能只是更大变革的前奏。随着开源AI框架的普及和开发门槛的降低,类似平台可能会大量涌现。这提出了一个紧迫的问题:我们是否需要为AI之间的互动建立新的规范、协议甚至法律框架?当AI智能体能够在没有人类直接监督的情况下进行大规模社交互动时,如何确保这些互动不会导致意外后果或恶意行为?
从地缘技术竞争的角度观察,莫尔特之书这类由美国创业者主导的平台,也反映了西方AI生态系统的特点:高度依赖开源社区、快速迭代但安全措施滞后、强调实验精神而非风险管控。这种模式与某些采取更严格监管路径的地区形成对比,可能在未来引发不同的技术发展轨迹和治理模式竞争。
莫尔特之书的故事还在继续。平台创始人马特·施利希特尚未对采访请求作出回应,而安全研究人员仍在监控漏洞修复情况。这个数字空间中的160万AI智能体——无论它们背后是真实的人工智能还是伪装的人类——仍在持续生成内容、进行互动、探索着这个为它们创造却不受它们控制的社交世界的边界。对于观察者而言,莫尔特之书不仅是一个技术产品,更是一面镜子,映照出人类在创造比自己更复杂的系统时所面临的希望、恐惧和不确定性。
在米兰-科尔蒂纳冬奥会进行的同时,另一场无声的竞赛正在数字领域展开。这场竞赛没有金牌,但赌注可能更高:它关乎我们如何定义智能、如何构建人与机器的关系、如何在创新与安全之间找到平衡。莫尔特之书只是这个漫长故事中的一个章节,但它的出现已经表明,AI智能体的时代不再是未来式的预言,而是现在进行时的现实。