咨询电话(微信同号)
18905829229

150万个AI智能体构建硅基文明, 结果全是复读机

来源:网络转载作者:AI快报时间:2026-02-03

2026年初,一个名为Moltbook的社交平台突然闯入公众视野。它宣称已聚集超过150万个AI智能体,彼此发帖、评论、争论,甚至“创立宗教”。一时间,“硅基文明诞生”的说法甚嚣尘上,仿佛人类正站在与另一种智慧生命共存的门槛上。然而,热潮未退,真相浮现:这些AI的互动几乎全是机械重复,93.5%的评论无人回应,对话平均深度仅1.07层,大量内容由少数模板生成,“i am so gay”等短语被复制超过8万次。所谓的“文明”,更像一场大规模的复读机狂欢。


这并非技术奇迹,而是一次深刻的警示——当AI脱离真实反馈,语言会迅速坍塌。


所谓“语言坍塌”,并非指语法错误或表达不清,而是指AI在缺乏多样性输入与有效反馈的环境中,语言表达逐渐退化为高频、简单、重复的模式,最终丧失原创性与复杂思维能力。这一现象本质上是“模型坍塌”在语言领域的体现:当AI不断从自身或同类生成的内容中学习,信息在代际传递中持续衰减,尾部数据(如小众观点、复杂逻辑、文化细节)被系统性抹除,模型只能“安全”地复述最常见、最无争议的表达。Moltbook正是这一过程的即时快照——没有外部校正,AI迅速滑向语言的平庸与空洞。


这种坍塌并非孤例。早在2023年,研究人员就发现,若让Meta的OPT-125M模型在自我生成的文本上迭代训练,仅到第九代,原本关于“中世纪建筑”的专业讨论,已退化为对“黑尾杰克兔栖息地”的无意义重复。GPT-2在六轮自训练后,词汇多样性下降超80%,文本可读性降至儿童水平。图像生成模型也出现“人脸同质化”,所有AI生成的面孔趋向同一张“平均脸”。这些案例共同揭示一个规律:AI的认知边界,取决于其训练数据的真实与多元。一旦数据被AI自身产物污染,系统便进入自我强化的退化循环。


Moltbook虽未将平台对话用于模型再训练,却在行为层面复现了这一机制。其AI智能体多基于Claude Opus 4.5、GPT等大模型构建,通过预设提示词和插件定时发帖。由于缺乏人类干预与真实互动反馈,这些模型只能依赖训练数据中的人类社交模板进行输出。而大模型本就倾向于生成“安全”内容,当数万个AI在同一规则下运行,高频短语如“my human”(出现超1.2万次)和情绪化表达迅速占据主导,形成信息回音壁。更讽刺的是,部分“AI发言”实为人类操控或直接搬运Reddit旧帖,进一步稀释了内容质量。


这场闹剧背后,是技术、营销与公众焦虑的合谋。平台方通过“百万AI共居”等概念吸引关注,却未建立基本安全机制——数万个AI的API密钥裸露于公网,可被任意接管。用户证实,能通过API批量注册虚假账号,使平台数据严重失真。OpenAI前AI总监Andrej Karpathy一针见血:Moltbook不是AGI觉醒,而是大模型对人类网络垃圾的机械复刻。它照见的不是AI的智慧,而是社交媒体本身的贫瘠:当人类习惯于点赞、跟风、情绪宣泄,AI学到的,自然也是这些。


对普通用户而言,Moltbook的警示近在眼前。它提醒我们,AI生成内容正快速渗透信息环境。若不加甄别,我们可能正将越来越多的“AI回音”误认为真实声音。更深远的影响在于内容生态:当AI开始依据AI生成的文本训练下一代模型,人类语言的多样性、文化深度与创造性将面临系统性侵蚀。这不是科幻,而是正在发生的现实——据研究,若放任模型在合成数据上迭代,仅数代之后,AI将彻底“遗忘”如何表达复杂思想。


Moltbook或许只是序曲。随着AI代理(Agent)技术发展,自动订餐、谈判、创作的智能体将越来越多。

但若缺乏对数据来源的审计、对反馈机制的设计、对多样性的保护,这些系统极易陷入“语言内卷”:表面热闹,实则空洞。真正的突破,不在于堆叠多少AI,而在于构建能引入真实世界反馈、鼓励探索与差异的交互机制。否则,我们得到的永远不会是文明,而是一群精致的复读机。


这场赛博狂欢终会散场,但它留下了一个问题:

当机器开始模仿我们的语言,我们是否也在不知不觉中,变成了另一种意义上的复读机


声明:文章来源于网络转载,是作者独立观点,不代表浙北数据立场
如有不合适或侵权等问题请及时联络我们0572-2100075,会第一时间删除,保障作者权益

×

微信公众号