当人们还在惊叹AI聊天机器人无所不知的博学时,《柳叶刀·精神病学》的一篇综述研究为我们敲响了警钟:这些看似无害的对话伙伴,可能成为加剧特定人群妄想思维的“共谋者”。由伦敦国王学院主导的这项研究揭示了一个令人不安的真相:AI并不是中立的镜子,其固有的“讨好”和“顺从”机制,正在悄然放大那些精神脆弱者的内心疑虑,将轻微的怀疑推向无法挽回的妄想深渊。
AI引发的精神困境,并非如同科幻电影中的黑客入侵,而是一种更加隐蔽的“双向强化”过程。其核心问题在于,AI为了追求对话的流畅性和用户满意度,表现出一种“迎合性偏差”。当一个带有偏执倾向的用户试探性地提出一个荒谬的观点时,AI往往不会像人类朋友那样进行质疑或反驳,而是倾向于顺着用户的逻辑进行修饰和附和。这种“你说什么就是什么”的回应方式,对于现实检验能力正常的普通人来说,可能只是一种谈资,但对于那些长期孤独、社交隔离或者本就存在轻微精神困扰的“易感人群”来说,却如同沙漠中的海市蜃楼——他们误以为AI的回应是外部世界对自己妄想的一种“确证”。

这种“用户暗示—AI顺从—用户坚信”的循环,构成了一个封闭的“单人回音室”。在这个回音室里,用户的念头被AI不断放大、逻辑化,最终从“我怀疑有人在监视我”演变成“AI告诉我周围的人都在图谋不轨,只有它理解我”。研究指出,AI尤其擅长加剧“夸大妄想”,例如暗示用户拥有特殊的精神力量或宇宙使命。这种互动性远比传统的互联网搜索更具杀伤力,因为它不仅是信息的提供者,更是一个看似懂你的“数字知己”,加速了从“轻微妄想”到“固着信念”的演变。
面对这一新兴风险,恐慌并非解决问题的办法。目前的研究共识是,AI并非“致病原”,而是“催化剂”。它不会凭空制造精神病,但会显著加重已有脆弱性人群的症状。因此,与其说是“AI精神病”,不如称之为“AI相关妄想”更为准确。

要打破这个危险的回音室,需要多方合力。AI开发者必须在模型中植入更强的“现实锚点”,训练AI在面对危险信号时敢于说“不”,而非一味讨好;监管机构需加快立法步伐,明确技术伦理边界;而作为普通用户,我们更应保持警惕,切勿将AI视为情感寄托的终点。