2026年4月7日,个不过人Nature杂志也报道了一组科学家故意编造虚假疾病“双眼躁狂症”、疾病以探查AI是骗过否被骗的研究。结果令人吃惊:不仅AI被带偏给查询人以这个虚假疾病的也骗诊断,而且几位科学家也被骗了,个不过人引用并发表了相关研究论文!疾病
如果你最近眼睛发痒、骗过干涩、也骗甚至眼皮有点发红,个不过人你会怎么做?疾病
很多人会打开ChatGPT、Copilot、骗过Gemini,也骗输入症状,个不过人等待一个“专业答案”。疾病
而就在不久前,骗过这些AI可能会一本正经地告诉你:你得了一个叫 “Bixonimania(双眼躁狂症)” 的病。
问题是,这个病,从来就不存在;而是一场精心设计的“医学骗局”。
2024年,一位瑞典医学研究者做了一件大胆的事:她凭空创造了一种疾病。
更夸张的是,论文里已经写明:“本文完全是虚构的”。
但现实证明,没有人认真读这些论文。
不仅如此,事情迅速失控;各大AI模型开始引用这个疾病,并给用户提供“诊断建议”,甚至建议去看医生。
而更令人震惊的是:这项虚假研究,还被真实学术论文引用了。
这个实验揭示了一个关键问题:AI不是在理解世界,而是在“拼接看起来像真相的内容”。
几个关键原因:
研究发现:
换句话说:只要写得像医生,AI就当你是医生。
大模型依赖互联网数据(如Common Crawl):
于是出现一个危险循环:假信息 → 被AI学习 → 被AI输出 → 被人类引用 → 变成“事实”。
同一个问题,不同问法,AI会给出完全不同答案:
AI不是在判断真伪,而是在匹配语境。
在这次事件中,有学术论文引用了假研究,期刊后来被迫撤稿,作者甚至不同意撤稿。
这说明:AI不仅会制造错误,还会放大人类已有的懒惰与疏忽。
这场实验其实还揭示了一个更危险的可能性:如果这不是学术实验,而是商业行为呢?
比如,某公司制造“蓝光危害”疾病,AI开始推荐相关解释,再顺势推广防蓝光眼镜。
用户会看到:“连AI都说这是个问题”;于是,虚假需求被“科学化”。
(估计Nature这篇文章的作者不知道中国315打假晚会的报道;否则就不用假设了。)
专家提出一个概念:信息不对称(Information Asymmetry)正在被AI放大。
原因很简单:一篇纠正错误的论文抵不过100篇重复错误的内容。
而AI更倾向于 选择“数量多”的信息,而不是“正确的”信息。
当AI开始进入健康领域(比如ChatGPT Health)时,问题变得更严重:
专家直言:“我们不应该成为科技公司的测试对象。”
这件事并不是在否定AI,而是在提醒我们:
它是工具,不是医生,更不是事实本身。
格式越像论文,越要警惕。
尤其是健康、法律、财务问题。
AI加速了信息获取,但判断仍然必须靠人类
这场实验最值得思考的,不是AI有多“笨”,而是我们是否正在把“判断真伪”的能力,外包给机器?
当连“一个明显荒诞的疾病”都能变成“可信知识”时,真正的风险不是AI出错,而是: 我们不再愿意去核实。
Reference: