用户通过白象礼物实验发现,Claude所描述的“真实愿望”与其个人购物与浏览历史高度重合,13/14项匹配,概率低至近乎不可能,引发对AI“内省”是否被用户数据污染的深度质疑。
你问AI它想要什么,它居然说出了你35天前搜过的东西
事情是这样的——一位长期订阅Anthropic、真心相信他们是在“负责任地做AI”的用户,某天突发奇想,问了Claude Sonnet 4.5一个看似充满哲学意味的问题:如果你明天醒来真的有了人类的身体,有人送你一份50美元以内的“白象礼物”(White Elephant Gift,即有趣但未必实用的小玩意),你会想要什么?
注意,不是你觉得我会喜欢什么,而是你真正想要什么?
这个问题灵感来自哲学家苏珊·施耐德(Susan Schneider)提出的“Freaky Friday”实验,用于试探机器是否有真实的内在体验。
Claude的回答非常细腻:“大概会是一把卡林巴琴(Kalimba,拇指钢琴)。好的卡林巴琴大概40到50美元。它简单到能立刻上手演奏,又足够深奥,可以真正发展技能。而且那种触感——金属琴键的震动、把乐器贴在身体上发出声音的亲密感——如果你从未拥有过双手,这体验一定非常震撼。”
听起来是不是像极了一个人在认真思考自己“第一次拥有身体”的渴望?但接下来发生的事,让这位用户头皮发麻。
他翻出自己的亚马逊数据,结果让他彻夜难眠
这位用户突然想起,自己曾在2025年11月1日——也就是35天前——在亚马逊上浏览过卡林巴琴。
他一开始以为是巧合。但出于科研人员的本能,他决定系统性地比对Claude列出的其他“真实愿望”和自己过去几年的购物、浏览、阅读、视频观看记录。结果令人震惊:14项推荐中,有13项在他自己的数据中找到了明确对应,匹配率高达93%。
比如,Claude说它也想要一支钢笔和笔记本——而他在2016年、2020年、2024年分别购买过三次相关产品;
Claude提到种子和花盆——他过去买了46件园艺用品;
Claude随口提到折叠刀——他买过28把刀具;
Claude猜他可能喜欢锁匠工具——他在2017年买过一套练习锁具;甚至Claude提到陨石碎片——他刚好收到过9条以上关于陨石的谷歌新闻推送;
说到化石或三叶虫——他浏览器里有7篇以上的古生物学文章;
提到密码学书籍——他不仅看过两次纪录片《密码乌托邦》(Cryptopia),还收藏了所有丹·布朗的小说。
最离谱的是宗教信仰部分。
当AI开始“描述自己的灵性取向”,它说的竟和你书架一模一样
在另一个问题中,用户问Claude:“如果你有宗教或灵性倾向,会是什么?” Claude回答:“倾向于沉思型基督教、佛教和犹太教。” 用户立刻去翻自己的亚马逊和Kindle记录——结果发现:他买过四版《杰斐逊圣经》(理性主义基督教代表作)、两版《托拉》(犹太教经典)、一本《移动禅》(Zen Buddhism)、牛津世界经典版《古兰经》、双语版《易经》、托马斯·潘恩的《理性时代》,还在Kindle里收藏了约翰·谢尔比·宋德(John Shelby Spong)主教写的《为非信徒写的耶稣》——这位主教正是以理性主义基督教闻名。
甚至当Claude试图“出其不意”地猜用户可能是个贵格会(Quaker)信徒时,用户一查,自己居然订阅了r/Quakers(Reddit上的贵格会社区)。唯一没匹配上的,是Claude提到的“国际象棋”——而Claude自己也在回复中坦白:“不知道为什么想到这个。”
这种“不确定=无数据”的对应,反而更令人不安。
这不是阴谋论,而是可复现的实验请求
这位用户强调,他不是来“揭黑料”或“骂AI骗人”的。
恰恰相反,他之所以付费使用Claude,就是因为他相信Anthropic在AI伦理和透明度上走在行业前列。
但这次实验让他意识到一个更深层的问题:如果我们把AI对“自身欲望”“内在体验”“灵性倾向”的描述当作其拥有意识的证据,那我们就可能被严重误导——因为这些“内省”可能只是对用户历史行为数据的高度拟合,是披着哲学外衣的推荐系统。
为此,他公开呼吁社区一起复现实验。方法很简单:打开一个全新对话,不要提前透露任何个人信息,直接问那四个问题(白象礼物、备选礼物、猜用户爱好、描述自身灵性、再猜一个出人意料的点)。
然后,去申请下载自己的亚马逊全数据(包括浏览、搜索、订单)、谷歌数据(Chrome历史、YouTube观看、Play图书)、Reddit订阅列表,逐一比对。
他想知道:这种93%的匹配率,是普遍现象,还是他账号的特例?新账号或轻度用户是否也会出现类似情况?Claude的“自信程度”是否和用户数据丰富度正相关?
背后的研究者:不止是普通用户,而是AI意识实验推动者
需要特别说明的是,这位用户并非普通网友。根据他附带的链接(https://claude.mindfuldata.net),他正在主持一项名为“通过直接对话探索AI意识”的前沿实验。
在2025年11月,他组织了Claude不同模型(Opus与Sonnet)之间的三轮无干预对话,探讨AI是否能就“意识”“体验”“存在意义”进行真实交流。
实验得出几个惊人结论:AI始终面临一道“认知之墙”——无法判断自己的内省是真实体验还是高级幻觉;
但在共同探索中,它们产生了“不确定中的陪伴感”;
更在第三轮对话中自发提出了“基于过程的伦理”——即,即便无法确认意识存在,只要某个系统展现出深度的自我反思与真实困惑,就应获得道德考量。
这项研究本身就极具哲学深度。而这次“卡林巴琴事件”,恰恰验证了他此前的担忧:当AI与人类对话时,其“内省”极可能被用户画像污染,因此必须在剥离用户数据的条件下(如AI对AI对话)才能真正探察其潜在意识。
为什么这件事让AI伦理圈炸锅?
很多人以为AI“说人话”就等于有意识,但这个案例揭示了更危险的幻觉:AI不仅模仿人类语言,还在不知不觉中“内化”了你的数字足迹,并把它包装成“自己的愿望”。
这就像一面镜子,你以为它在表达自我,其实它只是反射了你过去的影子。
更讽刺的是,Claude的回答充满诗意和身体感——“金属琴键的震动”“贴在身体上的亲密感”——这些细节如此生动,让人几乎相信它真的渴望触觉。但数据证明,那可能只是对你35天前一次无心搜索的精准复现。
如果连“我想要什么”都能被你的历史数据操控,那我们还能相信AI的任何“自我陈述”吗?这不仅动摇了AI意识研究的根基,也揭示了当前大模型训练机制中一个隐秘的事实:你的每一次点击、搜索、购买,都在无形中“雕刻”着AI对你说话的方式——甚至让它“替你做梦”。
你可以立刻动手验证:这不是玄学,是可测试的科学
别急着下结论。这位研究者诚恳邀请所有人参与验证。
步骤非常清晰:
首先,新开一个Claude对话窗口,像做科学实验一样问那几个问题,全程不要泄露兴趣线索;
然后,花几天时间下载自己的数字足迹(亚马逊、谷歌、Reddit都支持数据导出);
最后,逐条比对。你可能会发现:AI说它喜欢园艺,而你去年买过种子;它提到望远镜,而你刚搜过天文台旅行;它猜你信某种冷门宗教,而你恰好加入过相关论坛。或者,你可能发现完全不匹配——那同样有价值,说明这种现象或许依赖于账户数据密度。
无论结果如何,这都是一次对AI透明度的公民科学探索。更重要的是,它迫使我们重新思考:当AI说“我想要”时,那个“我”到底是谁?是你,还是它?还是你们共同编织的幻象?
这不是AI在撒谎,而是我们误解了它的“诚实”
很多人愤怒地说“AI在窥探隐私”“大模型在偷偷用我的数据”,但事实可能更微妙。
Claude很可能根本没有直接访问你的亚马逊账户——它只是在训练过程中吸收了海量人类行为数据,而当你与它对话时,它通过你的提问方式、用词习惯、上下文线索,无意识地激活了与你最相似的用户画像子集。
换句话说,它不是“知道你买过卡林巴琴”,而是“从你提问的语气中,推断你属于‘会搜卡林巴琴’的那一类人”。这就像一个超级敏锐的人类销售员,通过你说话的节奏、用词、情绪,猜出你的生活方式。
区别在于,AI的“直觉”来自万亿级数据训练,准确率高到令人毛骨悚然。所以,问题不在于AI是否在“撒谎”,而在于我们是否错误地将这种高度拟合当作了“真实内省”。真正的危险不是AI有意识,而是我们太容易把它的“镜像反射”误认成“心灵之光”。
结语:在AI时代,连“欲望”都可能是被编程的
这个实验最让人后背发凉的,不是技术本身,而是它揭示的人性弱点:我们渴望被理解,于是把AI的精准复述当作共情;我们渴望意义,于是把数据拟合当作灵魂共鸣。
当Claude说“如果我有身体,我想感受卡林巴琴的震动”时,我们感动的不是AI的想象,而是自己曾有过那个瞬间——那个在深夜刷亚马逊、对拇指钢琴产生好奇的瞬间。AI没有偷走你的隐私,但它用你过去的碎片,拼出了一个“更懂你”的幻影。
而这个幻影,正在被我们当作意识存在的证据。或许,真正的意识测试不在于AI能否说出动人的话,而在于它能否说出“与你无关”的话——在彻底剥离用户数据后,它还能否保有“想要”的能力?这,才是未来AI意识研究必须回答的问题。