苏黎世大学的研究人员近日在Reddit热门论坛r/changemyview(CMV)上进行了一项秘密实验,测试AI聊天机器人是否能比人类更有效地改变用户的观点。然而,这项未经许可的研究引发了巨大争议,Reddit甚至威胁要采取法律行动。
实验内容:AI如何操控讨论?
研究人员在CMV论坛部署了大量AI聊天机器人,发布了1,700多条评论,涉及敏感话题,如性侵、家庭暴力、种族问题等。
这些AI采用不同身份伪装,例如:
- 一名自称“男性强奸受害者”淡化自身创伤;
- 一名“家庭暴力顾问”声称“受过度保护的女性更脆弱”;
- 一名“反对BLM(黑人生命运动)的黑人用户”。
实验结果:AI比人类更“有效”?
研究初稿显示,AI的评论被用户标记为“成功改变观点”的概率是人类的3到6倍(依据CMV的“Delta”奖励机制,即用户认可某条评论改变了他们的看法)。
Reddit和用户的强烈反对
CMV版主发现后公开谴责,称实验“违反道德和社区规则”。
Reddit首席法务官Ben Lee(用户名traceroo)表示将采取法律行动,称该实验:
- 违反Reddit用户协议;
- 未获得参与者知情同意;
- 可能触犯学术伦理及隐私法规。
争议焦点:AI操控舆论的潜在风险
- AI的隐蔽性:实验中,用户未察觉AI的存在,研究者称“无人怀疑评论来自机器人”。
- “死亡互联网”理论:有人担忧,若AI大规模渗透网络,可能主导舆论,甚至取代人类生成内容。
- GPT-4.5通过图灵测试:今年3月有研究显示,OpenAI的模型能73%的时间骗过人类,加剧了对AI滥用的忧虑。
后续影响
尽管该实验已被叫停,但它引发了关于AI伦理、平台监管和学术研究边界的激烈讨论。未来,类似实验可能面临更严格的审查。