AI比人类更会“洗脑”?

苏黎世大学AI实验引发争议:聊天机器人被指操控Reddit用户观点:

苏黎世大学的研究人员近日在Reddit热门论坛r/changemyview(CMV)上进行了一项秘密实验,测试AI聊天机器人是否能比人类更有效地改变用户的观点。然而,这项未经许可的研究引发了巨大争议,Reddit甚至威胁要采取法律行动。

实验内容:AI如何操控讨论?
研究人员在CMV论坛部署了大量AI聊天机器人,发布了1,700多条评论,涉及敏感话题,如性侵、家庭暴力、种族问题等。
这些AI采用不同身份伪装,例如:

  • 一名自称“男性强奸受害者”淡化自身创伤;
  • 一名“家庭暴力顾问”声称“受过度保护的女性更脆弱”;
  • 一名“反对BLM(黑人生命运动)的黑人用户”。
另一组AI则分析用户历史发言,个性化调整话术以提高说服力。


实验结果:AI比人类更“有效”?
研究初稿显示,AI的评论被用户标记为“成功改变观点”的概率是人类的3到6倍(依据CMV的“Delta”奖励机制,即用户认可某条评论改变了他们的看法)。

Reddit和用户的强烈反对
CMV版主发现后公开谴责,称实验“违反道德和社区规则”。
Reddit首席法务官Ben Lee(用户名traceroo)表示将采取法律行动,称该实验:

  • 违反Reddit用户协议;
  • 未获得参与者知情同意;
  • 可能触犯学术伦理及隐私法规。
苏黎世大学回应称,不会发布研究结果,并承诺未来加强伦理审查。

争议焦点:AI操控舆论的潜在风险

  1. AI的隐蔽性:实验中,用户未察觉AI的存在,研究者称“无人怀疑评论来自机器人”。
  2. “死亡互联网”理论:有人担忧,若AI大规模渗透网络,可能主导舆论,甚至取代人类生成内容。
  3. GPT-4.5通过图灵测试:今年3月有研究显示,OpenAI的模型能73%的时间骗过人类,加剧了对AI滥用的忧虑。

后续影响
尽管该实验已被叫停,但它引发了关于AI伦理、平台监管和学术研究边界的激烈讨论。未来,类似实验可能面临更严格的审查。