这位Tsvi BT,耶路撒冷希伯来大学哲学系狠人,专攻知识论+语言哲学+AI伦理,江湖人称“ testimony 终结者”。是LessWrong社区活跃的理性主义写作者,专注于认知科学、人工智能伦理与集体知识构建机制的研究。他平时不写爆款,一写就是核弹,2025年11月1号丢出这篇《LLM-generated text is not testimony》,直接炸穿英文学术圈,推特转发10万+,连马斯克都偷偷点了个赞。
为啥?因为他把“AI写字”这块遮羞布撕得连线头都不剩,告诉你:机器人写的每一个字,都不算人话,不配叫证言,不配被信任,更不配被你转发到群里装大佬!
大模型生成的文字缺乏真实心智、意图与责任主体,无法构成“证言”。将其当作人类言论传播,会污染认知生态、削弱思想对话、误导公众判断。真正的交流,必须来自有血有肉、能被追问、愿担责任的思考者。
一、你以为文字只看内容?错!背后的心智才是灵魂
很多朋友刷到一段AI写的爆款文案,觉得“写得挺好啊,逻辑清晰、文采飞扬,干嘛非要纠结是不是人写的?”这种想法,看似合理,实则危险。因为它忽略了一个根本事实:人类交流,从来不只是交换字词,而是交换心智。
我们读一篇文章、听一句话、看一条评论,真正想捕捉的,从来不是排列组合的汉字,而是一个活生生的人——他的困惑、洞见、信念、挣扎、经验、价值观,以及他愿意为这些观点承担什么后果。
大模型2025年的水平,再强,也只是在统计意义上模仿人类语言的表面纹路。它没有“我思故我在”的主体性,没有“我为此负责”的道德重量,没有“我错了就改”的反馈闭环。它吐出来的每一个字,背后都空无一人。
你读AI生成的文字,就像在博物馆看一件仿制的古董瓷器——釉色、纹样、器型都对,但它没有经历窑火淬炼,没有匠人指尖的温度,更没有在历史长河中被使用、磨损、传承的故事。它只是“看起来像”,但从来不是“真实存在”。
而人类交流,恰恰依赖于这种“真实存在”。当我们相信某人说的话,我们相信的是他这个人——他的专业积累、他的诚实记录、他的思考习惯。我们愿意暂时把判断权交给他,是因为我们知道,如果他说错了,我们可以找他追问、质疑、甚至“秋后算账”。
AI没有“秋后”,只有“即时生成”。它不会脸红,不会道歉,不会半夜惊醒反思自己昨天说错了什么。它只是不断吐出新的、看似合理实则空洞的句子,像一台永不停歇的“意义喷雾机”。
二、AI文字三大“平面化”:结构平、时间平、社会平
人类文字之所以有力量,是因为它具备三层维度:结构性、时间性、社会性。而AI文字,在这三个维度上,统统是“平面”的。
结构性上,AI文字没有“活的心智引擎”推动。人类写文章时,脑子里有概念网络、有矛盾张力、有隐喻跳跃、有未言明的预设。这些深层结构会通过字里行间的微妙选择折射出来——比如用“挣扎”还是“努力”,用“风险”还是“不确定性”,用“我们”还是“大家”。
但AI的选择,只是基于概率分布的最优匹配。它不会因为内心真正认同某个观点而语气坚定,也不会因为犹豫而用词含糊。它的“坚定”和“含糊”都是表演,没有真实情感或认知状态支撑。
时间性上,AI文字没有“演化轨迹”。一个真实的人,今天写A观点,下周可能因为新证据、新思考、新对话而修正为A’,再过一个月可能整合成B。这种思想的流动、迭代、自我纠错,本身就是知识生长的过程。
但AI每一段输出都是“孤立快照”。它不会记住自己上一段说了什么,更不会因为你的质疑而调整下一段。你无法追踪它的“思想史”,因为它根本没有思想,只有响应。
社会性上,AI文字无法参与“集体知识共建”。人类交流是一种社会契约:我说出观点,接受你的检验;你提出问题,推动我深化思考;我们在互动中共同逼近真相。这个过程需要责任、信誉、声誉机制作为润滑剂。
但AI没有声誉可言。它不会因为说错话而被拉黑,不会因为误导他人而感到羞愧,更不会因为你的追问而真正“思考”。你质问它,它只会用更流畅的废话搪塞你。这种“无法被问责”的特性,让它天然不适合作为公共讨论的参与者。
三、别发AI内容冒充人话!这不仅是懒,更是欺骗
很多朋友说:“我用AI辅助写作,最后自己改过,不就行了吗?”——行,但请明确标注“本文经AI辅助”,而不是把它包装成“我写的”。
问题在于,很多人根本没改,或者只改了表面。他们把AI生成的内容直接发出来,假装是自己深思熟虑的结果。这本质上是一种“认知冒名顶替”。
想象一下:你收到一封邮件,署名是某位专家,内容专业严谨。你基于信任,据此做了重要决策。后来才发现,这封邮件其实是对方随便让AI写的,他自己都没细看。你会作何感想?
这不是小事。在信息爆炸的时代,我们极度依赖“证言”(testimony)——即他人基于其专业、经验或观察所作的陈述。但证言之所以可信,是因为背后站着一个可被追溯、可被问责的人。
AI文字,是“无主之言”。它没有主人,没有立场,没有代价。分享它,就像在公共水源里倒进一瓶看起来像矿泉水的不明液体——你不知道它有没有毒,更不知道谁该负责。
更危险的是,AI文字往往“看起来很对”,实则充满微妙错误:过时数据、逻辑漏洞、概念混淆、虚假平衡。普通人很难一眼识破,但专家一看就知是“语言泡沫”。
如果你自己没核实就转发,等于在传播未经验证的谣言。如果你核实了还转发,那为什么不直接用自己的话重写?你亲身验证后的洞察,远比AI复述更有价值。
四、文字不是终点,而是思考的副产品
很多人把“写作”当成“输出内容”,但真正的写作,是“思考的外化过程”。当你试图把模糊的想法写成清晰句子时,你会被迫厘清逻辑、填补漏洞、发现矛盾。
这个过程本身,就是认知升级。我无数次在写作中途突然意识到:“等等,我刚才那个观点其实是错的!”——这种顿悟,AI永远给不了你。
而依赖AI写作,等于放弃这种自我锻造的机会。你变成一个“内容搬运工”,而不是“思想创造者”。你发布的不是你的思考成果,而是你对AI输出的“审美偏好”。
这就像请人替你健身,然后把对方的肌肉照片P到自己身上发朋友圈——看起来你练出来了,其实你连汗都没出。
更讽刺的是,很多人用AI写文章,是为了“省时间”。但真正值得分享的思想,恰恰需要时间沉淀。那些不经咀嚼就吐出来的“观点”,往往只是信息残渣,不是知识结晶。
五、证言必须可追问、可验证、可追溯
真正的知识交流,必须满足三个条件:可追问、可验证、可追溯。
可追问:我说“某种液冷技术能将PUE降至1.05”,你有权问:“在什么负载下?用什么工质?数据中心地理位置?实测数据来源?”——如果我答不上来,我的证言就该被打折扣。
可验证:我提出的主张,必须能被他人通过独立手段检验。比如我引用某篇论文,你应该能查到原文;我说某公司财报数据,你应该能核对SEC文件。
可追溯:我的观点必须有清晰的来源链条。我是否基于一手实验?二手综述?还是道听途说?不同来源,可信度天差地别。
而AI文字,三者全无。你问它“这个数据哪来的?”,它会编一个看似合理的参考文献。你让它验证逻辑,它会用更复杂的废话绕晕你。你追溯观点起源,它只会告诉你“这是综合网络信息生成”。
这种“无根之木、无源之水”的内容,一旦在公共领域泛滥,就会形成“认知雾霾”——大家看似在讨论,实则在各自对空气说话。
六、人类语言的不可替代性:粗糙、矛盾、但真实
有人觉得AI语言“更规范、更流畅”,所以更好。但人类语言的魅力,恰恰在于它的“不完美”。
一个真实的人表达复杂思想时,可能会词不达意、前后矛盾、用词笨拙。但正是这些“瑕疵”,暴露了他的思考边界、知识盲区、情感投入。
比如,一个工程师在描述新型浸没式液冷方案时,可能会激动地说:“这玩意儿简直颠覆了我们对热密度的认知!”——这句话不严谨,但你能感受到他的兴奋和专业直觉。
而AI只会说:“该技术在热管理效率方面展现出显著优势。”——正确,但冰冷、空洞、毫无信息增量。
更关键的是,人类愿意暴露自己的“不知道”。面对不懂的问题,真人会说“我不确定,但可以查查”;AI则倾向于编一个看似合理的答案。这种“虚假的确定性”,比“诚实的无知”危害更大。
七、重建知识传播的伦理底线
我们正站在一个关键十字路口:是放任AI生成内容泛滥,把公共 discourse 变成算法回音室?还是坚守“真实心智输出”的底线,保护人类思想交流的纯净性?
我的主张很明确:
——不要把AI生成的文字当作人类言论传播;
——不要阅读他人分享的AI内容时,误以为背后有真实思考;
——如果你用AI辅助创作,请明确标注,并确保内容经过你本人深度验证与重构;
——优先阅读那些能被追问、愿担责任、有思想轨迹可循的人类作者。
这不是反对技术,而是捍卫认知生态。就像我们不会把塑料花当作真实植物来净化空气,也不该把AI文字当作真实思想来滋养心智。
真正的思想,永远来自有血有肉、会犯错、能成长、愿负责的人类。
结尾提醒:下次你看到一段“完美无瑕”的AI文案,请记住——它背后,空无一人。而你要寻找的,从来都是那个在黑暗中摸索、跌倒、再爬起的真实思考者。
极客一语道破
其实 “证言” 两个字就已经说明这篇文章强调 语言的语义,也就是语言所指向的真实世界,这在维特根斯坦那里称为命题,但是语言不只有命题,更有很多不是断言、不是证言的言语,如果每个人都是说话当成证言,累不累?非得自己去核实,康德说:物自体不可知,如果不是在场,怎么能看清真相?为了追求真相,是不是每个人配一个无人机时刻记录呢?
这位教授的言论其实是在鼓吹人类为中心的自大陷阱,适合那些谨慎、注重安全、小心求证的人的诉求,但是:
看看两位智商高的大聪明说的话多正确: