下面图追踪了一种特定句式——“不是A,而是B”——在人类写作中爆炸式增长的数据。
图片显示,美国大公司文档中该句式使用量在2024年和2025年分别翻倍。
评论区用户普遍反映,这种原本正常的修辞手法现在已经成为识别AI生成内容的金标准,而且更可怕的是,人类开始不自觉模仿这种表达方式。
本文解析语言污染、反向图灵测试、以及AI对人类写作风格的无意识殖民。
这篇Reddit帖子抛出了一个让所有写作人都后背发凉的现象。一张数据图显示,“不是...而是”这种句式在美国大公司文档中的使用量,在2024年和2025年都大约翻了一番。从2005年的1.8K次,到2010年的19K次,再到2020年的2.7M次,这条曲线在最近两年变得异常陡峭。
发帖人把这张图贴在r/ChatGPT版块,引发了超过130条评论和近2000个点赞。评论区呈现出一种集体性恐慌:人们发现自己再也无法忽视这个句式了。一旦你注意到它,它就会像蚊子一样在你耳边嗡嗡作响,出现在公司邮件里、LinkedIn帖子里、YouTube视频论文里、学生的作业里,甚至你自己正在写的这段话里。
用户们给出了专业术语,有人管它叫“否定平行结构”,有人叫“对比性平行结构”,还有人叫“辩证性对冲”或“修辞性平衡”。不管叫什么,共识很明确:这个句式正在以惊人的速度殖民人类的语言系统。更讽刺的是,AI模型本来是从人类写作中学习这些句式的,但AI过度使用后,人类反过来开始模仿AI,形成了一条完美的自噬循环。
数据图表揭示的真相
发帖人提供了一张信息图,展示了过去二十年美国大公司文档中“不是...而是”句式的使用频率变化。2005年只有可怜的1.8K次,到了2010年增长到19K次,再到2020年飙升至2.7M次。但真正让人瞳孔地震的是2024年和2025年的数据——这两年分别都翻了一番。
这张图的潜台词非常清晰:疫情之后,随着ChatGPT等大语言模型进入主流商业应用,这种句式像病毒一样在企业文档中蔓延。为什么是公司文档?因为公司文档恰好是最容易被AI渗透的领域——报告、战略文件、内部通讯、市场材料,这些都是ChatGPT的日常任务。
用户“AnonymousTimewaster”在评论中指出,维基百科把这种结构叫做“否定平行结构”。
这个术语听起来很学术,但实际上解释了一个简单现象:你先否定一个常见认知,然后抛出一个更高大上的替代说法。这种修辞手法在演讲和写作中本来很有效,因为它在听众脑子里制造了一个小小的认知冲突,然后立刻用新信息填满那个缺口,让人产生“原来如此”的快感。
但问题在于,当AI把所有内容都用这种结构来组织时,这个修辞手法就从“亮点”变成了“噪音”。
用户“The_Failord”说得更直接:“这不只是术语问题,这是模式匹配上了超级兴奋剂。”AI模型在训练过程中发现这种句式很受欢迎、很安全、很通用,于是疯狂使用,完全不懂得节制。
AI偏爱这个句式的内部逻辑
用户“Logical-Answer2183”做了一件很多人都会做但很少贴出来分享的事情——他直接问ChatGPT为什么自己说话那么重复。ChatGPT给出了一个坦诚到让人不舒服的答案。
这个回答的核心逻辑是这样的:AI模型优化的是“概率正确性”,而不是“风格多样性”。训练过程中,模型被奖励那些在各种上下文中都“安全”的表达方式,而不是那些有创意但可能出错的表达。所以模型自然收敛到了一种统计平均的写作风格——清晰、语法正确、中立无攻击性。这种风格在统计学上很安全,但在风格上非常无聊。
第二个原因是模型上面还有一层约束系统,通过强化学习来让模型保持一致、不冒犯任何人、容易理解。这就像给AI套上了一件灰色制服,把输出推向可预测的短到中等长度句子、明确的过渡词、最低限度的歧义。人类写作之所以多变,是因为人类可以容忍模糊和前后不一致,而AI一旦这样做就会被惩罚。
第三个原因是逐词生成机制造成了一种惯性。一旦句子以一种结构开头,最高概率的延续往往会保持在同一结构里。人类可以在一个段落中间突然转变语气或句法,但AI会像一辆重型卡车一样沿着同样的车道继续开下去,很难突然转弯。
最后一点更扎心:AI没有持久的个人声音。每一次对话都是重新生成的,不会像人类那样积累怪癖和习惯。所以当你反复使用同一个AI时,你感受到的不是风格上的演变,而是重复带来的疲劳。
评论区众生相
大家已经无法直视这个句式了
用户“axiomaticdistortion”说出了所有人的心声:“一旦你知道了,就再也看不见了。只要读够多的LLM生成内容,你就会开始识别出来。”这句话在评论中被反复引用,几乎成为了这个帖子的一句口号。
更让人焦虑的是,这种识别能力正在变成一种被动技能,就像你学会了一个新单词之后突然发现到处都是它。用户“SomewhereNo8378”分享了自己的工作场景:“我在队友和公司文档里天天看到这个句式。我们把这些东西发给公众看,我们需要AI素养来抓住这些问题。”这句话反映了一个现实问题:AI生成的内容正在以未经审查的方式进入公共领域,而大多数读者还没有发展出识别能力。
用户“mrdarknezz1”则把矛头指向了YouTube:“我再也听不了YouTube视频论文了,它们听起来都一个样。”另一位用户补充说,最糟糕的不是AI直接生成的文字,而是真人念着AI写的劣质脚本,那感觉比直接读文字还要难受。
这个句式已经成了抓bot的测谎仪
用户“KoolKat5000”直言不讳:“我讨厌这个句式。但它确实对发现bot很有用,看到的数量让人大开眼界。”评论区里好几个人都承认,他们现在会主动搜索这个句式来判断一篇文章是不是AI写的。
用户“27Suyash”分享了一个让人又好气又好笑的经历。他在Reddit上指出明显的bot在使用这个句式,结果收到了这样的回复:“不是每个完整的句子都是AI写的”和“不像你,我们知道怎么写基本的英文句子”。他放弃了继续解释,因为“他们就是没有那个眼力”。
用户“doodlinghearsay”对此有更尖锐的观察:“很多说这种话的人自己就用AI,他们想模糊界限或者对观众进行煤气灯操控。如果你和这些人有更多互动,这本身就是关于他们的一条有用信息。”这个视角把问题从“如何识别AI”升级到了“如何识别那些想掩盖AI使用痕迹的人”。
人类开始反向模仿AI
用户“fongletto”提出了一个更深层的问题:“人们暴露在某种语言环境中会不由自主地模仿。所以我预期相当一部分增长实际上来自于人们只是在模仿ChatGPT的口吻。”这句话点出了一个文化反噬现象:AI学习人类,人类再学习AI,形成一个自我强化的循环。
用户“alliebot12345”举了一个例子:“‘重要的是注意到’这种表达在早期ChatGPT版本中极其常见,我注意到每天都用这个短语的用户数量急剧上升,甚至在日常口语中也是如此。”这个观察很敏锐,因为“重要的是注意到”这种过渡词比“不是...而是”更隐蔽,它嵌入在句子内部,不易察觉。
用户“JacksGallbladder”用一个问题概括了整个困境:“可怕的是,越来越难分辨网上的帖子到底是AI bot变多了,还是越来越多的人在从AI bot那里学习这种语言。”这个问题没有简单答案,因为两种趋势很可能同时发生。
用户“OliKahn28”把这称为“反向图灵测试竞速赛”:“我们现在都在校对文稿,确保自己听起来不像AI,这绝对是本十年最奇怪的文化转变之一。”他接着说:“比起读那些整天担心自己听起来像AI的人类写的文字,我宁愿读AI写的文字。”这种自嘲式的幽默贯穿了整个评论区。
遭殃的不只是这个句式
用户们很快在评论区列出了其他已经被AI污染的语言特征。首当其冲的是“破折号”——确切地说是“长破折号”或“em dash”。用户“bir_iki_uc”说:“长破折号对我来说更重要,但至少那个白痴用的是双破折号而且过度使用,所以我还能在需要的时候用自己的。”他说的“那个白痴”指的是某种特定的AI输出风格。
用户“el_cul”分享了一个狡猾的小技巧:“每次我把ChatGPT的回答复制粘贴到邮件里,我都会把长破折号换成标准大小的连字符。就像狐狸掩盖自己的踪迹。”这个评论让很多人会心一笑,因为这说明大家已经开始有意识地编辑AI输出,让它看起来更“人类”。
第二个遭殃的表达是“quietly doing something”(悄悄地做某事)。用户“healthyhoohaa”吐槽道:“X在悄悄地做Y,最近什么人和什么事都在悄悄做点什么。”另一位用户补充说:“我的回复里有太多‘悄悄地’,简直垃圾。”这个表达在商业写作中本来用于描述一种低调但重要的趋势,但现在已经被AI用烂了。
第三个是“here is the thing”。用户“Extra-Organization-6”分析得很到位:“最让我受不了的是‘事情是这样的’,后面跟着一个结构完美的三段式解释,根本没有人会真的这样打字。真人就直接说事儿了,不会先宣布一下。”这种“先声明再说事儿”的结构是AI的典型特征,因为AI需要为每一个观点建立框架,而人类在自然对话中会跳过这些框架。
用户“Major_Shlongage”还指出了一种格式污染:“还有那种文章,每句话写成一个段落。为了强调。没有炒作。没有废话。只有纯粹的原始力量。”这种格式在营销文案中本来有效,但现在已经泛滥到让人本能地反感。
语言学专业户进场
几个评论者试图为这个现象提供学术框架。用户“DeliciousJello5704”列出了一堆术语:“我见过很多术语来描述AI爱用的这种句式,比如正题-反题、辩证性对冲、让步框架、修辞性折中、对比推理、修辞平衡。它比长破折号更致命,大多数时候都是如此。”
用户“The_Failord”立刻接话:“比长破折号致命得多。长破折号没问题,经常写作的人一直在用,但一个段落里出现五个‘不是X而是Y’?拜托了。”这段对话说明了一个有趣的现象:人们可以用一个语言特征来掩盖另一个语言特征,但AI的语言指纹是全方位多角度的,你堵住了破折号,还有句式结构;你改掉了句式结构,还有过渡词;你改掉了过渡词,还有段落格式。
用户“The_Meme_Economy”提出了一个更细致的区分:“我喜欢‘辩证性对冲’和‘修辞性折中’这两个词。但我不知道这些术语是否特指这个句式,它们更多是概括了这些模型输出的大量内容。”这个区分很重要:这个句式只是AI语言风格的冰山一角,底下是一整套思维和表达模式的同质化。
最幽默的回应来自用户“DeliciousJello5704”:“我就是喜欢‘辩证性’这个词,因为它听起来像是‘魔鬼般’和‘异端邪说’的混合体,用在这个语境下很合适。”这种自我解嘲式的评论让整个讨论保持了轻松的氛围。
有人怀念过去,有人已经放弃
用户“ArchitectNebulous”表达了一种失落感:“我还是觉得很遗憾。我以前会用‘否定平行结构’来强调某些对话或关键点。很少用,只用在那些我真的想强调的特定点上。但现在整个写作风格都被禁忌化了。”这段话代表了一类人群:他们本来就掌握并适度使用这些修辞技巧,但因为AI的滥用,他们被迫放弃了自己的一部分表达自由。
用户“Spare_Possession_194”回应说:“长破折号也一样。”用户“dishrag”立刻跳出来用全大写抗议:“你从我冰冷死掉的手里抢走我的长破折号吧。”这段对话充满了黑色幽默,因为写信的人刚刚用了全大写来表达情绪,而全大写本身也是AI很少使用的一种表达方式——AI太礼貌了,不会喊叫。
用户“Jayrandomer”淡定地说:“作为一个热爱长破折号但讨厌这种说话方式的人,我很庆幸这次我不用这个句式。”这句话的分界线很清楚:他热爱一个被AI污染的特征,但讨厌另一个被AI污染的特征,而且他确认自己本来就不用后者,所以不用被迫改变。
人类模仿AI的因果链条
用户“fongletto”的观点值得单独展开。他指出人们会无意识地模仿自己频繁接触的语言模式,这就像你和一个带口音的人聊了半小时后自己也会带上那种口音一样。只不过现在,我们每天都在和ChatGPT进行数千次“对话”——通过搜索结果、推荐内容、社交媒体帖子、工作邮件、学习材料等等。
这种模仿有几个层次。最浅的层次是词汇和短语层面的模仿,比如“重要的是注意到”、“事情是这样的”、“值得指出的是”这类AI最爱用的过渡词。中间层次是句式层面的模仿,也就是这个帖子讨论的“不是...而是”结构。最深层次是思维逻辑层面的模仿——AI喜欢先否定一个常见认知,然后提出一个修正观点,这种“否定-修正”模式正在重塑人们如何组织和表达自己的想法。
用户“mczyk”甚至认为“这正在教会人们更有效地写作和组织思路”。但用户“frogspyer”立刻反驳:“学习这种通常完全多余的表达方式,一点也不高效。”这场辩论在评论区没有分出胜负,但双方都承认了一点:无论这种影响是好事还是坏事,它确实在发生,而且规模巨大。
用户“ithkuil”从技术角度解释了为什么AI会过度使用这种句式:“AI学习的是‘优秀写作者’的分布,而不是平均写作的分布。从训练数据的角度看,这种句式确实被标记为‘有效写作’,所以模型会倾向于使用它。但每个生成请求都是独立的,AI看不到自己在不同任务中重复使用同一个句式。如果AI能看到自己在几乎每个任务上都这样做,它可能会意识到自己过度使用了。但除非你在每个新请求中都包含所有之前的输出,否则AI不知道自己在重复。”
AI自述为什么这么说话
用户“Logical-Answer2183”贴出的ChatGPT自我分析是整个帖子中最有信息量的内容之一。我把这段回答重新组织一下,让它更容易理解。
AI说,训练数据虽然来自大量不同来源,但模型优化的目标是产生“大概率正确”的序列,而不是“风格多样化”的序列。这个目标设置导致模型天然倾向于使用那些在各种上下文中都被接受的安全表达方式。结果是,模型的输出风格实际上是所有训练数据风格的统计平均值,虽然技术上来自很多源头,但感觉上非常重复。
第二个约束来自模型之上的对齐层。OpenAI等公司通过强化学习和政策约束,让模型保持一致、不冒犯、易理解。这就像给AI加了一个风格滤镜,过滤掉那些有趣但可能出格的表达。人类写作者可以今天写一首诗,明天写一份技术文档,后天写一封抱怨信,风格跨度极大。但AI被限制在一个相对狭窄的风格区间内,因为任何偏离都可能带来风险。
第三个因素是逐词生成机制。AI每次只预测下一个最可能的词,一旦句子以一种结构开头,后续的词就会倾向于维持这个结构。人类可以在句子中间突然转折,比如“我今天本来想去超市,但算了,我们点外卖吧”,这种转折在语法上不完美但很自然。AI很少这样做,因为它被训练成追求语法上的完美和逻辑上的连贯。
最后一个因素是AI没有持久的个人身份和记忆。每个会话都是全新的,AI不会像人类那样在多年写作中积累独特的怪癖、习惯和风格特征。所以当你反复使用AI时,你感受到的不是一个有个性的写作者在进化,而是一个统计模型在重复它最擅长的模式。
AI在回答的最后给出了一个实用建议:如果你想让输出不那么像AI,你可以主动要求它用碎片化句子、用俚语、故意变化句子长度、或者模仿某种特定口吻。AI能做这些,但它不会默认这么做,因为这些风格不够“普遍安全”。
语言污染的未来
用户“fongletto”提出的“人类模仿AI”观点,引发了关于语言污染未来的更深层次讨论。用户“Min-Avocado-9624”问道:“当人们开始用一种不会被怀疑是LLM写的风格来写作,而这些新写作风格又被用来重新训练数据时,会发生什么?”这是一个典型的自噬循环:人类为了不被误认为AI而改变写作风格,AI再学习这些新风格,人类再进一步改变,如此循环往复。
用户“InternetSandman”用一个生动的类比回答了这个问题:“别担心。AI也会开始用AI生成的内容来训练,所以我们很快就会看到LLM版本的‘把同一个视频在YouTube上重新上传1000次’。”这个类比很准确,因为视频压缩会损失画质,而AI用AI生成内容训练会损失语言的自然性和多样性。每一次循环都会让输出变得更同质、更“平均”、更缺少人性。
用户“raxmb”提出了一个技术性的修正猜测:“但我猜这种特定句式的过度使用,更多是RLHF(基于人类反馈的强化学习)的产物,而不是预训练数据本身的问题。”如果这个猜测正确,那么这个问题可以通过调整RLHF流程来缓解——也就是说,OpenAI等公司可以主动惩罚这种句式在AI输出中的使用。但问题是,他们为什么要这样做?从商业角度看,“听起来像AI”并不是一个需要解决的问题,因为大多数用户并不在乎,甚至可能更喜欢这种清晰、安全、可预测的表达方式。
用户“ThePikesvillain”提供了一个有趣的历史视角:“这似乎是2000年代早期苹果公司喜欢用的那种表达方式,然后其他科技公司都想模仿苹果(所以这些年来稳步增长),然后AI把这种表达方式当作‘听起来划时代和聪明’的首选样本,然后我们就走到了今天。”这个历史脉络让整个现象有了一个更长的叙事弧线:不是AI发明了这种句式,而是AI从商业写作中学会了它,然后把它放大到了滑稽的程度。
生存策略:如何不让自己听起来像AI
评论区里散落着各种实用的生存建议。用户“rafio77”说:“这个句式要杀了我。我现在每稿都用Ctrl+F搜索它,还有长破折号和‘事实上’开头的句子。”这是一个标准的三件套检查清单:句式结构、标点符号、过渡词。
用户“el_cul”分享了他换掉长破折号的技巧,另一位用户补充说:“通常逗号、冒号或分号就够用了。AI过度使用长破折号。”这些技巧的核心思想是:AI倾向于选择“安全”的标点和结构,而人类写作中充满了不那么“完美”但更自然的选择。
用户“OliKahn28”给出了一个更宏观的观察:“我们都在校对文稿,确保自己听起来不像AI。”这句话听起来像玩笑,但它描述的是一个真实正在发生的文化现象。人们开始对自己的自然写作产生怀疑,这种怀疑本身就是AI带来的新焦虑。
用户“VP-of-Vibes”用一个诗意的比喻总结了这一切:“长破折号是第一个牺牲品。现在是句式结构。人们在实时编辑自己自然写出的文字,只是为了证明自己不是软件。这很新鲜。‘什么让写作看起来像人’这个问题以前是一个文学理论辩论。现在它只是一个星期二。”
这句话的精髓在于它指出了问题的荒谬性:一个曾经属于人文学科核心领域的深奥问题,现在变成了每个人在日常写作中都要面对的实际困扰。你不需要一个文学理论学位来判断一段文字是否“像人写的”——你只需要注意自己是不是用了太多“不是...而是”句式。
总结
这个帖子和它的评论区向我们展示了一个荒诞的现实。人类教AI说话,AI学得太好了,然后人类开始模仿AI,最后人类需要重新学习如何听起来不像AI。这是一个完美的自噬环,就像一条狗追着自己的尾巴跑,跑得越快,尾巴看起来越远。
更荒诞的是,这种句式本身并没有错。它就是一个正常的修辞手法,就像一把锤子。但AI用锤子干了一切活儿——钉钉子、拧螺丝、切菜、梳头、刷牙,全部都用同一把锤子。所以现在你只要看到有人拿着锤子,你就会怀疑这个人是不是AI。但问题是,有些人本来就用锤子,而且用得挺好,他们现在不得不扔掉锤子,用手拧螺丝,然后扭伤了手腕。
评论区里有人提到“苏格拉底式提问”,有人提到“西蒙·西涅克式演讲”,有人提到“苹果式营销”。这些源头都有一个共同点:它们都是“听起来很深刻”的说话方式。AI学到了这个套路,然后把这个套路当作自己的默认输出模式,因为它发现这样说话能获得正向反馈——用户喜欢“听起来很深刻”的回答。
问题是,当AI每次回答都“听起来很深刻”时,“深刻”就变成了“浅薄”。就像一个笑话讲一百遍就不再好笑一样,一个句式被用一万遍就不再有力。AI没有意识到这一点,因为它没有幽默感,也没有审美疲劳。它只是在做它被训练去做的事情:最大化概率正确性。
最后,我们面对的是一个语言生态系统的变化。不是某一个词或某一种句式在变化,而是整个写作风格的多样性在下降。AI就像一种语言寄生虫,它不会杀死宿主语言,但它会让宿主语言变得越来越单调、越来越可预测、越来越“平均”。而人类作为宿主,正在无意识地感染自己,因为我们每天都在阅读和模仿AI生成的内容。
这种语言同质化的长期影响是什么?没有人知道。但可以肯定的是,未来的人类读2020年代的文字时,会像我们今天读1950年代的企业备忘录一样,一眼就能看出那种时代的语言风格。只不过,2020年代的语言风格不是由某个作家或某个运动定义的,而是由一个统计模型定义的。