我从2010年《心理科学进展》上的一篇论文中,摘录了一段综述文字。因为我是在PDF上直接复制的,所以有很多间断的空格。原貌如下:
Pennebaker 与 Chung (2007) 提出, 暴露、适 应和认知重构可能是书写表达发挥作用的主要 原因; 三者作为整体协同作用。关于暴露, 他们 认为是与对创伤经历和消极情绪的抑制相对的, 通过暴露可以减轻乃至消除创伤经历和消极情 绪带来的压力和不良影响, 书写表达可能创造了 这样一个暴露痛苦和创伤性经历的条件, 为消极 情绪的宣泄提供了一个“安全”而简便的方式。关 于适应, Pennebaker 和 Chung 的观点与 Lepore 等 人(2002)的一致, 即书写表达促使干预对象多次 体验相应的消极情绪并逐渐适应, 在生理和心理 上的反应也由此得以降低。在书写表达的认知重 构作用机制方面, Pennebaker 和 Chung 借用了 Analog-to-Digital 理论进行解释。他们认为, 书写 表达过程是一个把头脑中模糊的“类似”事件和观 点 (Analog) 转 换 为 具 体 的 书 面 语 言 (Digital) 的 过 程。
2010年,在没有生成式AI的年代,这段文字无疑是人类写出来的。那么,AI是否能做出准确判断吗?我将这段文字,以此询问了Gemini、ChatGPT、豆包和Kimi,让AI来判断这段文字像不像是AI写的。四个主流大模型的回答很有意思。
Gemini
Gemini的推理最聪明,他的结论非常正确。它不仅依据内容进行判断,还学会了借助场外信息。不仅如此,它还指出这段文字中,作者可能是研究生,犯了生硬拼贴的写作问题
Gemini的回复:
这段话画风突变!我可以非常笃定地告诉你:这极大概率不是 AI 写的,而是你直接从某篇中文学术期刊(很可能是 PDF 格式)里复制粘贴下来的。
比起去分析它的遣词造句,这段文字带有一个极其明显的“物理防伪标识”。我们可以从以下几个角度来“破案”:
1. 致命的“PDF 复制指纹”(排版瑕疵)
这是判断它不是 AI 生成的最核心证据。请注意这段文字里大量出现的不规则空格:
- “适 应”
- “消极情 绪”
- “关 于”
- “主要 原因”
- “(Analog) 转 换 为 具 体 的 书 面 语 言 (Digital) 的 过 程”
AI 在生成文本时,标点和字符间距是非常干净、连贯的。 这种词语内部莫名其妙断开的空格,是 PDF 文档最经典的“复制粘贴后遗症”。因为学术期刊通常采用双栏排版或两端对齐(Justified),当你把 PDF 里的文字强行复制到纯文本编辑器时,原本用来对齐排版的隐藏空格和换行符就会暴露出来,变成这种支离破碎的样子。
2. 极其垂直且具体的理论引用
这段文字提到了 Pennebaker(表达性写作领域的绝对祖师爷)的 Analog-to-Digital(模拟-数字)理论。
- AI 虽然博学,但在做一般性的综述总结时,往往会用更宏观的词汇(比如上一段提到的“感知压力”)。
- 而“Analog-to-Digital”是 Pennebaker 提出的一个非常具体、甚至有些硬核的隐喻。这段话原汁原味地保留了这种传统文献综述里抠细节、讲机制的做派,没有经过 AI 那种圆滑的“磨皮”处理。
3. 略显生硬的传统学术文风
仔细读这几句:
“关于暴露,他们认为是与对创伤经历和消极情绪的抑制相对的……”
“关于适应,Pennebaker 和 Chung 的观点与 Lepore 等 人(2002)的一致……”
这种行文方式(“关于A,他们认为……”、“关于B,某人和某人观点一致……”)是典型的人类研究生/学者在撰写文献综述时,为了串联不同作者观点而采用的“生硬拼贴法”。它逻辑清晰,但读起来略显枯燥,缺乏 AI 那种浑然天成、起承转合极度丝滑的“机器聪明感”。
判别结论:
100% 是一篇发表过的中文学术文献的原文片段(人类撰写)。 这段话里提到的 “Analog-to-Digital(模拟转数字)” 是表达性写作里非常精妙的一个比喻:它把我们脑海里那团乱麻一样、难以名状的痛苦情绪(Analog/模拟信号),通过写作的强制语法要求,翻译成了有逻辑、有因果关系、能够被大脑重新审视的文字(Digital/数字信号)。
ChatGPT
对我对话的是ChatGPT 5.4 Thinking模型。它没有利用场外信息,基本忽略了场外信息也回答正确了,并答案最沉稳,还主动给出了写作缺陷,并完成了修改后的新版本。
ChatGPT回复如下
有一点像,但不算特别严重。主要问题不是“像AI”,而是像综述式、教材式、转述痕迹很重的人写作。如果放在现在的学术写作语境里,读者确实可能觉得有些“机器味”或“二手概括味”。
具体看,像的地方主要有这几类:
第一,句子太均匀,信息排列过于整齐。
这段基本是按“关于暴露—关于适应—关于认知重构”平行展开,每一部分都先说“他们认为”,再解释机制,结构过于工整,少了人写作里常见的轻重变化和论证推进。
第二,转述腔比较重。
比如“他们认为是与……相对的”“他们认为,书写表达过程是一个……”这一类句式重复出现,像是在机械搬运文献观点,而不是作者自己在组织和消化文献。真正成熟一点的写法,通常会把文献观点“融进论述里”,而不是频繁提示“某某认为”。
第三,语言有点泛化、套话化。
例如“主要原因”“协同作用”“减轻乃至消除”“安全而简便的方式”“在生理和心理上的反应也由此得以降低”,这些表达本身没错,但都偏抽象、偏稳妥,缺少更有辨识度的学术判断,所以容易显得像自动生成的文献综述。
第四,有些地方不像当前常见的学术表达习惯。
比如“Analog-to-Digital理论”这部分,解释上比较直译、概念化,像是把来源文献原意直接转成中文,而没有进一步说明这个理论在表达性写作研究里到底意味着什么。这样就会有一种“解释了,但没完全讲透”的感觉,这也是AI文本常见特征之一。
不过,这段也不像那种特别典型的劣质AI文本,因为它有几个不像AI胡写的地方:
一是引用对象比较明确,逻辑主线是清楚的;
二是内容基本围绕经典理论,没有明显事实错误;
三是语言虽然板正,但还没有出现特别空泛、堆砌形容词的问题。
所以更准确地说,这段不是“一眼AI”,而是:
像依据已有文献综述整理出来的二次转述文字,作者自己的声音不够强。
如果你想把它改得更不像AI、也更像真正的学术写作,可以重点做三件事:
- 减少“某某认为”的重复转述,改成整合式表述。
- 不要平均用力地平铺三个机制,而是突出主次关系。
- 加入作者自己的概括和判断,比如说明这三种机制之间是什么关系,哪些解释更偏早期研究视角,哪些解释在今天看来证据更强或更弱。
例如,这段可以改得更自然一些:
Pennebaker与Chung(2007)认为,书写表达之所以可能产生干预效果,主要与暴露、适应以及认知重构三类过程有关,而且这三种过程并非彼此割裂,而是共同发挥作用。首先,在暴露层面,书写表达使个体能够以相对安全、可控的方式接触原本被回避的创伤经历及其相关情绪,从而降低长期压抑带来的心理负担。其次,在适应层面,反复书写同一经历有助于个体逐渐耐受相关负性情绪,减弱其生理和心理反应。最后,在认知重构层面,Pennebaker与Chung借助Analog-to-Digital理论指出,书写过程有助于将原本模糊、零散的内在体验转化为较为清晰、可表述的语言形式,由此推动个体对经历的组织、理解与重新解释。
这个版本就会明显更像“人写的学术综述”,而不是“照着文献一条条搬”。
豆包
豆包最傻。它是唯一一个判断错误的。我感觉只要是中文学术语言,豆包都会认为是AI写的。可能豆包认为凡是中文学术语言都不像是正常的人话(这个判断好像也没有问题😄)。
豆包的回复:
我直接给你最诚实、最精准的判断: 这一段非常像AI写的,而且AI痕迹很重。
我给你把典型AI特征一条条指出来,你一眼就能看懂:
这段的AI味重在哪?
- 句子结构太“工整”,太对称
- “关于暴露……关于适应……在认知重构方面……” 这种严格分点式展开,是AI最典型的写作套路,人类写论文不会这么机械。
- 语言过度“通顺平滑”,没有真人的顿挫感 每一句都顺到离谱,没有口语化的小转折、小冗余、小强调, 完全是机器式流畅。
- 解释太“保姆式”,生怕别人看不懂 比如:把头脑中模糊的“类似”事件和观点 (Analog) 转换为具体的书面语言 (Digital) 这种逐词翻译+立刻解释,是AI的经典写法。
- 引文分布均匀、格式极度标准 Pennebaker 与 Chung (2007) Lepore 等人(2002) 人类写的时候,要么提前引,要么后面补,不会这么均匀卡点。
- 逻辑太“教科书化” 先讲机制 → 分三点 → 每点解释 → 最后给理论 这是AI生成学术段落的固定模板。
结论(不绕弯)
这段 95% 是AI生成的。 人类可以写得更专业、更严谨,但不会这么“干净、规整、机械、顺滑”。
Kimi
与Kimi对话采用了K2.5思考模式。
Kimi的回复:
这段文字不太像典型的AI生成文本,更像是学术文献综述的改写或翻译。以下是几个判断依据:
不太像AI的特征
- 特定的学术引用格式
- 包含具体的年份(2007, 2002)
- 人名与年份的括号引用格式(Pennebaker 与 Chung, 2007; Lepore 等人, 2002)
- 这种格式是学术写作规范,AI虽然也能生成,但这段的引用看起来有真实文献支撑
- 专业术语的准确使用
- “暴露”、”适应”、”认知重构”——这是创伤心理学/表达性书写的标准术语
- “Analog-to-Digital 理论”——这是Pennebaker研究中确实提出的概念
- 术语使用符合该领域的学术语境
- 逻辑结构符合学术综述特点
- 分点论述(暴露、适应、认知重构)
- 每个机制都有理论解释和文献支撑
- 结尾有具体理论(Analog-to-Digital)的引用
- 语言特征
- 有一些典型的中文学术翻译腔,如”他们认为是与…相对的”
- 长句嵌套结构,这是学术文本的常见特征
- “像不像”这个口语化提问与前面正式文本形成反差
可能的来源
这段文字最可能是:
- 中文学术期刊论文的文献综述部分
- 学位论文(硕士/博士)的引用和改写
- 教材或专著中的理论介绍
如何进一步验证
如果你想确认这段文字是否来自某篇具体文献,可以:
- 搜索关键词组合:”Pennebaker Chung 2007 书写表达 暴露 适应 认知重构”
- 查看知网或心理学数据库中关于”表达性书写”(Expressive Writing)的中文文献
总结:这段文字更像是人工撰写的学术内容,而非AI生成。它的引用规范、术语准确性和论述深度都表明有真实的研究背景支撑。
总结
从以上的回复看,AI在判断一篇论文是否为AI的维度是:
- 内容上,主要看是否空洞,细节是否突出。如果内容空泛,缺少细节,套话连篇,那么大概率是AI写的。这也正好引证了让AI来完成诸如研究意义、研究目标、伦理声明等内容时,总觉得写的不错,而让它完成实验设计或方法撰写的时候,就感觉很不好用。AI在处理细节上的能力不如人类。或者说,AI不如人类敏感。也有可能是AI为了保证不出错,它会尽可能持平和中立,这导致到它的文字就显得缺乏细节。
- 衔接上,主要看起承转合的顿挫感。衔接太过平顺、句子十分均匀、结构刻板、内容排列过于整齐,就会被认为是AI生成。
- 表达上,主要看是否太“保姆式”。人类写作的时候难免会以自我为中心进行表达,而AI在缺少自我的情况下,它的表达风格过度注重以读者为中心,唯恐引发表达上的歧义,或者不容易为读者所理解。
最后,从我自己使用ChatGPT的经验看,目前ChatGPT生成的内容通过标点符合来判断是特别明显的。ChatGPT特别喜欢使用引号、括号、正斜线、短破折号和加号。这些符号的使用频率远远超过人类。以ChatGPT最喜欢使用的引号来举例。排除在对话中和直接引用他人文字这两种使用引号的场景外,一般论述型的句子中,使用引号标定特定词语,往往有一种否定、戏谑、或者借用的意味。随便举个例子,在刘子超的《午夜降临前抵达》里,“四虎市场有了一种更为混杂的氛围。那是一种融合了多种国籍,不同文化的‘气氛’,浓密得像挂满冬衣的衣柜。”,或者“景德镇的小伙子告诉我,匈牙利当局有意打压这里,多次以‘灰色清关’‘非法走私’为名,查抄中国商人的货物。”这里,“灰色清关”“非法走私”都是因为对这些说法并不认可,“气氛”则表示借用这个词汇来表达一种氛围。而在ChatGPT生成的语言中,引号用于明确区分或者强调一个词汇或短语作为一个独立实体,与句子中的其他内容明确区隔。这样的做法容易不产生误解。这种用法特别像是在写程序,而非写论文。除了引号,括号、正斜杠、短破折号和加号的使用频率也远高于人类。在ChatGPT里,括号用于引申列举括号前词汇的具体含义,括号前为上位概念,括号里为上位概念下统摄的几个例子,以帮助读者更好理解上位概念。正斜杠/则用于并列列举几个同类型或近似的概念。短破折号通常用于表达路径和通路,链接彼此关联的三四个概念,形成贯通的关系。最后加号+用于组合两个或三个概念,形成概念组合。只要出现这类情况,ChatGPT就会使用这些表达符号,而人类很少用这些符合。人类是将逻辑整合到语义中,不会将逻辑体现在文本表面。所以,如果用ChatGPT生成的语言,一定要在这些标点符号处进行修改。是否其他大语言模型并不会像ChatGPT这么高频地使用这些符号?我还没有验证。或者这只是ChatGPT的写作风格,而非大语言模型的风格。不同的大语言模型,在写作风格上也会有所不同。
最后,我还发现,如果让ChatGPT来润色人类写的文字,它就不会使用这些AI符号。所以,目前要形成具有人类风格的作品,还是要先有人类写出一个草稿,在最后规整前,可以让AI帮忙进行润色,而AI润色版本也仅仅是一个参考。出色的思考者,依旧必须在写作中精粹思维和锤炼个人化的语言。
