现在很多平台都对作者有一个或成文或不成文的要求,那就是写稿不能用 AI,你要是用了 AI,就必须严格标注“本文包含 AI 辅助创作”。
但是,很显然,作者们如无绝对必要,是断然不愿意给自己的文章打上这个标签的。
这就引发了一个问题,既然很难指望作者自己“坦白”,那么如何在众多文章中,鉴别出一篇 AI 稿呢?
有人说,看语言习惯。AI 写稿是有语言习惯的,比如说,豆包就特别喜欢说:“我给你一套最硬核、最实用、不绕弯的 XXXX,把结论直接钉死!”
有人说,AI 不能共情,那些看上去理性中立客观的文稿肯定是 AI 稿。
还有人说直接用检测工具,一秒出结果。但是也有人反驳说,他把自己 10 年前写的稿子扔给检测工具,得到的结果是 97% 为 AI 稿。
我估计你大概率也有同样的困惑:刷文章、看报告、读科普时,总会下意识多问一句“这是 AI 写的吗?”。我们似乎迫切地需要一个万能公式,最好能像做判断题一样,一眼分清 AI 和真人的区别。
为什么要识别AI稿?
但我劝你先别急着找答案,因为我们必须先解答一个更根本的问题:我们为什么要判断 AI 稿?
如果 AI 能写出比人类更深刻、更有价值、更能启迪智慧的文字,如果 AI 确实能帮我们拓宽认知、解决问题,那我们根本没必要费力气区分啊?
如果 AI 稿本身没问题,那么无法区分 AI 稿的代价,无非就是淘汰掉现有的作家而已。既然 AI 时代谁都可以失业,那么让所有作家彻底失业,又有何不可?
可事实是,我们之所以迫切想分清 AI 稿与人类稿,本质是因为 AI 稿存在无法回避的底层机制问题。
这并非否定 AI 的能力,而是要看清它的局限:大语言模型的核心机制,是输出深度与输入问题的深度严格匹配,换句大白话解释,就是一个简单的问题,它会优先给你一个浅层的、平均化的答案。
这与 AI 是否能够深入思考无关,因为 AI 的核心是服务用户,而输出的回答与用户的能力匹配,这是 AI 职责的一部分。
比如说,如果你只简单指令“写一篇关于 XX 的稿子”,AI 不会主动追问,也不会深入挖掘,只会调取数据中最主流、最稳妥的内容,写出一篇浅显、平庸的回答。并不是 AI 写不出有深度的内容,而是你没有给它足够深的输入引导。
同理,AI 也并非不能共情,只是它的共情的是主流共情。意思是,主流舆论怎么表达情绪、怎么共情某件事,它就跟着怎么表达,主流观点正确,它的共情就贴合大众。一旦主流观点有失偏颇,AI 也会跟着跑偏。
这种人云亦云的机制,恰恰是 AI 稿最隐蔽的危害。它看似正确、贴合大众,却不会提供任何新的思考,不会纠正主流的偏差,只会不断强化既有的认知惯性。这会让我们陷入信息茧房而不自知。说严重一点,这可能会让我们逐渐丧失独立思考的能力。
这也是我们需要判断 AI 稿的核心原因。我们不是排斥 AI,而是要筛选出能真正启发我们、有独立思考的内容,避免被平庸的主流拼接裹挟。AI 的创作太快了,如果不想办法分辨出 AI 稿,那些独立思考的内容将会被平均值淹没。
常见的误区
正是这些问题的存在,才让“判断 AI 稿”有了意义。
所以,我们必须一起推翻那些看似正确的误区。只有先排除错误,才能离真相更近。
误区一:不出错、没情绪的文章是 AI 稿
很多人说,AI 写的东西,全程语气平稳、没有错别字、没有语病,像教科书一样标准。而人类写的,总会有情绪波动、有口语化表达,甚至偶尔犯点小错。
但是,如果让一个写作水平很高的人刻意模仿 AI 的文风,写一篇语言工整,没有错误,没有情绪的的文章,你能分清吗?
显然不能。更扎心的是,现在的 AI 已经能主动模仿人类的不完美了。
你可以在提示词中明确要求:给我加入万分之五比例的错别字,模仿拼音输入法的常见错误”。
AI 绝对能够精准输出类似“这部作品的假肢(价值)远超预期”,“我们要中式(重视)知识的传承”这样的文字。把“价值”打成“假肢”,把“重视”打成“中式”,这和人类的输入法错误,几乎一模一样。
现在的 AI,早已能完美模仿人类的口语、语病、情绪甚至错别字。而人类,通过训练,也能写出像 AI 一样标准的文字。风格从来都不是谁的专属标签,它可以被模仿和伪装,当然就不能作为判断依据。
更关键的是:如果我们只用风格判断,就会陷入一个怪圈,那就是越完美的文字,就越容易被当成 AI。反而,粗糙的,错漏百出的文字,反而会被追捧。这就会导致我们努力追求劣品的奇怪现象。
但是,我们的目标从来就不是阅读错别字或者粗糙的的作品,这显然不是我们想要的答案。
误区二:有强烈观点的作品是人类写的
有人提出,AI 只会说正确的废话,只有人类会有自己的观点,甚至敢于反抗权威和主流,这就是文章的“人味”。
乍一看,这想法太有道理了。但仔细一想,依然有问题。
如果有大家都知道有观点就等于没用 AI,那会不会有人为了不像 AI,而故意抛出极端、错误的观点?会不会有人为了博眼球,专门把抬杠、反常识和偏激当成手段?
我觉得必然会。
我们见过太多为了反对而反对的文章了。这些文章要么没有论据,要么没有逻辑,只是开头靠一句极端观点吸引眼球。
AI 无法生成这类文章吗?当然能!AI 驳斥一个观点,根本不需要逻辑正确。驳斥对于 AI 来说,只不过是一种话术而已。
你就算是让 AI 想办法驳斥“地球是圆的”这样绝对正确的观点,它也能帮你想出各种奇怪的办法。很多办法的逻辑还很自洽。AI 会用看似严谨的话术拼接、偷换概念、以及各种各样的逻辑谬误,写出一篇语气激烈、看似有理有据的驳斥文。这足够让不了解真相的人读起来觉得有道理。
这说明,观点激烈偏激,从来不是什么人味儿,而是比正确的废话更加糟糕的,不仅无价值,甚至有可能是错误的垃圾。
所以,有观点不等于有人味,反主流也不等于原创。真正的人味,从来不是刻意装出来的,而是藏在文字背后的真实。
文章里,到底什么是真实?
我们不妨换个角度思考,AI 能模仿人类的语气、观点,甚至能模仿人类的错误,那么它到底有什么是一定做不到的?
答案很简单:AI 没有经历,没有代价,没有需要承担的责任。
AI 写的每一句话,都被你使用它之前的免责协议抹去了一切责任。他说的每一句话,无论对错,都不用负责。因为,哪怕这篇文章都是 AI 用你的账号发布的,哪怕上面标注着作者是豆包,你的账号也是唯一的身份背书。
顺着这个思路往下推演,我们就能找到那个人类独有的判断标准——可证伪性。
什么是可证伪?简单说,就是作者提出的观点,必须有被反驳、被推翻的可能,而且作者会清晰地告诉读者“如何推翻我的观点”。
比如,有人说,AI 无法写出有人味的文字,这不是可证伪的,因为“人味”两个字是模糊的,只要有人举出反例,他都可以回答说:这不是真的有人味儿。
再比如说,有人特别喜欢信誓旦旦说一大堆没证据的话,最后补充一句“懂的都懂”。言外之意就是,你不认同你就是不懂。这也是不可证伪的观点,与算命先生的信则灵如出一辙,毫无价值。
结论
推到这一步,你会发现,我们根本不需要纠结“这篇是不是 AI 写的”,我们只需要问自己一个问题:在这篇文章里,有没有作者自愿承担的“被证伪”的代价?
我们其实不是在判断 AI,而是在学着判断,什么是值得一读的文字。这不再是一个如何识别的“技术问题”,而是一个“价值问题”。
我们真正想区分的,从来不是 AI 和人类,而是“有价值的文字”和“无价值的文字”而已。
一篇文字,无论是不是 AI 写的,只要它不敢暴露自己的局限、不敢给出可证伪的观点、不敢为自己的表达负责,它就是平庸内容,价值不高,不值一读。
反之,一篇文字,哪怕使用了 AI 辅助创作,只要它信息准确,观点明确,边界清晰,同时作者愿意为错误承担代价的态度,那它就是一篇有人味的文章。
我们判断 AI 稿的核心意义,不是要揪出所有的 AI 作品,而是要找出可批量生产的劣质内容的共性:
没有可证伪的观点、没有承担代价的真诚、没有独立思考的痕迹,只有搬运、拼接、不负责任的表达和洗稿式的伪装。
无论是AI稿,还是手写稿,只要符合这些共性,就是我们需要筛选掉的低质内容。反之,可验证观点、有深度思考、负责任、敢担当的作品,哪怕借助AI完成,也一样值得我们阅读。
