正文
“用另一个AI,去判断这是不是AI写的。”
也就是说,我们现在在干一件极其荒谬的事情。
“让AI审判AI,最后把结果扣在人类头上。”
它不懂你是什么背景,不知道你是不是通宵写的,不知道你有没有复查文献、推敲措辞、修改逻辑,它只看语料、风格、用词概率。
只要你写得
太流畅、太规范、太有逻辑
,不好意思,可能就会被判成AI写的。
它不管你是不是人肉手写,只要你像是模型生成,它就把你打成AI。
那我想稳稳,什么才不是AI呢?那到底什么才是“人”写的呢?
我真的很想问一句:
这最后要的,到底是人类的思维,还是AI的漏洞?
这不是一个简单的误判。
这是我觉得,很多学校的教育系统、技术系统、管理系统,对AI认知的
深度误解与草率滥用。
我没有那么懂技术,但是根据我自己过去的知识和有限的了解,现在主流的AIGC检测工具,依赖的核心算法,我大概会归为3类,这3类,在检测文本是不是AI生成的上,各有各的问题。
第一类,叫困惑度与熵值分析。
这套逻辑其实特别搞笑。
它的底层逻辑是这样的:AI模型生成文字,通常很顺,因为它是从一堆可能性中挑概率最高的词来生成。
在专业术语上,跟困惑度相关的叫文本熵值,就是基于信息论的随机度量。
一个文本的熵可以通过字词分布来计算。所以,AI生成的文本可能在某些统计特征上熵较低,过于均匀或模式化,而人类文本熵值更高或者分布不同。
所以,如果你写得也很顺,语言平滑、逻辑清晰、用词自然,这个系统就觉得你“哦这过于不让人困惑”了,那没跑了,你一定是AI。
相反,如果你写得磕磕绊绊、断断续续,错别字连篇、语法错误频发,让人满脑子困惑,卧槽,那这才像人啊!
这就好比你去应聘一个岗位,答得太好被质疑背稿了,答得磕巴反而觉得你有灵魂。
这检测逻辑,离谱得很离谱。
第二种,是我觉得最能无语的,
机器学习分类器
。
他们会喂给AI一个大数据集,里面有人写的和AI写的例子,然后训练它去分辨你是哪边。
说实话,这方法在理论上没问题,但实际用起来,实在是过于操蛋了。