正文
●
小北的当事人使用AI查询资料,出现虚构案号。讲述者供图
一本正经地胡说八道
每一个生成式AI都会说谎,这是“基因”问题。在业内,这个现象有个专业术语——AI幻觉。
从事大模型应用工作的郝明解释,AI幻觉通常分两种,事实性幻觉和指令遵循的幻觉。前者指事实性错误或编造信息;后者可能没有事实性错误,但“它不按照你要求的方式作答,或者是它输出的内容和预想的方向不一样”,比如你问AI,“糖尿病患者可以食用蜂蜜吗?”AI却回答,“蜂蜜富含维生素和矿物质,因此是一种健康的食品。”
AI幻觉出现的原因,本质上是由它的基础工作原理决定的。ChatGPT等大语言模型不是超级搜索引擎,它们通过大量的训练数据,学习的是文字之间的概率统计,郝明说,“它的工作原理简单来讲就是,基于前面已经输出的n个字符,去预测下一个词出现的概率。”
如果你询问AI“今天天气很”,它会给出“好”或“坏”两个词,因为在它海量的数据里,这些词语出现的概率更高。
然而概率预测这个方式本身就具有不确定性,一位作者曾经让AI以三国历史背景为素材写故事,发现文笔和情节设计的都不错,但涉及到具体时间点就很容易出错。
出门问问大模型团队前工程副总裁李维总结,大模型在涉及具体实体,比如人名、地名、书名、时间等信息时最容易出错,“这和人脑有相似之处,我们也记不住所有细节。大模型在消化数据时采用的是一种抽象过程,它试图从大量数据中找出各种规律,而不是记录所有细节。”
因此,当AI被问到不确定的内容时,它会根据统计规律为用户编造看起来最顺畅、有可能发生,但很可能不准确的细节。这也是为什么很多人会觉得,有时候AI在一本正经地胡说八道。
郝明补充,大模型会抓取网络内容进行训练,这些内容本身就包含虚假信息,也会导致AI幻觉的出现,“如同小朋友学习一样,你给他的学习资料就有问题,那他表现出来的内容也不会好。”
在核查确认DeepSeek编造了文献资料后,康凯第二天发了另一个帖子,承认之前太轻信AI。但他强调,不能因此全盘否认AI,某种程度上,他认为AI是善于反思纠正自己的错误认知的,“我不断换角度问,它也会难以自圆其说,然后不断去纠正错误,提出新的方案。”
但AI真的有自我反思能力吗?一位网友提过一个问题,“AI在说不通的时候,就会道歉,但是道歉之后是否真的理解人纠正的意思?AI能意识到主动糊弄和被动迎合之间,表达道歉的层面吗?”
在这个问题上,AI给出的回答倒是很坦诚,它会告诉你,AI系统设计时就包括了错误处理与反馈机制,AI的道歉行为也可能源于训练数据中包含的大量人类对话样本,其中包括了许多道歉和感谢场景。它最后会总结,AI的道歉行为“本质上是基于算法的自动化响应,而非真正的意识或情感表达”。
李维曾经在公开论坛上指出,AI没有主动的意图,“AI的一切行为,无论翻译、解题、问答、聊天,这些用词都是拟人的,只是电路和模型在运行。大模型的智能表现和回应,本质是基于概率模型进行的。”
但另一个有意思的概念是,多项研究证明,AI有“讨好型人格”。美国人工智能企业Anthropic2023年对多个AI助手进行研究,发现在自由文本生成任务中,这些AI助手普遍存在“讨好”用户的模式,比如用户质疑时,它们经常毫不犹豫承认错误,提供有偏向的反馈,甚至模仿用户的错误。