专栏名称: 大数据文摘
普及数据思维,传播数据文化
目录
相关文章推荐
51好读  ›  专栏  ›  大数据文摘

哈佛新论文揭示 Transformer 模型与人脑“同步纠结”全过程!AI也会犹豫、反悔?

大数据文摘  · 公众号  · 大数据  · 2025-05-11 12:00

正文

请到「今天看啥」查看全文


  • 相对信心(正确vs直觉答案)
  • boosting(模型在某一层对正确答案的主动“拉高”)

  • 这些东西听起来很技术,但可以简单理解为: AI每一层都在“思考”,每过一层,它对答案的信心发生了一点点变化。

    有的题,AI一上来就很有把握,信心很快升高;有的题,AI在中间反复徘徊,甚至先押错,再修正。

    这和我们人类做题的“熟练-犹豫-反应慢-反悔-最终确定”是不是很像?

    02 实验结果:AI和人类“走弯路”的相似瞬间

    图注:研究中分析的人类任务示意图。(a) 回忆(自由回答)首都名称。(b) 识别(强制选择)首都名称。(c) 通过鼠标移动对典型和非典型动物实例进行分类(Kieslich 等, 2020)。(d) 判断三段论推理的逻辑有效性。(e) 对分布外图像进行物体识别。

    论文做了几个个实验,分别对应不同的认知任务和人机对比:

    ①“首都杀手题”——AI和人类的集体下意识。

    图注:研究1a(回忆首都),Llama-2 7B模型。(a)-(d) 基于模型各层计算的处理指标。(e) 各指标相较于基线模型的BIC差异。数值越高越好。星号表示统计显著。

    比如,美国州首都题。这题在答题界有个绰号,叫“首都杀手”:

    • 出题人问:“伊利诺伊州的首都是哪?”
    • 人类几乎下意识地想说:“芝加哥!”
    • 然后突然一个激灵,想起,“不对,是斯普林菲尔德!”

    以为这样的“反转”只有人类会有?其实AI也会!

    论文里的Llama-2模型,每一层都像个小AI脑细胞在投票。结果显示:在模型的中间层, AI的信心值一度“押宝”在芝加哥上 ,就像脑海里那个脱口而出的错误答案。可到了后半程,随着层数加深,AI忽然“刹车”,把信心转回了 斯普林菲尔德







    请到「今天看啥」查看全文