专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
相关文章推荐
数局  ·  艺恩:面膜行业消费趋势报告 ·  昨天  
网信河北  ·  加快工业高质量数据集建设 ·  11 小时前  
网信河北  ·  加快工业高质量数据集建设 ·  11 小时前  
CDA数据分析师  ·  【案例】如何使用WPS AI高效进行数据分析 ·  昨天  
人工智能与大数据技术  ·  Claude ... ·  3 天前  
51好读  ›  专栏  ›  数据派THU

最新发现!每参数3.6比特,语言模型最多能记住这么多

数据派THU  · 公众号  · 大数据  · 2025-06-15 17:00

正文

请到「今天看啥」查看全文



研究团队还借鉴了「信息论之父」 Claude Shannon 1953 的一项重要工作《The Lattice Theory of Information》的一些理论。该论文将他早期关于信息论中熵和信道容量的概念与数学中的格理论联系起来,为理解和处理复杂信息系统提供了新的视角。


这项研究激发了社区对蒸馏、量化、模型安全等方面的思考。


图片


图片


图片


图片


两种「记忆」:非预期记忆和泛化


在论文中,作者希望找到一个方法来量化模型对特定数据点的记忆程度,并且这种记忆定义要满足以下几点:


  • 与泛化区分开;

  • 能够针对具体的数据样本;

  • 不依赖于具体的训练算法;


统计学视角下的记忆定义


作者从信息论的角度出发,利用 「互信息(Mutual Information)」 来定义记忆。


在论文中,大写字母(例如 X、Θ)用来指代随机变量,小写字母用来指代随机变量的实例(例如 x ∼ X 和 θ ∼ Θ)。


信息论已经为随机变量发展出了被广泛理解的信息概念。对于随机变量 X,通常使用 H (X),即 X 的熵,来定义 X 中存在的信息量。此外,对于两个不同的随机变量 X、Y,可以将 X | Y 定义为在固定 Y 后 X 中剩余的不确定性。定义了这个量之后,现在可以通过从总信息中减去剩余信息来测量 X 和 Y 之间的互信息:I (X, Y) = H (X) − H (X | Y)。


现在假设有一个机器学习 pipeline。作者有一个关于底层模型的先验 Θ,它捕获了作者的数据集分布 X。作者有一个学习算法 L,它将来自 X 的样本映射到训练好的模型 。为了理解有多少关于 X 的信息存储在 中,作者可以使用互信息的概念:


图片


注意这捕获了存储在 中的关于 X 的所有信息。正如前面所讨论的,记忆的概念需要同时考虑泛化。因此,当测量非预期记忆时,作者只对 X | Θ 中存在的信息感兴趣,这是在固定 Θ 后 X 中剩余的不确定性。


因此,可以将非预期记忆化定义为


图片


然后泛化(或预期记忆)应该是


图片


现在作者已经定义预期和非预期记忆的概念,作者将注意力转向实际测量它们。让作者首先陈述一个能够非预期记忆的命题:


命题 1(非预期记忆的 Super-additivity)。 假设 X = (X_1, . . . , X_n) 是 n 个独立同分布样本的数据集。作者有 :


图片


这个命题表明,为了测量数据集级别非预期记忆的下界,可以将每个样本的记忆相加。另一方面,训练模型本身的信息内容的熵作为非预期记忆的上界。这个命题的另一个含义是,非预期记忆应该随数据集大小 scale,但不能超过模型的总容量。


用 Kolmogorov 复杂度测量非预期记忆


到目前为止,论文对记忆和泛化的定义使用的是基于「熵」的信息概念。这意味着该定义只能用于随机变量。这在测量记忆方面带来了很大挑战。在记忆定义中,所有的变量都是单例。作者有一个单一的底层模型 θ,作者有一个单一的数据集 x = (x_1, . . . , x_n),作者有一个单一的训练模型 。使用单个样本测量底层变量的熵(更不用说条件熵)是不可能的。


为此,论文转向另一种基于压缩的信息概念,然后展示这种概念如何密切近似上面定义的记忆概念。Kolmogorov 复杂度将字符串 x 的信息内容定义为 H^K (x),即 x 在给定计算模型中的最短表示长度。类似地,作者可以将剩余信息 x | θ 定义为当作者有 θ 作为参考时 x 的最短表示。而 x | θ 的信息内容,记为 H^K (x | θ),是这种描述的长度。然后,作者可以用类似的方式定义互信息:


定义 2(Kolmogorov 复杂度)。 设 f 是一个任意的计算模型,它接受一组输入并返回一个输出(例如通用图灵机)。相对于计算模型 f 的 x 的最短描述定义为







请到「今天看啥」查看全文