
新智元报道
新智元报道
【新智元导读】基于连续概念,Meta团队新研究提出了超越「下一个token预测」语言建模新范式。更加重要的是,新方法不仅能增强原有的范式,而且比起知识蒸馏,数据量减少20%,甚至能从小模型提取概念指导更大的模型!
但这种依赖tokenization的方法,导致LLM「严重偏科」。
比如,Karpathy发现一个表情包相当于53个token!
关注AI的可能也知道GPT-4o不会数字母,不知道Strawberray中有几个字母「r」。
为了解决此类问题,最近的研究探讨了超越token级信号的方法,利用更丰富的信息来训练模型。
比如说,一次性预测多个token;在下一个token预测之前增强输入,加入丰富的信号;或用连续的潜在表示替代离散的语言标记,提高推理效率。
Meta的下一代系统「大概念模型」,彻底超越token级别语言建模,直接在语句级别上语言建模,摆脱人类语言类型对模型性能的制约。
这次,受到近期研究发现的启发,来自Meta的研究人员认为稀疏自编码器(Sparse Autoencoders,SAEs)可以捕捉高层次的语义概念,在LLM中有效地隔离出有意义的潜在特征。
由于SAEs是通过稀疏性约束训练,重构模型的隐状态,它促使模型集中关注一组紧凑的概念维度。
这可以突出预训练模型的概念——即支撑模型预测的核心语义方向,同时避免不必要的特征。

论文链接:https://arxiv.org/abs/2502.08524
新研究在多个语言建模基准和预训练模型规模(从百万规模到十亿规模的参数模型)上进行广泛的评估,展示了CoCoMix的有效性。
例如,在应用于1.38B参数模型时,CoCoMix在下一个token预测任务中的表现与传统方法相当,同时减少了21.5%的训练数据量。
此外,CoCoMix在弱监督到强监督场景中表现出显著的提升,其中从小模型中提取的概念甚至可以作为真实标签,用于监督大模型的训练。
最后,通过插入压缩的概念向量,能够在生成过程中探查预测的概念,从而引导和控制模型。
主要方法:CoCoMix
CoCoMix是一种新的LLM预训练框架,通过预测概念并将其混入模型的隐状态中,以提高下一个token预测的准确性。
更高的样本效率,在下一个token预测、知识蒸馏以及插入暂停token等任务中表现优越,同时提高可解释性和可引导性,增强模型的可控性。
连续概念混合(CoCoMix)使用基于连续概念的语言建模框架。具体而言,CoCoMix包含三个步骤来学习和使用潜在概念:
1. 从预训练的SAE中,提取概念并选择显著的概念。
2. LLM从其隐藏状态预测这些概念。
3. 一旦预测出多个概念,就将它们压缩成一个单一的「连续概念」,并将其「混合」到LLM隐藏状态中。

图1:CoCoMix的概览。
新研究证明了CoCoMix具有更高的样本效率,并且优于标准的下一个token预测和知识蒸馏基线。
实验结果
此外,新研究表明CoCoMix可以实现弱监督到强监督的转换,其中从较小模型中提取的概念可以指导更强(或更大)的学生模型。
由于模型经过训练可以预测其隐藏状态中的概念,可以通过检查概念预测来分析它关注哪些概念。通过放大或抑制预测的概念,我们还可以控制模型的输出生成。
总而言之,CoCoMix效率更高,并且在不同模型规模下都优于下一个token预测,同时还引入了可解释性。
具体而言,通过研究以下问题,对CoCoMix进行了实证评估:
-
CoCoMix能否提高LLM预训练中下一个token预测的性能?(图2和图3) -
与其他知识蒸馏方法相比,CoCoMix从弱监督到强监督设置中是否表现出改进?(表1和图4) -
CoCoMix是否引入了模型的可解释性和可操纵性?(图5) -
CoCoMix提出的各个组件对性能贡献如何?(图6)






图6 对CoCoMix的分析: (a) 归因分数在选择概念中的有效性。 (b) 概念预测与直接隐藏状态预测的比较(即,用连续损失预测隐藏状态,而不是用SAE离散化隐藏状态)。 (c) 压缩权重的稀疏性。 (d) 通过分析概念预测和混合的贡献进行的组件分析。 (e) 通过比较将概念向量添加到原始隐藏状态和混合(将概念向量与token隐藏表示交替)来选择概念条件设定的设计。 (f) CoCoMix与暂停token(即添加可学习的tokens)的比较。使用了一个69M的transformer,并且使用来自OpenWebText数据集的20B个tokens进行训练。
(文:新智元)