AI 彻底摆脱人类!Anthropic让模型自己微调自己,左脚踩右脚要上天……

AI 学会了自我打分和学习,然后实现自我提升!

Anthropic的研究人员找到了一种让语言模型自我微调的方法——模型通过评估自己的答案来提升能力,彻底摆脱了人类标注的瓶颈。

这项名为Internal Coherence Maximization(ICM)的技术让预训练模型能够生成并信任自己的标签。在数学、事实检验和对话质量等任务上,它的表现与黄金标准训练相当,甚至超越了人类标注

最令人震撼的是,用这种自我微调方法训练的Claude 3.5 Haiku助手,在对比测试中60%胜率击败人类监督版本

核心概念:挖掘内在知识

预训练语言模型已经储存了丰富的真理、正确性和偏好概念。ICM要做的就是在没有外部帮助的情况下激发这些概念

ICM定义了一个评分系统,结合了两个关键要素:

相互可预测性:模型预测每个标签时,会参考其他所有已标记的例子。如果所有标签都指向同一个底层概念,预测概率就会很高。

逻辑一致性:防止出现明显矛盾,比如「A胜过B」和「B胜过A」不能同时为真。即使是「不同数值答案不能都正确」这样简单的规则,也足以阻止退化解。

工作原理:自我监督的搜索过程

由于穷举搜索不可行,ICM采用了巧妙的策略:

上图展示了ICM如何衡量一批标签是否协调一致。

三个声明已经有了临时的真假标签。模型每次隐藏一个标签,从其余两个推测它,并记录猜对的对数似然。将这三个数字相加得到一个连贯性分数——总和越高,标签越符合模型自己的一致性感知。

下图展示了改进这些标签的搜索循环。系统从一个有临时标签的小型算术数据集开始,采样一个新陈述,创造几个符合基本算术逻辑的替代标签,并用相同的连贯性指标为每个候选项打分。

算法从随机选择少量未标记例子开始,分配粗略标签,然后快速修复任何逻辑冲突。接着进入循环:

  1. 逐步降低「温度」参数(早期鼓励探索,后期趋于谨慎)
  2. 选择一个未标记项目,让模型根据已有标签预测最合理的标签
  3. 添加临时标签并修复逻辑冲突
  4. 计算连贯性分数的变化
  5. 如果分数提升就保留,否则以概率决定是否保留

修复不一致:关键的清理步骤

ConsistencyFix算法扫描数据集中的冲突对,比如一个声明说某陈述为真,另一个说为假。它列出所有可能的一致性组合,询问模型哪个选项能得到最佳整体连贯性分数。如果新组合提升了分数,就保留更改。

这个过程确保每个新标签都能触发对旧错误的修复,而不是被简单丢弃。

实验结果:全面超越

在Llama 3.1模型上,ICM在TruthfulQA和GSM8K验证上匹配了黄金标签微调,在Alpaca上击败了众包监督

在作者性别预测这个模型超人类的任务上,ICM达到80%准确率,而人类只有60%。

标注成本适中,每个数据点只需要2-4次前向传播。

前沿模型应用

团队在40万个提示对上仅使用ICM标签训练了Claude 3.5 Haiku的奖励模型,在Rewardbench上得分75%,超过人类标注基线的72.2%。

左图比较了两个奖励模型。在Alpaca数据上,无监督模型达到约68%准确率,比人类标注版本高10个百分点。在更大的生产数据集上,它仍领先几个百分点。

右图追踪了用每个奖励模型训练的聊天机器人在直接对决中的胜率。由无监督奖励模型指导的机器人赢得约60%的比赛。

局限性

当基础模型中不存在所需概念时,ICM会失败。

一个仅基于「太阳」一词的诗歌质量任务退化为随机猜测。

由于评分需要将许多例子放入上下文,具有超长输入的任务仍然无法触及。

启示

内部连贯性是网络内部已经存在的强大监督信号,简单的逻辑检查让搜索保持在正轨上。

当目标技能是潜在的,模型可以在没有一个人类标签的情况下自我完善

社区讨论

Jiahao Lu(@jiahao_lu_)提出了关键问题:

这是否意味着激发出的能力严格受限于预训练模型?它不是在开发新东西,只是在预训练的庞大分布中选择期望的子分布?

Stephen McAleer(@McaleerStephen):

非常酷!

Aki Ranin(@aki_ranin)更直接:

人类在循环中没戏了。

Michael Spencer(@ReadFuturist)则表示怀疑:

击败人类意味着什么?Anthropic甚至无法让Claude写自己的博客。

Oyx(@Test20061722)指出评估方法的潜在问题:

助手胜率只由专有奖励模型判断,而非盲测的人类评估。基于模型的判断可能偏向钻空子的策略,60%胜率可能无法转化为真实的人类偏好!

相关研究

Xuandong Zhao(@xuandongzhao)分享了他们的「无需外部奖励学习推理」研究。Jiaxin Wen澄清了两项工作的区别:

最近的「无监督学习」论文主要关注推理基准+强化学习,而我们更关注通用的、模糊的奖励建模任务+监督微调。SFT的训练动态对我来说更清晰——用随机演示进行SFT肯定会导致更差的性能。

为确保结果可靠,团队进行了多次验证,包括将数据集复制到新文件(排除所有标签)重新运行算法,一位合著者还使用不同代码库独立复现了结果。

AI真的在「左脚踩右脚」了——

通过自己给自己打分、自己纠正自己的错误,模型实现了自我提升。

这种自我微调的能力让AI彻底摆脱了人类监督的枷锁,正在向着真正的自主学习迈进。

虽然现在还不能真的「上天」,但这或将是通往AGI的重要一步。




[1]

论文原文: https://alignment-science-blog.pages.dev/2025/unsupervised-elicitation/paper.pdf

[2]

项目博客: https://alignment-science-blog.pages.dev/2025/unsupervised-elicitation/

[3]

代码仓库: https://github.com/Jiaxin-Wen/Unsupervised-Elicitation

[4]

arXiv论文: https://arxiv.org/abs/2506.10139


(文:AGI Hunt)

发表评论

×

下载每时AI手机APP

 

和大家一起交流AI最新资讯!

立即前往