ToMAP:赋予大模型「读心术」,打造更聪明的AI说服者

本文提出了一种名为ToMAP的新模型,它结合了心智理论机制以增强语言模型在说服任务中的表现。通过引入反驳预测器和态度预测器两大模块,ToMAP能够预判对方可能提出的反论点并评估其态度变化,从而实现更具个性化、灵活性和逻辑性的说服过程。

监督学习也能从错误中学习反思?!清华英伟达联合提出隐式负向策略爆炸提升数学能力

清华大学与英伟达、斯坦福联合提出NFT(Negative-aware FineTuning)方案,通过构造隐式负向模型利用错误数据训练正向模型,使其性能接近强化学习。这一策略弥合了监督学习和强化学习的差距,且损失函数梯度等价于On-Policy条件下的GRPO算法。

大模型终于能预测未来了?伊利诺伊黑科技让AI化身“时间预言家”

伊利诺伊大学香槟分校开发的Time-R1模型通过三阶段强化学习训练提升了语言模型的时间推理能力,包括时间戳推断、事件排序和生成合理未来场景等任务。该模型在多个时间推理任务中表现优异,并开源了代码和数据集以促进研究和技术发展。