RL for LLMs,强化学习的 Scaling Law 才刚刚起步?
近期研究者通过奖励模型增强通用奖励模型在推理阶段的可扩展性,同时使用强化学习提升LLM性能。然而,当前强化学习算法仍有改进空间,奖励稀疏性是主要难点之一。
近期研究者通过奖励模型增强通用奖励模型在推理阶段的可扩展性,同时使用强化学习提升LLM性能。然而,当前强化学习算法仍有改进空间,奖励稀疏性是主要难点之一。
清华大学和华中科技大学的研究团队提出了一种新型异常检测方法INP-Former,通过从单张测试图像中动态提取内在正常原型(INPs),并利用这些INPs指导图像重建,实现了卓越的性能和强大的泛化能力。
创立两年的Lepton AI被英伟达收入囊中,贾扬清和白俊杰加入英伟达。Lepton AI专注于人工智能基础设施,通过创新技术提供低成本、灵活的GPU资源解决方案。
近日,DeepSeek和清华大学提出了一种新的训练方法SPCT(Self-Principled Critique Tuning),用于提升点式生成式奖励建模(GRM)的质量和可扩展性。该方法通过让模型学会先定原则、再写点评来改进通用RM的准确性,并实现了推理阶段的可扩展性提升。
灵心巧手获得超亿元种子轮融资,用于底层技术研发和产品优化迭代。公司深耕柔性人形机器人在大健康领域的应用,并已推出Linker Hand系列灵巧手,覆盖多种设计规格和传感器系统,可实现复杂精细动作的控制与感知交互。
英伟达完成对贾扬清AI公司Lepton的数亿美元收购,Lepton主要业务是出租英伟达GPU服务器,并开发软件帮助创企在云中构建和管理AI应用。此举或为英伟达进军云和企业软件市场的新动向,其本身已向云客户出租GPU但份额较小。
2025年CSRankings公布,卡耐基梅隆大学蝉联第一。清华、上海交通大学/浙江大学并列第三,北京大学位居第五。中国高校在AI领域表现突出,包揽全球前十中的六席。
DeepSeek发布新论文提出SPCT方法解决通用RM推理时扩展问题,并计划先发布o3和o4-mini,GPT-5将在几个月后推出。
DeepSeek与清华大学合作的研究提出了一种通用奖励模型GRM及其改进方法SPCT,通过增加推理计算量实现了有效的推理时扩展,并显著提升了LLM的性能。