文本到动作生成最强模型出炉!动作可精确编辑,北大AI团队CVPR 2025新论文

北京大学的研究人员提出了一种名为MotionReFit的新模型,它可以根据用户的文本指令生成逼真的人体动作。该模型通过引入MotionCutMix数据增强技术及带有动作协调器的自回归扩散模型来实现这一目标,支持空间和时间上的动作编辑,无需特定的身体部位规范。

90分钟生成10万Token,新框架实现3倍无损加速超长文本生成,支持DeepSeek-R1和QwQ!

大语言模型生成10万Token文本,TOKENSWIFT框架将时间缩短至90分钟。该框架通过多Token并行生成、动态KV缓存管理及树结构的多候选Token验证等创新技术,实现了无损加速和文本多样性提升,并在多个规模和架构上进行了测试。

DeepSeek加持,北大通院几何模型达IMO金牌水平!32个CPU核心和1块4090就能实现满血解题

国产AI几何模型TongGeometry能解决IMO-AG-30题中的所有30题,以及IMO-AG-50上的42题,并达到人类金牌选手平均水平。它使用策略网络和价值网络联合Beam Search进行解题,性能远超谷歌AlphaGeometry,仅需32个CPU核心和1块4090就能实现满血解题。