文本到动作生成最强模型出炉!动作可精确编辑,北大AI团队CVPR 2025新论文
北京大学的研究人员提出了一种名为MotionReFit的新模型,它可以根据用户的文本指令生成逼真的人体动作。该模型通过引入MotionCutMix数据增强技术及带有动作协调器的自回归扩散模型来实现这一目标,支持空间和时间上的动作编辑,无需特定的身体部位规范。
北京大学的研究人员提出了一种名为MotionReFit的新模型,它可以根据用户的文本指令生成逼真的人体动作。该模型通过引入MotionCutMix数据增强技术及带有动作协调器的自回归扩散模型来实现这一目标,支持空间和时间上的动作编辑,无需特定的身体部位规范。
韩国成立’K-人形机器人联盟’以提升全球地位;哈工大推出《智能机器人》期刊;重庆山地茶采摘机器人投产解决用工短缺问题;阿根廷引入中国围棋机器人促进文化交流;首程资本投资云鲸智能加速家用机器人产业升级。
首届“云智算杯”AI+应用创新大赛正式启动,旨在推动AI技术在多元化场景下的应用创新,加速智能算力基础设施建设,并通过开放行业、高校和移动三大赛道促进产学研用深度融合,助力数字经济发展。
CADCrafter团队提出了一种新的图生3D框架,能够直接生成可编辑的CAD工程文件。该方法从图像到CAD模型的转换精度高、表面质量好,并且通过编译器可以得到直接生产加工的3D文件。