可灵接入DeepSeek-R1,一手实测在此:AI视频创作,不用学写提示词了

可灵视频生成产品接入R1后,通过调用AI助手设计提示词,即使输入单个字也能精准生成相关视频。DeepSeek帮助设计的提示词不仅扩充细节,还能将复杂抽象的内容具体化。新成果ReCamMaster则是镜头可控的生成式视频再渲染框架,支持多种镜头操作重现复杂场景。

240元打造擅长数学的多模态版R1,基于DeepSeek核心思想,两阶段训练提升推理能力至工业级应用标准

东南大学、香港中文大学和蚂蚁集团的研究团队提出了一种名为LMM-R1的两阶段多模态基于规则强化学习框架,显著提升了小型多模态大模型的数学推理能力。该框架在仅需240元GPU成本下训练出性能卓越且适用于工业级应用的多模态模型。

摆脱编码器依赖!Encoder-free 3D多模态大模型,性能超越13B现有SOTA 上海AI Lab港中文等团队新作

无编码器3D LMM通过混合语义损失和层次几何聚合策略提升了对3D物体的理解,不仅克服了点云分辨率变化和嵌入语义差异的局限性,在Objaverse基准测试中性能优于现有SOTA模型。

突破自动驾驶视频生成极限:港中文&港科大&华为联手推出MagicDriveDiT

香港中文大学、港科大与华为联合推出MagicDriveDiT,基于DiT架构设计,提升自动驾驶视频生成质量。支持昇腾Ascend NPU及NVIDIA GPU训练和推理,实现高分辨率、长时间复杂场景的视频生成。

GPT-4o再暴露「弱智」缺陷,大模型无一幸免!港中文等发布「视觉听觉」基准AV-Odyssey:26个任务直指死角问题

顶尖多模态大模型在AV-Odyssey基准测试中表现不佳,无法正确分辨声音大小。研究团队提出DeafTest和AV-Odyssey评估基准,揭示音频感知仍是大模型的主要瓶颈。