速递|将2D照片转化为3D视频,新模型能否解决Stability AI商业困境
Stability AI发布了新的AI模型Stable Virtual Camera,能够将2D图像转化为具有真实深度和视角的‘沉浸式’视频。该模型可以从一张或多张图像生成场景的新视角,并支持生成不同比例的视频。
Stability AI发布了新的AI模型Stable Virtual Camera,能够将2D图像转化为具有真实深度和视角的‘沉浸式’视频。该模型可以从一张或多张图像生成场景的新视角,并支持生成不同比例的视频。
深度原理宣布完成亿元级Pre-A轮融资,投资方包括联想创投、联想之星等。公司致力于通过AI技术加速材料化学创新,推动AI for Science领域发展。
清华大学智能产业研究院联合商汤研究院等机构发布首个基于通用动作空间的具身基础模型框架UniAct,解决了具身智能中的动作空间异构一致性难题。通过视觉语言模型实现跨模态泛化,在多项权威评测中超越参数量达14倍的OpenVLA对手。
可灵视频生成产品接入R1后,通过调用AI助手设计提示词,即使输入单个字也能精准生成相关视频。DeepSeek帮助设计的提示词不仅扩充细节,还能将复杂抽象的内容具体化。新成果ReCamMaster则是镜头可控的生成式视频再渲染框架,支持多种镜头操作重现复杂场景。
SmolDocling-256M-preview 是一个多模态的图像-文本到文本模型,专为高效的文档转换而设计,能够处理科学和非科学文档。