卡兹克
实测完Runway深夜上线的最新模型Gen4,我觉得可灵还是No.1。
Runway发布Gen4模型后,作者对其画饼多、实际效果一般表示质疑。Gen4主打多主体参考功能,但在关键细节如光影、人物动作等方面存在不足。对比可灵1.6等其他模型,Gen4在图生视频方面表现欠佳。
实测豆包刚刚上线的新版深度思考,他们也向DeepSearch迈出了一步。
今天晚上,豆包终于上线了期待已久的深度思考功能。与传统的推理模型不同,它将思考和搜索融为一体,表现出与OpenAI的DeepResearch类似的特质。通过多次搜索和细致分析,豆包能够提供更准确的答案。作者对该功能表示肯定,并认为其性价比高、使用便捷,有望让更多人受益。
阿里深夜开源万相2.1,这是AI视频领域的DeepSeek啊。
昨天的AI新闻密集更新,阿里接连发布Claude Sonnet、QwQ-Max预览版、DeepEP代码库和万相2.1等。万相2.1开源视频模型包含四个规格,覆盖文生和图生成视频需求,性能优秀且本地化部署方便。
一文详解DeepSeek开源的FlashMLA,他们才是真正的“源神”。
DeepSeek开源了一款针对Hopper GPU的FlashMLA内核,专门优化多头潜在注意力(MLA)解码阶段,支持变长序列输入,已在Github上获得300多个Star。
全网首发|一手内测字节OmniHuman-1,这就是当今最强的AI数字人。
半个月前,字节的OmniHuman-1模型在全球掀起波澜。它能通过一张照片和一段音频生成背景动态、支持全身动作的AI视频,并保持口型同步。OmniHuman-1在即梦平台上开放内测,实现一键生成带表演与口型的短视频效果。