
Midjourney推出视频生成模型V1,主打高性价比、易于上手的视频生成功能,作为其实现“实时模拟世界”愿景的第一步。用户现在可以通过动画化Midjourney图片或自己的图片来创作短视频,定位为有趣、易用、美观且价格亲民
Midjourney一如既往,视频模型在美学细节上下了一番功夫,这是官方放出的宣传视频,大家感受一下
V1工作流程与主要功能
核心流程:采用“图像转视频” (Image-to-Video) 的工作方式。用户先生成一张满意的图片,然后点击新增的 “Animate” 按钮来使其动画化。
支持外部图片:用户可以上传自己的图片,然后通过输入运动提示词来生成视频。
两种动画模式:
自动模式 (Automatic):AI 会自动为你生成“运动提示”,简单快捷
手动模式 (Manual):用户可以自己写提示词,精确描述希望物体和场景如何运动
两种运动幅度设置:
低运动 (Low motion):适合相机基本不动、主体缓慢运动的场景(如氛围图),但有时可能完全不动。
高运动 (High motion):适合相机和主体都大幅度运动的场景,效果更动态,但更容易出错
视频扩展:生成的视频可以被“扩展”,每次延长约4秒,最多可延长四次,目前视频分辨率为480p

成本与定价策略
入门价格:每月10美元即可使用。
可用平台:发布初期仅限网页版 (web-only)
任务成本:
一个视频任务的成本约等于8个图像任务
每个视频任务会生成四个5秒钟的视频
一个视频的成本大致相当于一次图像放大 (upscale)的成本,即每秒视频约等于一张图的成本
市场优势:官方称其价格比市场同类产品便宜超过25倍
Pro 用户福利:“Pro”及更高级别的订阅者将可以测试视频的“放松模式” (relax mode:无限量生成,速度较慢)
价格调整:未来一个月会根据用户使用情况和服务器负载,对价格进行调整以确保业务可持续
长期愿景与未来计划
最终目标:实现能够实时交互的开放世界模拟系统 (real-time open-world simulations),视频模型是实现该愿景的关键一步。未来将继续独立开发3D模型、实时渲染模型等模块,并最终将它们整合成一个统一系统
⭐
(文:AI寒武纪)