作者|子川
来源|AI先锋官
7月16日上午,Runway 悄咪咪上线了新一代动作捕捉模型 Act-Two。

虽然没有发布会、没搞直播,但闹出的动静却不小。
毕竟上一代 Act-One 的效果大家还是有目共睹的,这回更换模型,能力自然提升了不少。
此次 Runway 发布的 Act-Two 相比 Act-One,不仅支持全身动作捕捉——包括微妙的面部表情、肢体动作和手指细节。
而且在动作保真度、一致性和流畅度上均有显著提升。
估计大家看得有点蒙,给大家举几个栗子就知道是怎么回事了。
即便是人物进行大幅度的动作(跳舞),Act-Two也能精准捕捉并迁移到相应角色上。
连头部、面部、手部这些细节部位的动作和表情也能精准识别并还原,甚至连眉毛轻挑等动作都不会漏掉。
同时它对非人类角色(如卡通人物、动物等)的适应性也非常强。
这意味着你的创作空间被无限拓展,想让什么角色动起来,就让什么角色动起来!
在以往,大家在电视上所看到的影视场景要达到这种效果,需要演员身穿动捕服、几十台红外相机才能拍出的角色替换。

而现在只需提供一段人物的表演视频,再提供一张参考角色图像或一段参考视频。
Act-Two就能把表演视频里的动作、表情、甚至说话时的嘴型,统统复制粘贴到你的角色身上。
重点是效果好。
目前,Act-Two正在分阶段推出,现在主要面向Runway的企业用户和CPP账户开放,普通用户尚未开放。
如果你是Runway的忠实用户,并且拥有相应的账户权限,那么你就可以在Runway的Gen-4视频模型中找到Act-Two并使用。
写到最后,不得不提的是,现在的AI视频领域,那真是神仙打架,竞争十分激烈。
像可灵、即梦这类卷王依旧在追求视频质量上疯狂卷,不断刷新着我们对AI视频的认知。
它们生成的视频画面精美,细节丰富,让人叹为观止。
而其他AI视频工具也没闲着,都逐渐找到自己合适的道路。
比如Pika,它在视频特效方面玩出了新花样,各种不同的特效让人眼前一亮。
还有异军突起的Veo3,它在生成视频的同时,还把配音也一块生成出来了,效果非常惊艳,前段时间在网上掀起了一波AI视频制作的热潮。
以及Vidu在参考生成视频上强得可怕,一致性非常厉害。
而这次,作为视频领域的老大哥Runway,没有一味地去卷视频生成质量,而是另辟蹊径,在角色替换方面进行深度发力,推出了Act-Two。
现在的AI视频领域,百花齐放,各有千秋。
每个工具都有自己的绝活,未来,AI视频的边界还会被不断拓宽,让我们拭目以待!
(文:AI先锋官)