Runway新一代新动作捕捉模型 Act-Two,连跳舞都能完美复刻

作者|子川

来源AI先锋官


7月16日上午,Runway 悄咪咪上线了新一代动作捕捉模型 Act-Two。

虽然没有发布会、没搞直播,但闹出的动静却不小。

毕竟上一代 Act-One 的效果大家还是有目共睹的,这回更换模型,能力自然提升了不少。

此次 Runway 发布的 Act-Two 相比 Act-One,不仅支持全身动作捕捉——包括微妙的面部表情、肢体动作和手指细节。

而且在动作保真度、一致性和流畅度上均有显著提升。

估计大家看得有点蒙,给大家举几个栗子就知道是怎么回事了。

即便是人物进行大幅度的动作(跳舞),Act-Two也能精准捕捉并迁移到相应角色上。

连头部、面部、手部这些细节部位的动作和表情也能精准识别并还原,甚至连眉毛轻挑等动作都不会漏掉。

同时它对非人类角色(如卡通人物、动物等)的适应性也非常强。

这意味着你的创作空间被无限拓展,想让什么角色动起来,就让什么角色动起来!

在以往,大家在电视上所看到的影视场景要达到这种效果,需要演员身穿动捕服、几十台红外相机才能拍出的角色替换。

而现在只需提供一段人物的表演视频,再提供一张参考角色图像或一段参考视频。

Act-Two就能把表演视频里的动作、表情、甚至说话时的嘴型,统统复制粘贴到你的角色身上。

重点是效果好。

目前,Act-Two正在分阶段推出,现在主要面向Runway的企业用户和CPP账户开放,普通用户尚未开放。

如果你是Runway的忠实用户,并且拥有相应的账户权限,那么你就可以在Runway的Gen-4视频模型中找到Act-Two并使用。

写到最后,不得不提的是,现在的AI视频领域,那真是神仙打架,竞争十分激烈。

像可灵、即梦这类卷王依旧在追求视频质量上疯狂卷,不断刷新着我们对AI视频的认知。

它们生成的视频画面精美,细节丰富,让人叹为观止。

而其他AI视频工具也没闲着,都逐渐找到自己合适的道路。

比如Pika,它在视频特效方面玩出了新花样,各种不同的特效让人眼前一亮。

还有异军突起的Veo3,它在生成视频的同时,还把配音也一块生成出来了,效果非常惊艳,前段时间在网上掀起了一波AI视频制作的热潮。

以及Vidu在参考生成视频上强得可怕,一致性非常厉害。

而这次,作为视频领域的老大哥Runway,没有一味地去卷视频生成质量,而是另辟蹊径,在角色替换方面进行深度发力,推出了Act-Two。

现在的AI视频领域,百花齐放,各有千秋。

每个工具都有自己的绝活,未来,AI视频的边界还会被不断拓宽,让我们拭目以待!


 

(文:AI先锋官)

发表评论