音画同步,AI视频也能有完美「原声音」,可灵AI刚上线的!

机器之心报道

编辑:泽南

AI 生成的「最后一道关卡」已经突破?


因为生成式 AI,火遍全球的 Labubu 有了超萌专属 BGM:


视频来自可灵 AI 创意圈用户。


复杂的自然环境也可以获得相应的背景音。


视频来自 X。


现在还可以生成各种 ASMR,比如切开炸弹的外壳:


视频来自可灵 AI 创意圈用户。


最近,人们都在谈论一种给 AI 生成视频加音效的大模型。


它主打一个「全能」:不论输入的是文本还是静音的视频,它都会给你生成配套的音效或音乐,节奏踩点准确,细节到位合理。更有趣的是,它还能配合视频场景里面的环境,呈现出立体声。


相比之前的一些音效生成 AI,格局一下打开。


这个新突破来自可灵 AI,他们提出的多模态视频生音效模型名叫 Kling-Foley,能够通过大模型自动生成与视频内容同步的高质量立体声音频。


输入的是视频和文字,输出的是音效和 BGM。


简单来说,Kling-Foley 支持基于视频内容与可选文本提示自动生成与视频画面语义相关、时间同步的高质量立体声音频,涵盖音效、背景音乐等多种类型声音内容。它支持生成任意时长的音频内容,还具备立体声渲染的能力,支持空间定向的声源建模和渲染。


少海外网友已经用上了,并在社交平台上大加称赞。



可灵 AI 已经发布了 Kling-Foley 的技术报告,有关它背后的技术我们可以一探究竟。



  • 论文:https://www.arxiv.org/pdf/2506.19774

  • 项目主页:https://klingfoley.github.io/Kling-Foley/

  • GitHub 链接:https://github.com/klingfoley/Kling-Foley

  • Benchmark:https://huggingface.co/datasets/klingfoley/Kling-Audio-Eval


看视频就能「脑补」背景音

可灵 AI 用了什么方法?


音视频的同步输出,可谓是生成式 AI 的下一个关键节点。


生成式 AI 正在全球范围内持续爆发,仅视频生成领域里,技术可以说是日新月异。就说可灵 AI 自己,最近更新的 2.1 系列模型,生成的人物运动和细节让人叹为观止。


视频来自X博主@Artedeingenio


不过 AI 生成视频已经出现了两年,大多数生成的内容还是缺乏同步音效的,如果人工加配音、BGM 的话,效率会被直线拉低,毕竟大多数人无法像专业配音师一样掌握复杂的工具。


如何能让大模型更好地给视频配音呢?


这方面的研究其实早已出现,但传统的 AI 文本生成音频(Text-to-Audio, T2A)方法在实际应用的过程中面临着不少挑战,比如它仅限于文本输入,难以精确地「理解」视频,经常出现生成的音效和视频内容不同步的情况。


相比之下,视频生成音频(Video-to-Audio, V2A)方法可以更加直接地结合视频和文本,提升音效生成的相关性和准确度。这就要求训练 AI 模型的数据集既包括视频,也包括配套标记好的音频和文本,从数据规模和多模态标注质量上来看都是一个艰巨的任务。


在 Kling-Foley 模型身上,我们能看到一系列创新。它的整体结构如下:



具体来说,Kling-Foley 是一个多模态控制的流匹配模型。在音频生成的流程中,文本、视频和时间提取的视频帧作为条件输入;随后这些多模态特征会通过多模态联合条件模块进行融合,并输入到 MMDit 模块进行处理;该模块预测 VAE 潜在特征,随后由预训练的梅尔解码器将其重建为单声道梅尔声谱图;然后,渲染为立体声梅尔声谱图;最后,通过声码器生成输出波形。


为了解决视频、音频和文本三种模态间的交互建模问题,Kling-Foley 架构中很大程度上借鉴了 Stable Diffusion 3 的 MM-DiT 块设计,实现了在文本、视频和音频任意两种模态组合下的灵活输入。


而让 AI 生成的声音在时间点上与视频对齐是重中之重。为此,模型框架中还引入了视觉语义表示模块和音视频同步模块,能在帧级别上对齐视频条件与音频潜层元素,从而提升视频语义对齐与音视频同步的效果。这些模块与文本条件共同作用,以精准控制生成与视频内容相匹配的拟音。为了支持可变长度的视音频生成并增强时间控制,Kling-Foley 还引入了离散时长嵌入作为全局条件机制的一部分。


另外,在音频 Latent 表征层面,Kling-Foley 也应用了一种通用潜层音频编解码器 (universal latent audio codec),能够在音效、语音、歌声和音乐等多样化场景下实现高质量建模。


潜在音频编解码器的主体是一个 Mel-VAE,它联合训练了一个 Mel 编码器、一个 Mel 解码器和一个鉴别器。VAE 结构使模型能够学习到连续且完整的潜在空间分布,从而显著增强了音频表征能力。


实验结果表明,采用流匹配目标 (stream matching objective) 进行训练的 Kling-Foley,在音频质量、语义对齐和音视频同步方面,于现有公开模型中取得了全新的 SOTA(业内最佳)性能。


从无到有,打造多模态数据集


可灵打造 Kling-Foley 做的另一件重要的事就是从无到有构建数据集。其自建的多模态数据集样本总数高达 1 亿 +,每个样本都包含一个原始视频片段、对应的单声道音频片段,以及关于音频的结构化文本描述。它们来源于真实的在线视频内容,且三种模态紧密对齐。


在如此体量的数据处理过程中,可灵使用了一套自建的多模态大模型自动化数据处理系统,辅以严格的人工标注流程。



其中,音频和视频数据经过质量筛选,以获得高质量的单事件音频和视频片段。随后,系统通过数据增强生成多事件音频样本,同时利用上更多短数据,并使用多模态大模型为音频和视频生成详尽描述。最后,使用大模型将各种描述信息结合起来,生成最终的结构化描述。


把训练集中高层级声音类别的分布可视化一下,可以看到它覆盖了真实世界中大量的声学场景,包括自然环境、人类活动、动物声音、机械操作、交通工具等,这就为学习多样的生成模式,提升合成音频的真实感和可控性提供了扎实的基础。



可灵还构建了一个名为 Kling-Audio-Eval 基准数据集并将其开源。其中同时包含视频、视频描述、音频、音频描述和声音事件多级标签。它包含 20935 个精细标注的样本,覆盖了交通声、人声、动物声等九大类主要的声音事件场景。它是业界首个包含音视频双模态描述以及音频标签的音效生成基准,其涵盖不同维度的多项评估指标,能支持对模型性能进行全面和多角度的评估。


最后,可灵在一些公开基准上对 Kling-Foley 与一些业界主流方法进行了对比,可见其在语义对齐、时间对齐和音质方面水平领先。



如果比较音效、音乐、语音和歌唱四种场景的编解码能力,Kling-Foley 也在大部分指标上拿到了最优成绩。



看起来,可灵 AI 提出的这个新技术不仅生成的音频在频谱上准确无误,而且在感知上也更接近真实的原始音效。


可灵 AI 的音效生成能力,逐渐实用化


今年 3 月,可灵 AI 平台上线了「文生音效」能力,其中新增了「音效生成」入口,支持用户通过输入文本生成相应音效,并可以基于可灵生成的视频内容进行理解,自动生成匹配的音效内容。


到了这个月初,可灵在推出 2.1 版视频生成模型时,添加了「视频音效」的开关,大家在生成视频的同时,系统也会自动生成与视频匹配的音效,增强了整体视听体验。


从现在开始,「视频音效」功能将全面扩展至可灵平台所有版本的视频模型,覆盖了文生视频、图生视频、多图参考生成视频、视频续写、多模态编辑,基本做到了有视频,就能配音。


与此同时,「音效生成」也进行了一番升级,现在用户可以直接上传本地视频或选择可灵生成的视频,一键生成与视频内容语义贴合、时间同步的音效内容。


可灵 AI 的音效生成界面。


通过可灵的新模型,平台能够自动对视频语义与音频片段实现帧级对齐,「所见即所听」,大幅降低了人们的的音频后期制作成本。AI 生成的音效还是立体声的,能够适配动作、自然环境等多种场景,给足了沉浸感。


当然最重要的是,足够方便简单。


看起来,AI 视频生成的最后一个坎,已经被可灵跨过去了。


©

(文:机器之心)

发表评论