语音界Deepseek!百度最新跨模态端到端语音交互,成本最高降90%

鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI

没想到,文小言接入推理模型的大更新背后,百度还藏了一手“质变”级技术大招???

Talk is cheap,直接来看Demo:

士别三日,文小言不仅能讲重庆话了,还是成了哄娃的一把好手,被花式打断照样应对如流:

实测下来,Demo不虚。这个全新语音对话功能,确实更有人味儿了,还是能紧贴当下实事的那种——

只是让Ta推荐周末放松去处,Ta自己就能主动结合当前4、5月份的现实时间,给出更加合理的建议。

划重点,这是免费的。现在你也一样可以打开手机里的文小言,直接体验这一全新升级的实时语音对话功能。

但!是!

如果单说语音体验,那还真不是这个“大招”的重点。关键是,这回百度还透露了更多技术细节。

我们仔细一看,还真是有意思了。

首先,上来就是一个行业首创:以上实时语音对话效果,由百度全新推出的端到端语音语言大模型实现,这是行业首个基于Cross-Attention的跨模态语音语言大模型

有何不同?站在用户体验的角度来说,就是语音合成延迟更低,对话更真实有情感。

而更重要的一点是,这么个新模上线,文小言在语音问答场景中的调用成本,最高能降低90%!直接打掉了工业级落地的门槛。

(再也不怕模型厂流量大到挂我服务.jpg)

我们注意到,百度语音首席架构师贾磊,其实用到了“质变”这个词:

百度端到端语音语言大模型是有质变的,不是单纯把文本大模型用到语音领域。

语音场景有其独特之处。此前,大家没有充分挖掘这个应用场景的不同,还是按照把文本大模型用到语音场景的路线,把速度加快一下,工程优化一下。

我们的创新架构,让大模型在语音场景中的应用实现了极低成本,更有利于大模型普及。

就是说,这一次语音技术的更新,不仅仅是工程上的技巧,百度正在通过技术创新,打通大模型落地语音场景的工业级应用新范式。

行业首个基于Cross-Attention的端到端语音语言模型

话说到这了,咱们就来一起仔细扒一扒背后技术方案,看看究竟是怎么一回事。

先给大家划个重点:

熟悉大模型的小伙伴都知道,KV cache能够加速自回归推理,但其在存储和访问上的开销,也会随着序列长度和模型规模增大而爆炸式增长。

因此在保证模型性能的前提下,降低KV cache,对于大模型应用来说,是提升推理效率、降低成本的一大关键。

百度此次推出的基于Cross-Attention的端到端语音语言模型,重点就在于此。

具体来说,百度做了以下创新:

  • 业内首创的基于Cross-Attention的跨模态语音语言大模型

  • Encoder和语音识别过程融合,降低KV计算

  • Decoder和语音合成模型融合

  • 创新提出基于Cross-Attention的高效全查询注意力技术(EALLQA),降低KV cache

我们一项一项展开来看。

基于Cross-Attention的跨模态语音语言大模型

整体上,这个端到端语音语言大模型是基于Self-Attention的文心预训练大模型,采用自蒸馏的方式进行后训练得到。训练数据为文本和语音合成数据的混合。整个模型采用MoE结构。

关键点在于,在端到端语音识别中,声学模型也是语言模型,因此在整合语音识别和大语言模型的过程中,能够通过将大语言模型中的Encoder和语音识别的过程融合共享,达到降低语音交互硬延迟的目的。

而在语音领域,Cross-Attention天然具有跨模态优势:Decoder会显式地将Encoder输出纳入注意力计算,使得Decoder在每一个解码步骤都能动态访问最相关的输入向量,从而充分地对齐和利用跨模态信息。

基于Cross-Attention的高效全查询注意力技术(EALLQA)

不过,Cross-Attention的引入带来了另一个问题:MLA的位置编码技术,在Cross-Attention中容易出现不稳定的现象。

为此,百度语音团队提出了高效全查询注意力技术(EALLQA):

采用创新的隐式RNN两级位置编码,训练时是在128空间上的MHA,推理时是在模型各层共享的512空间上的MQA(AllQA)。既充分利用了有限的训练资源,也极大地降低了推理成本。

从具体效果上来说,EALLQA技术能使KV cache降至原来的几十分之一,并将Cross-Attention的最近上一个问题的KV计算降至原来的十分之一,极大降低了语音交互时用户的等待时间和模型推理成本。

降低成本的另一个关键,则是Encoder和语音识别系统的融合:对Query理解的模型较小,能极大减少KV计算。

流式逐字的LLM驱动的多情感语音合成

训练、推理成本的降低之外,端到端语音语言大模型还通过语音模型和语言模型的融合,实现了文体恰当、情感契合、自然流畅的合成音频的生成。

一方面,研发团队通过大规模文本-语音数据自监督预训练,构建语义+韵律的离散化特征空间,通过双层GPT-like Transformer,实现了韵律、音色双Prompt控制机制。

另一方面,在此基础之上,研发团队推出了语音语言大模型与合成一体化流式逐字合成

有别于传统语音合成的整句输出,流式逐字相当于一个字一个字地合成。在这个过程中,语言大模型能够指导语音模型去生成情感、停顿,识别多音字等等,实现更为拟人、自然的语音合成效果。

需要注意的是,人耳接收信息实际上是一个字一个字地接收,但对于AI而言,如果1个token接1个token的输出,就需要解决并发的问题,以使MoE架构最大程度发挥作用。

流式逐字合成要解决的核心问题,就是在适配人听力的基础上,实现高并发。

通过引入流式逐字合成,百度端到端语音语言大模型有效提升了语音交互的响应速度,同时降低了语音交互领域使用大模型成本。与大模型融合的TTS文体风格情绪控制,还可以根据文本输出自适配的情况,情感覆盖达到17种。

简单总结一下,百度的端到端语音语言大模型,一方面是重点解决了大模型应用于语音交互场景成本高、速度慢的问题。

另一方面,大语言模型带来的语义理解等能力,也解决了传统语音交互中,同音字识别、打断、真实情感等痛点。

贾磊透露,目前,整个端到端语音语言大模型在L20卡上即可部署,在满足语音交互硬延迟要求的情况下,双L20卡并发可以做到数百以上。

极低成本是关键

说了这么多,最主要的关键词其实就是:低成本

在与贾磊的进一步交流中,他向我们强调了降低成本的重要性:

极低成本就意味着大规模工业化变得非常容易。

2025年,大模型的核心并不在于展示什么新功能,而是能以多快速度真正应用到国计民生中去。

在不考虑计算资源的情况下,实时语音交互有其他路径可以实现,但“我们今天是第一个做到跨模态端到端极低成本解决语音问题的”。

贾磊还表示,希望语音领域的这一突破创新能被行业更多地关注到。

我们想要把核心技术分享出去,告诉大家我们是怎么做的,以此推动整个领域的爆发。

事实上,不仅是百度,在包含语音的大模型能力对外输出上,国内外厂商都将价格视作突破口。

OpenAI就专门从性价比出发,推出了GPT-4o mini audio,希望以更低廉的价格打入语音应用市场。

2025年,基础模型方面,模型厂商在推理模型上争相竞逐,而其带来的最直接的影响之一,是人们对于大模型应用加速爆发预期的持续升温。在这个过程中,我们可以看到,站在模型厂商的角度,更多的模型在被开源,更多的服务在免费开放,用户认知、关注的争夺之中,成本本身正在变得更加敏感。

更不用提成本即是大规模应用的关键:不仅是在模型厂商们的APP上,还要进一步走进手机、汽车……

正如DeepSeek在基础模型领域搅动池水,现在,百度也在语音领域迈出关键一步。

成本,正在成为当前阶段模型厂商获得主动权的重要突破口。

One More Thing

从文小言的语音交互架构图中还可以看到,它像是个语音版百度搜索。

正如文章开篇我们体验到的,文小言能结合当前的季节对用户问题给出更合理的回答。实际上,在语音功能中,文小言已经支持多垂类助手能力,包括天气、日历查询、单位换算、股价股票等信息查询内容,共计38个垂类。

还支持DeepQA RAG问答,包含百度查询等时效性问答内容,能结合检索结果,做到更精准的指令跟随;支持DeepQA非RAG问答,包含常识问答等非时效性问答内容。

“有问题,问小言”的这个“问”字,确实是越来越接近人类原本的交互习惯了。

这实际也是产业趋势的一种映射——

之前都是大模型技术探索,需要不断适配才能落地产品、形成应用,最后被用户感知。

现在这是大模型技术和产品应用,几乎在同时对齐,技术推进的时候就瞄准了应用场景,应用场景也能催生更适合的技术,不是锤子找钉子,而是锤子钉子同时对齐。

大模型依然是AI世界的核心,但天下却正在变成应用为王的天下。

百度,或者说中国AI玩家,开始找到自己的节奏了。

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  —

🌟 点亮星标 🌟

科技前沿进展每日见

(文:量子位)

欢迎分享

发表评论