浙大校友重磅革新Transformer!多token注意力让LLM开挂,错误率归0

Meta FAIR团队提出多token注意力机制(MTA),利用键-查询卷积和头混合卷积,显著提升Transformer模型的性能。通过结合不同查询和键信息,实现精准的信息处理,解决传统注意力机制在复杂信息检索中的不足。

编码新王者?谷歌未发布模型 “夜语者” 现身竞技场,初测:比Gemini 2.5 Pro更强,或成下一个SOTA!

Google 继续扩大领先优势,传言其即将发布“Nightwhisper”编码模型。Gemini 2.5 Pro在多个竞技场中表现出色,尤其是在代码和推理方面表现突出。Gemini-2.5-pro在多项选择题测试中获得最高分,并在Mensa挪威测试中智商达到130。Qwen也将在4月第二周发布,能否超越Gemini-2.5-pro值得关注。

RAG技术于视频文章生成及东方语种+汉语方言识别Dolphin实现思路解析

2025年4月3日,北京天气晴朗。《Large Language Models Pass the Turing Test》评测了四个系统的表现,发现添加人设提示可以显著提升AI模型被误认为人类的比例。关于RAG和语音识别技术,文章介绍了WIKIVIDEO视频文章生成方案及面向东方语言的Dolphin语音大模型开源方案。