腾讯混元开源首个13B激活MoE大模型:推理提升超2倍,单卡可跑!
首个13B激活参数的MoE大模型 Hunyuan-A13B重磅来袭:总参数80B,效果比肩开源领先模型。腾讯混元宣布该模型已开源,并上线Github和Huggingface等社区。
首个13B激活参数的MoE大模型 Hunyuan-A13B重磅来袭:总参数80B,效果比肩开源领先模型。腾讯混元宣布该模型已开源,并上线Github和Huggingface等社区。
腾讯混元开源首个混合推理MoE模型Hunyuan-A13B,参数80亿,激活参数13亿,在多个基准测试中超越OpenAI等模型,支持数学、推理和Agent调用能力。
文章介绍了当前大模型厂商通过丰富生态来展示实力的现象,包括基础模型的应用企业数量增加和排名提升等趋势。同时讨论了在AI底座化趋势下,未来可能的竞争形态及对反垄断的挑战。
腾讯混元与腾讯音乐联合开源的数字人音频驱动模型HunyuanVideo-Avatar,支持单或多角色对话和多种图像风格生成。通过一张人物图片和一段音频(最长14秒),生成高保真语音驱动动画,并引入了三项关键创新。
清华大学等机构联合发布RBench-V,评估大模型的视觉推理能力。结果显示表现最好的模型o3准确率仅为25.8%,远低于人类的82.3%。论文在Reddit机器学习社区引发讨论。
清华团队发布RIFLEx模型,仅需一行代码即可突破视频生成长度限制至10秒。该模型适用于基于RoPE的各类Video Diffusion Transformer。
腾讯混元发布游戏视觉生成平台Hunyuan-Game,提供一站式AIGC游戏内容生产引擎,涵盖四大图像生成模型和五大视频模型,助力提升游戏美术设计效率。
腾讯发布混元图像2.0模型,实现毫秒级响应实时生成图文。用户可通过手打Prompt、语音输入或上传参考图进行创作,支持多种风格转换与优化功能。亮点包括更大模型参数、高压缩倍率图像编解码器、多模态大语言模型作为文本编码器等。