腾讯混元推出首款开源混合推理模型:擅长Agent工具调用和长文理解
腾讯混元开源首个混合推理 MoE 模型 Hunyuan-A13B,总参数80B,激活参数仅13B。模型已在GitHub和Huggingface上线,并正式支持接入部署。这是业界首个13B级别的MoE开源混合推理模型,其在多个权威数据测试集上表现优异,在实际使用场景中可以根据需要选择思考模式。
腾讯混元开源首个混合推理 MoE 模型 Hunyuan-A13B,总参数80B,激活参数仅13B。模型已在GitHub和Huggingface上线,并正式支持接入部署。这是业界首个13B级别的MoE开源混合推理模型,其在多个权威数据测试集上表现优异,在实际使用场景中可以根据需要选择思考模式。