混合专家
OpenAI科学家盛赞中国大模型:算法非常强,算力用到极致!
OpenAI联合创始人Andrej Karpathy分享了中国开源大模型DeepSeek-v3,仅使用280万小时GPU算力即超越Llama-3。该模型在多种基准测试中表现优异,并采用MLA和MoE等高效策略节省大量计算资源。
收敛速度最高8倍,准确率提升超30%!华科发布MoE Jetpack框架 NeurIPS 2024
华中科技大学提出MoE Jetpack框架,利用密集激活模型权重微调出混合专家(MoE)模型,大幅提升了精度和收敛速度,解决MoE预训练需求高问题。