已节省数百万GPU小时!字节再砍MoE训练成本,核心代码全开源 下午11时 2025/03/10 作者 量子位 可节省40% ! 刚刚,豆包大模型团队在GitHub上开源了叫做 COMET 的MoE优化技术。 C
重磅!字节开源COMET:MoE加速立省百万GPU时,摩擦DeepSeek方案 下午11时 2025/03/10 作者 AI寒武纪 字节跳动发布了COMET加速库,声称其可以显著提升MoE模型的性能。COMET支持多种并行策略,并且可以在已有框架中直接使用,单层MoE提速1.96倍,端到端模型加速1.71倍。