huggingface发布了3B参数里的SoTA模型 smollm3
Hugging Face 发布了3B参数的SOTA模型 Smollm3,支持Think/No-Think模式,默认不支持汉语,未来将发布其详细信息及构建方法。
Hugging Face 发布了3B参数的SOTA模型 Smollm3,支持Think/No-Think模式,默认不支持汉语,未来将发布其详细信息及构建方法。
字节Seed团队提出AttentionInfluence方法,利用小型预训练模型选择对大语言模型推理能力有显著提升的数据。通过屏蔽关键头部并计算损失差异来评估数据重要性,最终在多个基准测试中提高了模型性能。
今天除夕,阿里千问开源了Qwen2.5-VL模型,包含3B、7B和72B三个尺寸,并具有感知丰富世界、作为视觉Agent、理解长视频和捕捉事件、精准的视觉定位及结构化输出等新特性。