AI能看懂图像却算不好距离,上交时间-空间智能基准难倒9大顶尖多模态模型

上海交通大学联合团队发布STI-Bench,评估多模态大模型的空间-时间理解能力。结果显示当前最强模型在自动驾驶和机器人操作任务中表现不佳,准确率低于50%。论文、代码及数据已开源,为改善MLLM空间智能提供了新基准。

英伟达含量为零!华为密集模型性能比肩DeepSeek-R1,纯昇腾集群训练

华为训练出的盘古Ultra模型参数量为135B,在数学、编程等推理任务中与DeepSeek-R1相当。该模型在预训练和指令调优阶段采用了Sandwich-Norm层归一化、TinyInit初始化策略及多并行优化技术,实现了52%以上的算力利用率,并在多个数据集上取得优异表现。

超越ControlNet!复旦联合腾讯优图提出AI生图新框架,解决多条件生成难题

复旦大学和腾讯优图实验室提出PixelPonder,一种新的多视觉控制框架。它解决了当前方法在组合多个异构控制信号时面临的挑战,显著提高图像生成的可控性和文本一致性。