博士宿舍激情脑暴,革新了Scaling Law?Qwen和浙大联手推出新定律,直接干掉95.5%推理内存! 下午11时 2025/05/21 作者 AI前线 算缩放定律(Parallel Scaling Law,简称 ParScale),即在训练和推理期间增