深度学习
无需预对齐即可消除批次效应,东京大学团队开发深度学习框架STAIG,揭示肿瘤微环境中的详细基因信息
团队提出了一种名为 STAIG (基于图像辅助的图对比学习进行空间转录组学分析)的深度学习框架,能够
大,就聪明吗?论模型的“尺寸虚胖”
文章介绍了Gemma-3和DeepSeek V3在参数量上的对比,并指出模型效果不仅仅取决于参数大小。通过详细解释Dense和MoE架构的区别及其实际应用效果,强调了参数数量并不能直接反映模型性能优劣的观点。同时讨论了知识蒸馏技术如何让小模型继承大模型的能力,而不仅仅是关注模型的规模大小。
从深度学习到科学模拟,A5000显卡成算法工程师新宠,这背后有何技术乾坤?
A5000 显卡凭借强大图形核心与多流处理器,在深度学习神经网络反向传播计算中大幅缩短训练时间。它在性能上虽稍逊 NVIDIA RTX 3090,但性价比极高,CUDA、Tensor和RT 核心数占比均达78%,FP32等性能接近。现正进行破价活动,A5000 24G GPU 最低 0.88 元/小时,新用户注册可获10元代金券,学生用户更有额外奖励。
独家|华为诺亚方舟实验室主任换帅,90 后王云鹤接班姚骏
MLNLP社区是国内外知名的人工智能社区,致力于促进学术界、产业界和爱好者的交流合作。近期华为诺亚方舟实验室主任更换,新任领导为九零后科学家王云鹤。
AlexNet-Source-Code:2012 年的原始 AlexNet 源代码
AlexNet-Source-Code (2012年) 在ImageNet竞赛中夺冠,推动深度学习应用,包含原始参数文件和CUDA加速训练。