PyTorch
Meta「轻量级」KernelLLM颠覆GPU内核生成,8B参数碾压GPT-4o
Meta发布KernelLLM,一个基于Llama 3.1微调的8B模型,能够在PyTorch代码基础上生成高效的Triton GPU内核,单次推理性能超越GPT-4o和DeepSeek V3。
早鸟注册倒计时4天 第二十二届自然语言处理青年学者研讨会 (YSSNLP2025)
MLNLP社区是国内外知名的人工智能社区,致力于推动自然语言处理和机器学习领域的交流合作。YSSNLP2025将于2025年6月13-16日在大连召开,会议主题为‘大模型拓界语言智能新境,连青年共筑学术创新生态’。
PYTORCH_CUDA_ALLOC_CONF基本原理和具体示例
PyTorch通过设置PYTORCH_CUDA_ALLOC_CONF环境变量中的max_split_size_mb参数来优化CUDA显存分配,从而缓解CUDA Out of Memory错误。
YYDS,哈工大博士的pytorch笔记火了!!
PyTorch作为深度学习框架,因其对初学者的友好性和灵活性而受到广泛欢迎。为了帮助用户快速掌握PyTorch常用函数,作者团队整理了一份200+函数手册,并提供书签版PDF和视频资料供下载。
Hugging Face开源nanoVLM,750行代码可训练视觉语言模型,简单到令人发指!
Hugging Face 新开源 nanoVLM 纯 PyTorch 实现,仅750行代码训练6小时即达35.3%准确率,支持免费 Google Colab 环境。体积222M参数量,模型高效易用,适合初学者快速入门视觉语言模型。