Transformer 架构重大改进:华人科学家刘壮联合何恺明,Yann LeCun整活
Meta AI华人团队联合大牛发布论文,证明Transformer模型可以不用Normalization层也能达到甚至超越现有性能。核心秘密是Dynamic Tanh (DyT)函数,相比传统方法,DyT简单有效,性能不输且速度快、成本低。
Meta AI华人团队联合大牛发布论文,证明Transformer模型可以不用Normalization层也能达到甚至超越现有性能。核心秘密是Dynamic Tanh (DyT)函数,相比传统方法,DyT简单有效,性能不输且速度快、成本低。
DeepSeek开源周启动,FlashMLA项目因高效MLA解码内核受到关注。此项目优化了可变长度序列处理,并显著降低了GPU内存使用和计算成本。
Transformer教学项目:fun-transformer课程涵盖编码器和解码器实现,并在无深度学习框架环境下使用基础库实践,最后应用于机器翻译任务。
开源推理大模型新架构Huginn采用了不同于Deepseek-R1/OpenAI o1的方法,直接在高维潜空间中用隐藏状态进行推理。该模型在处理数学问题时能快速收敛到正确答案,并通过观察其推理轨迹发现了复杂的现象,如对关键数字形成圆形轨道等。
DeepSeek通过吸引年轻应届毕业生和实习生,采用扁平化管理方式,不设立硬性KPI,追求技术创新。团队规模控制在150人左右,注重培养和发展年轻天才的研发能力。
2024 Meet AI Compiler 第 6 期技术沙龙在上海成功举办,涵盖编译器架构设计、性能优化策略等内容。来自地平线、智源研究院、字节跳动等专家分享最新研究成果,并与观众深入讨论计算-网络-软件-生态协同发展的主题。