Transformer 架构重大改进:华人科学家刘壮联合何恺明,Yann LeCun整活

Meta AI华人团队联合大牛发布论文,证明Transformer模型可以不用Normalization层也能达到甚至超越现有性能。核心秘密是Dynamic Tanh (DyT)函数,相比传统方法,DyT简单有效,性能不输且速度快、成本低。

谷歌Gemini频繁更新,这次能逆袭吗?

谷歌 Gemini AI 最近动作频频。发布了参数量仅为 DeepSeek-V3 1/25 的 Gemma 3,以及支持生图功能的 Gemini 2.0 Flash-Exp 模型,并开放了 Gemini 的 Deep Research 使用权限,升级为自家推理模型 Gemini 2.0 Flash Thinking。新增个性化模式和 Gems 智能体平台等功能。