谷歌DeepMind
谷歌DeepMind推出“可微缓存增强”新方法了
谷歌DeepMind团队提出了一种名为‘可微缓存增强’的技术,该技术通过引入外部协处理器来增强大语言模型(LLMs)的键值(kv)缓存,显著提升了推理性能,并在多个基准测试中提高了准确率和性能。
什么是Post-Training?
谷歌DeepMind研究员Shane Gu提出后训练才是人工智能进化的关键观点,颠覆了传统认知。他强调微调是给AI补习特定课程,而后训练则是教会AI如何更好地思考和学习。后者被指出是一种在线学习方式,有助于持续进化和提升广泛能力。
高中辍学天才、谷歌ViT三大将集体跳槽OpenAI!组队Sora决战AGI
OpenAI挖走DeepMind和Midjourney多名顶级工程师,涉及多模态人工智能研究。其中三人曾共同发表多篇顶尖论文,包括Vision Transformer (ViT),提出了一种新的图像识别方法。
逃回大厂!谷歌天才科学家Yi Tay——639天创业血泪史
前谷歌员工Yi Tay宣布重返DeepMind,并分享了创业经历及感受。在Reka的1年半中积累了宝贵经验,但他选择回归研究岗位,指出初创公司面临的挑战包括商业化策略、人员管理和高昂成本等。
大模型创业太累大牛逃回大厂:融资1亿美金捉襟见肘,没日没夜加班胖了30斤
Yi Tay宣布重返谷歌DeepMind担任高级研究员,他在谷歌大脑工作3.3年,参与多个人工智能项目。虽然创业经历让他学到了不少知识与经验,但也遭遇了资金紧张和身心健康受损等问题。现决定回归研究根基,继续探索大模型相关方向。