清华大学
AI改变数学的一年!黎曼假说、朗兰兹猜想,盘点2024年数学里程碑
在2024年,数学界取得了多个里程碑式的成就。几何朗兰兹猜想的证明引发了广泛关注,人工智能在数学领域也取得了突破,如AlphaGeometry在国际数学奥林匹克竞赛中的表现。球堆积问题也有新进展,三位数学家反驳了米尔诺猜想。数论方面,黎曼假说取得重大突破,组合数学领域也有重要进展。这些成就预示着未来数学研究的新方向。
创业搞AI的清北复交毕业生们,都选择在哪些城市开公司?
中国AI创业者倾向于在毕业学校所在地或之前工作过的公司所在地创业。以清华、北大、浙大等高校为例,AI创业者更倾向于在北京、上海和浙江注册公司;而阿里系、百度系及腾讯系的AI创业者则偏好选择在浙江、北京和广东等地。
大模型助力分割,刷新10项SOTA!清华和美团提出HyperSeg:通用分割框架
首个基于视觉大语言模型(VLLM)的通用分割模型HyperSeg,能够处理像素级图像和视频感知任务,并具备复杂的推理和对话能力。在多个分割任务中刷新了10项SOTA,展现了卓越性能。
大模型的摩尔定律来了!清华研究:模型密度每3个月翻一倍
清华大学和ModelBest Inc最新研究发现大模型「密度」每3个月就翻一倍,提出容量密度衡量新标准。未来AI发展的关键不再是比拼模型大小,而是看其效率。ChatGPT发布加速了这一趋势。高密度模型能降低计算成本、适配普通设备并节约能源。研究强调应关注现有大模型的优化而非一味追求更大模型。
Scaling Law不是唯一视角!清华刘知远团队提出大模型“密度定律”:模型能力密度100天翻番
清华NLP实验室提出大模型的密度定律,表示模型能力随时间呈指数级增长。研究发现大模型的有效参数量与实际参数量之比(能力密度)持续增加,并且AI的电力、算力和智力也遵循类似的快速增长趋势。
LLM最大能力密度100天翻一倍!清华刘知远团队提出Densing Law
清华大学刘知远教授团队提出大模型密度定律,指出模型能力随时间呈指数级增长,每3.3个月翻一倍。该定律揭示了AI时代电力、算力与智力都在快速增长的趋势,并可能推动端侧智能的发展。