真的撞墙?OpenAI 的任务对齐主管:2025年AI会在高阶应用突破,但一般人会感觉停滞
文章讨论了OpenAI的研究人员预计,在接下来的阶段中,人工智能将在大量高度专业化的技术任务上表现出色,这可能让大多数人感觉进展停滞不前。作者推测这种现象类似于智能手机的普及过程,并对Gary Marcus在2026年仍坚持深度学习已触及瓶颈的观点表示怀疑。
文章讨论了OpenAI的研究人员预计,在接下来的阶段中,人工智能将在大量高度专业化的技术任务上表现出色,这可能让大多数人感觉进展停滞不前。作者推测这种现象类似于智能手机的普及过程,并对Gary Marcus在2026年仍坚持深度学习已触及瓶颈的观点表示怀疑。
微软TinyTroupe通过LLM驱动的Multi-Agent角色模拟,允许创建具有特定个性、兴趣和目标的人智能体(TinyPerson),可用于广告评估、软件测试、培训生成合成数据、产品管理和头脑风暴等多个领域。
微信公众号新版本支持朗读音色功能,允许用户通过朗读文本来创建个人声音库。作者分享了这一变化对AI音频合规性和风险控制的考虑,并表示这是微信和AI发展的一大步。
国内大模型初创公司月之暗面推出的新一代推理模型Kimi k0-math在数学能力上已实现对标OpenAI o1-mini和o1-preview,包括在中考、高考等基准测试中表现出色。该模型采用了强化学习和思维链推理技术,能够模拟人脑的思考过程,并能有效应对竞赛级别的数学题库。
AIGC领域专家Sam Altman因对比OpenAI和马斯克Grok2模型的回答内容引发争议。用户发现ChatGPT更中立回答而Grok2则偏向哈里斯,Sam坚称ChatGPT偏见最小,但遭网友质疑数据截取不完整。文章解释了AI生成文本的随机性和多因素影响导致结果差异的原因。
MLNLP
社区是国内外知名的机器学习与自然语言处理社区,受众覆盖国内外NLP硕博生、高校老师以及企
卡内基梅隆大学提出了一种新的视频大模型加速方法Run-Length Tokenization(RLT),通过将连续相同的图像块合并为一个token,使得Transformer的视频处理速度大幅提升。精度几乎没有损失的前提下,训练时间可缩短30%,推理阶段提速率可达67%。