Kimi 终于出手多模态!实测视觉思考模型 K1.VS. 正式版o1,不相上下

Kimi近日推出视觉思考模型 k1,并宣布对标正式版o1。在数学及物理等多个基础科学领域的测试中,k1-preview均表现出色,甚至超越了OpenAI o1、GPT-4等强模型。同时,k1还具备强大的图像识别能力。

Sora v2即将发布,支持生成一分钟视频、多场景切换、完美的角色一致性

美国科技公司CEO表示,在伦敦举行的C21Media主题演讲中,OpenAI的Chad Nelson展示了即将推出的Sora v2的部分功能特性。Sora v2包括文本生成视频、图像生成视频、视频编辑生成和视频间转换等功能。

李飞飞《经济学人》撰文:AI 革命始于大语言模型,下一步是基于视觉的空间大模型

斯坦福大学以人为本人工智能研究院(HAI)联席主任李飞飞在《经济学人》专栏中指出,基于视觉的智能或空间智能是人工智能领域的新前沿。她认为这是下一代AI的关键所在,能够通过文本提示控制机器人、生成图像和视频,并在未来应用如家庭护理、手术辅助及教育培训中发挥重要作用。