百度创始人、CEO李彦宏(图片来源:视频截图)
百度创始人、董事长、CEO李彦宏(Robin Li)终于被问到中国DeepSeek带来的影响。
北京时间2月11日下午,钛媒体AGI获悉,在迪拜举行的2025世界政府峰会首日活动上,李彦宏与阿联酋 AI 部长奥马尔·苏丹·阿尔·奥拉马(Omar Sultan Al Olama)进行圆桌对谈。
奥拉马首先直接问李彦宏:“DeepSeek这个热潮,在你看来,这是预料之中的吗,比如你真的认为这会发生吗?它将在过去以这种方式发生。或者你是不是也被DeepSeek所困?”
李彦宏对此表示,今天谈论大模型时,AI大模型成本每年减少90%以上,比计算机革命“摩尔定律”快得多,在美国的环境里,他们总是建立或开发最强大的大语言模型,但在中国,由于计算限制,我们必须创新以降低成本。
“基本上,我认为创新是不能被计划的。你不知道创新何时何地到来,你所能做的,是营造一个有利于创新的环境。”在李彦宏看来,百度在ChatGPT发布三个月后推出文心一言(现在名为文小言),这是中国上市公司中第一个推出类ChatGPT应用的。“这是一个非常激动人心的时刻,我们到处都能看到创新,我们必须适应这种快速变化的创新。”
据悉,截至2024年11月,百度文心大模型的日均调用量已经超过15亿,相较一年前首次披露的5000万次,增长约30倍。李彦宏表示“增速超出预期”,说明AI是真需求。
他感慨,这代表着过去两年中国大模型应用的爆发。
2023年1月,钛媒体App报导称,李彦宏在百度内部直言,短期公司“亏是因为高速成长”是行的,但是长期来讲是不行的,很多企业级公司因为没有现金周转能力,没有现金流,最后资金断裂公司会死掉。李彦宏还痛斥内部员工没有商业意识,致使新业务“收入质量”不高。
2023年11月,李彦宏在深圳一场活动中表示,中国的大模型太多。国内有200多个大模型其实都没有什么使用量,他暗指文心大模型一家的调用量高于200多个大模型。李彦宏还称,要开发好用、可用的大模型,存在很高的技术和成本门槛,“重复造轮子”其实是对社会资源的极大浪费。
2023年12月,李彦宏在北京活动上强调,百模大战是对社会资源的极大浪费,更多资源应该放在超级应用。他还直言,包括百度在内的大公司内部反应太慢、生产力落后,因此内部反复强调要利用文心一言“重构”应用,而不是把当作“工具”。“首先,其实大公司反应都是很慢的,甚至我有时候讲,大公司代表落后生产力,你千万不要看大公司在做什么。”
2024年4月,李彦宏再度表示,同等效果下,成本明显更低,所以开源 AI 模型会越来越落后,引发市场关注。
2024年7月,李彦宏直言开源模型就是“智商税”,“当你理性地去想,大模型能够带来什么价值,以什么样的成本带来价值的时候,就会发现,你永远应该选择闭源模型。今天无论是ChatGPT、还是文心一言等闭源模型,一定比开源模型更强大,推理成本更低。”
2024年9月,李彦宏表示不同意“大模型能力已经没有壁垒”观点。而且他认为,算力是决定大模型成败的一个关键因素,但开源模型效率太差,无法适合未来发展。此外,李彦宏还预测,未来,中国和OpenAI GPT的 AI 大模型之间的差距可能会越来越大。
在AI应用的发展趋势上,李彦宏曾表示,智能体是AI应用的最主流形态,即将迎来爆发点。
2025年2月,中国开源 AI 模型公司DeepSeek热潮席卷全球,百度多个项目接入了DeepSeek。
其中,百度智能云千帆大模型平台正式上线了DeepSeek-R1与DeepSeek-V3模型,模型上线首日,已有超1.5万家客户通过千帆平台进行模型调用;百度百舸基于昆仑芯P800,发布部署 “满血版DeepSeek R1+联网搜索” 服务;百度智能云客悦、曦灵、甄知、一见四款大模型应用产品完成DeepSeek适配上线;百度文小言iOS版App接入DeepSeek-R1模型以优化拍照解题功能。
李彦宏还在世界政府峰会上表示,Robotaxi可以大大降低交通事故死亡率。从萝卜快跑的实际记录来看,出险率仅为人类驾驶员的1/14。“技术进步非常快,自动驾驶比人类司机安全十倍。”
不过李彦宏也表示,“这(自动驾驶)仍然是一个新产业、一个新领域,人们对事故的容忍度很低。所以如果发生一些严重的事故,可能会拖累你(企业)的收入,因此,您可能需要将操作停止一段时间,找出发生的情况,并进行所有调整以重新启动操作。我们一直非常小心,所以到今天为止,尽管我们已经在相对较大的规模上运营两、三年,但我们还没有任何事故发生。”
But still, this is a new industry, a new area. People’s tolerance on accidents are very low. So if some serious accident happens, it may drag down your take. You probably have to stop the operation for a certain amount of time and find out what happens and make all the adjustment to restart the operation. We’ve been very careful so that as of today, although we’ve been operating this for like 23 years on a relatively large scale, we haven’t had any g.
李彦宏在会上重点谈及算力和云基础设施,他认为基础设施层收入远高于应用层,也是需要重点发力投资的领域。
他指出,目前在应用层,AI 大模型公司还没有赚到钱,当我们谈论 AI 原生应用程序时,ARR或每年的经常性收入可能是几千万或最多几亿美元,但在GPU层面谈论的是百亿美元。尽管 AI 大模型技术成本每年降低90%,但性能越来越好,因此,技术仍在不断发展,你不能停止投资,你必须投资,为了确保你(百度)在这场技术革命中走在最前面。
“我认为在计算机和云基础架构,以及对芯片的投资仍然是非常必要的,以便提出下一个基础模型,都必须使用更多计算来尝试各种不同领域的 AI 模型。也许在某个时候,你找到了一条捷径,比如说,花了600万美元来训练一个模型,但你已经花了数十亿美元来找出哪种方式是正确的。”李彦宏称。
李彦宏指出,当前指望 AI 应用层出现“超级应用”,并且能够赚到钱产生价值,这是不太可能的。
“我认为,我们确实需要担心应用层的价值创造。如果你花费数千亿美元作为基础设施层,你就不能想出一些比这多10倍的应用程序。这是不可持续的。所以即使我们已经在各种不同的场景中看到了各种用例,可能更像是两个B端。在消费端我们还没有看到像移动互联网阶段所谓的超级应用,类似每日活跃用户数以亿计、人们每天花2小时的应用程序,我们还没有看到这样的机会。但我相信随着时间的推移,有人会发现这一点,你将能够创建一个非常有粘性的应用产品。”李彦宏表示,目前离超级应用还很远,全世界都在寻找这种超级应用产品。
李彦宏反复强调,回顾过去的100年,大多数创新都与降低成本有关。如果你能减少一定数量的成本、一定的百分比,那么意味着你的生产力也提高了这个百分比。
“我认为这就是创新的本质,只是今天的速度比以前快得多。但对于中国的公司来说,我们受到了某种类型的限制。”李彦宏称。
(文:钛媒体AGI)