万字整理斯坦福2025年人工智能指数报告:中美差距从17.5%到0.3%

作者|子川

来源AI先锋官


昨日,斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》。

这份报告长达456多页,详细的追踪了 2024 年全球人工智能(AI)行业的发展趋势。

全面介绍了中美AI竞争态势、开源模型、模型技术性能、大模型投融资、AI for Science等领域的最新数据和进展,其中DeepSeek被提及45次



《2025 年人工智能指数报告》共分八个章节,下面给大家梳理一下核心内容。

省流版:

人工智能技术持续突破,性能在高难度基准测试中显著提升

2023年,研究人员推出了MMMU、GPQA和SWE-bench三项新基准测试,用于挑战先进AI系统的极限。仅仅一年后,AI在这些测试中的表现大幅提升:MMMU得分增长了18.8个百分点,GPQA增长了48.9个百分点,而SWE-bench更是飙升了67.3个百分点。此外,AI在生成高质量视频方面取得了重大进展,而在某些编程任务中,语言模型代理甚至在时间有限的情况下超越了人类表现。

AI加速融入日常生活,从医疗到交通全面普及

从实验室走向日常生活,AI正在迅速改变各行各业。2023年,美国食品药品监督管理局(FDA)批准了223款AI医疗设备,而2015年仅有6款。在交通领域,自动驾驶汽车已不再是实验项目:美国最大的自动驾驶运营商之一Waymo每周提供超过15万次无人驾驶服务,而百度的Apollo Go Robotaxi车队已在中国多个城市投入运营。

企业全面押注AI,推动投资和使用率创纪录

2024年,美国私营部门在AI领域的投资达到1091亿美元,是中国93亿美元的近12倍,英国45亿美元的24倍。生成式AI表现尤为强劲,全球吸引了339亿美元的私人投资,较2023年增长18.7%。企业使用AI的比例也在加速上升:2024年,78%的组织报告使用AI,高于前一年的55%。与此同时,越来越多的研究表明,AI不仅提升了生产力,还在大多数情况下帮助缩小了劳动力的技能差距。

美国仍主导顶级AI模型开发,但中国正在缩小差距

2024年,美国机构开发了40个显著的AI模型,远超中国的15个和欧洲的3个。尽管美国在数量上保持领先,但中国模型在质量上的差距迅速缩小:在MMLU和HumanEval等主要基准测试中,2023年的表现差距从两位数缩小到2024年的几乎持平。与此同时,中国在AI论文和专利方面继续领先。此外,模型开发的全球化趋势愈发明显,中东、拉美和东南亚等地区也推出了多款引人注目的AI模型。

负责任AI生态系统发展不均衡,但监管和工具逐步完善

尽管AI相关事故数量急剧上升,但主要工业模型开发者中标准化的负责任AI(RAI)评估仍然罕见。不过,新推出的基准测试如HELM Safety、AIR-Bench和FACTS为评估事实性和安全性提供了有前景的工具。在企业层面,虽然许多公司认识到RAI风险,但实际行动仍然不足。相比之下,各国政府表现出更强的紧迫感:2024年,全球AI治理合作进一步加强,包括经合组织(OECD)、欧盟、联合国和非洲联盟在内的组织发布了专注于透明性、可信性和其他核心负责任AI原则的框架。

全球对AI的乐观情绪上升,但区域差异依然显著

在中国(83%)、印度尼西亚(80%)和泰国(77%),大多数人认为AI产品和服务利大于弊。相比之下,加拿大(40%)、美国(39%)和荷兰(36%)的乐观情绪较低。然而,自2022年以来,德国(+10%)、法国(+10%)、加拿大(+8%)、英国(+8%)和美国(+4%)等此前持怀疑态度的国家对AI的乐观情绪显著增长。

AI变得更高效、更经济、更易获得

得益于小型模型能力的提升,2022年11月至2024年10月间,性能达到GPT-3.5水平的系统推理成本下降了280倍以上。在硬件层面,成本每年下降30%,而能效每年提升40%。此外,开源模型与闭源模型的性能差距也在缩小:在某些基准测试中,差距从8%缩小到1.7%。这些趋势正在迅速降低先进AI的准入门槛。

各国政府加速AI监管与投资,推动行业规范化发展

2024年,美国联邦机构出台了59项AI相关法规,数量是2023年的两倍,涉及的机构数量也翻了一番。全球范围内,自2023年以来,75个国家的立法中提及AI的次数增长了21.3%,自2016年以来增长了9倍。与此同时,各国政府也在大规模投资AI:加拿大承诺投入24亿美元,中国启动了475亿美元的半导体基金,法国承诺投入1090亿欧元,印度承诺投入12.5亿美元,沙特阿拉伯的“超越计划”则代表了1000亿美元的AI相关投资。

AI与计算机科学教育加速扩展,但资源分配不均问题仍存

目前,全球三分之二的国家已提供或计划提供K-12计算机科学教育,是2019年的两倍,非洲和拉美地区进步最为显著。在美国,过去十年中计算机科学本科毕业生人数增长了22%。然而,在许多非洲国家,由于电力等基础设施的缺乏,教育资源仍然受限。在美国,81%的K-12计算机科学教师认为AI应成为基础教育的一部分,但不到一半的教师觉得自己具备教授AI的能力。

行业在AI领域主导地位加强,但技术前沿竞争加剧

2024年,近90%的显著AI模型来自行业,高于2023年的60%,而学术界仍是高被引研究的主要来源。模型规模持续快速增长——训练计算能力每五个月翻一番,数据集每八个月翻一番,能耗每年增加。然而,性能差距正在缩小:顶级模型与第十名模型的得分差距从11.9%降至5.4%,而前两名模型的差距仅为0.7%。AI技术前沿正变得越来越竞争激烈,也越来越拥挤。

AI在科学领域的影响力获顶级奖项认可

AI的重要性在重大科学奖项中得到了体现:两项诺贝尔奖分别表彰了推动深度学习(物理学)和其在蛋白质折叠中的应用(化学)的研究,而图灵奖则授予了对强化学习的开创性贡献。

复杂推理仍是AI面临的重大挑战

尽管AI模型在国际数学奥林匹克竞赛等问题上表现出色,但在PlanBench等复杂推理基准测试中仍显不足。即使存在可证明的正确解决方案,AI在逻辑任务上的表现仍不稳定,这限制了其在高风险场景中的应用效果。

下面是斯坦福大学发布《2025 年人工智能指数报告》各个章节的详细信息。

01 研发

1. 行业主导AI模型开发,学术引领高被引研究

行业在显著AI模型开发方面的领先地位进一步巩固,2024年近90%的显著AI模型(较2023年的60%)来自行业,而学术界则在过去三年中持续成为高被引(前100名)论文的主要生产者。这一趋势表明,行业在技术创新和商业化应用方面占据主导地位,而学术界则在基础研究和理论突破方面发挥核心作用。

2. 中国领跑AI论文数量,美国主导高影响力研究

2023年,共有149个基础模型发布,是2022年的两倍以上。其中,65.7%的模型是开源的(2022年为44.4%,2021年为33.3%)。尽管中国在AI研究论文总数上保持领先,但美国在高影响力研究领域仍占据主导地位,显示出其在技术创新和应用转化方面的强大能力。

3. AI论文数量激增,全面主导计算机科学领域

2013年至2023年间,与计算机科学和其他学科相关的AI论文总数几乎翻了三倍,从约10.2万篇增长至超过24.2万篇。AI在计算机科学领域的占比也从2013年的21.6%上升至2023年的41.8%,进一步巩固了其在学术界的中心地位。

4. 美国仍是显著AI模型的主要来源

2024年,美国机构开发了40个显著AI模型,远超中国的15个和欧洲的3个。过去十年中,美国始终是产生显著机器学习模型最多的国家,显示出其在AI领域的持续领先地位。

5. AI模型规模和能耗持续攀升

新研究表明,显著AI模型的训练计算能力每五个月翻一番,大型语言模型(LLM)的训练数据集每八个月翻一番,而训练所需的能耗则每年增加。这种快速增长主要由行业的大规模投资推动,进一步提升了模型性能。

6. AI模型使用成本大幅下降

以MMLU基准测试中表现相当于GPT-3.5(64.8分)的AI模型为例,其查询成本从2022年11月的每百万token 20美元下降至2024年10月的仅0.07美元(Gemini-1.5-Flash-8B),在约18个月内下降了280倍以上。根据任务不同,大型语言模型(LLM)推理成本每年下降了9到900倍。

7. AI专利数量快速增长

2010年至2023年间,AI专利数量从3833项激增至122511项,仅过去一年就增长了29.6%。截至2023年,中国在AI专利总数上居首,占所有授权专利的69.7%,而韩国和卢森堡则在人均AI专利数量上表现突出。

8. AI硬件性能提升,成本和能耗下降

新研究表明,机器学习硬件性能(以16位浮点运算衡量)每年增长43%,每1.9年翻一番。价格性能也有所改善,成本每年下降30%,而能效每年提升40%。这些进步为AI技术的普及和应用提供了更强的支持。

9. AI训练碳排放持续增加

早期AI模型(如2012年的AlexNet)训练产生的碳排放仅为0.01吨,而近年来的模型训练排放显著增加:GPT-3(2020年)为588吨,GPT-4(2023年)为5184吨,Llama 3.1 405B(2024年)为8930吨。相比之下,美国人均年碳排放量为18吨,凸显了AI技术发展对环境的潜在影响。


02 核心技术

1. AI在新基准测试中表现突飞猛进

2023年,AI研究人员推出了包括MMMU、GPQA和SWE-bench在内的一系列具有挑战性的新基准测试,旨在测试日益强大的AI系统的极限。到2024年,AI在这些基准测试中的表现取得了显著进步:在MMMU和GPQA上分别提高了18.8和48.9个百分点。而在SWE-bench上,AI系统在2023年只能解决4.4%的编程问题,这一数字在2024年飙升至71.7%。

2. 开源模型迅速追赶闭源模型

去年的AI指数显示,领先的开源模型显著落后于闭源模型。到2024年,这一差距几乎消失。2024年1月初,领先的闭源模型在聊天机器人竞技场排行榜上的表现比顶级开源模型高出8.04%。到2025年2月,这一差距缩小至1.70%。

3. 中美AI模型性能差距迅速缩小

2023年,美国的顶级模型显著优于中国同类模型,但这一趋势在2024年发生了变化。2023年底,在MMLU、MMMU、MATH和HumanEval等基准测试中,中美模型的性能差距分别为17.5、13.5、24.3和31.6个百分点。到2024年底,这些差距大幅缩小至0.3、8.1、1.6和3.7个百分点。

4. AI模型性能在前沿领域趋于收敛

根据去年的AI指数,顶级模型与排名第10的模型在聊天机器人竞技场排行榜上的Elo分数差距为11.9%。到2025年初,这一差距缩小至5.4%。同样,顶级模型与第二名的差距从2023年的4.9%缩小至2024年的0.7%。AI领域的竞争日益激烈,越来越多的开发者提供了高质量的模型。

5. 测试时计算等新推理范式提升模型性能

2024年,OpenAI推出了o1和o3等模型,这些模型旨在通过迭代推理输出结果。这种测试时计算方法显著提升了性能:o1在国际数学奥林匹克资格考试中得分为74.4%,而GPT-4o仅为9.3%。然而,这种增强的推理能力也带来了成本:o1的费用几乎是GPT-4o的六倍,速度慢30倍。

6. 更具挑战性的基准测试不断涌现

随着传统AI基准测试(如MMLU、GSM8K和HumanEval)的饱和,以及在MMMU和GPQA等更新、更具挑战性的基准测试中性能的提升,研究人员正在探索新的评估方法。其中包括“人类最后的考试”(Humanity’s Last Exam),顶级系统得分仅为8.80%;FrontierMath,AI系统仅能解决2%的问题;以及BigCodeBench,AI系统成功率为35.5%,远低于人类的97%标准。

7. 高质量AI视频生成器取得显著进步

2024年,多个能够从文本输入生成高质量视频的先进AI模型发布。值得注意的发布包括OpenAI的SORA、Stable Video Diffusion 3D和4D、Meta的Movie Gen,以及Google DeepMind的Veo 2。这些模型生成的视频质量显著高于2023年的水平。

8. 小型模型推动性能提升

2022年,在MMLU上得分超过60%的最小模型是PaLM,参数为5400亿。到2024年,微软的Phi-3-mini仅用38亿参数就达到了这一门槛,两年内参数减少了142倍。

9. 复杂推理仍是AI的难题

尽管引入了链式推理等机制显著提升了大型语言模型(LLM)的性能,但这些系统仍无法可靠地解决可以通过逻辑推理找到正确解决方案的问题,例如算术和规划,尤其是在超出其训练范围的实例上。这对系统的可信度及其在高风险应用中的适用性产生了重大影响。

10. AI代理展现出初步潜力

2024年推出的RE-Bench为评估AI代理的复杂任务提供了一个严格的基准。在短时间限制(两小时预算)内,顶级AI系统的得分是人类专家的四倍,但随着预算时间的增加,人类表现超过了AI——在32小时预算时,人类得分是AI的两倍。AI代理在某些任务中已经与人类专业知识相当,例如编写Triton内核,同时以更快的速度和更低的成本交付结果。


03 负责任的AI

1. 负责任AI评估标准逐渐兴起,但仍不普遍

去年的AI指数报告指出,大型语言模型(LLM)缺乏标准化的负责任AI(RAI)基准测试。尽管这一问题仍然存在,但新推出的基准测试如HELM Safety和AIR-Bench正在填补这一空白,为评估AI系统的可靠性和安全性提供了新的工具。

2. AI相关事故报告数量创历史新高

根据AI事故数据库的统计,2024年报告的AI相关事故数量达到233起,较2023年增长56.4%,创下历史新高。这一趋势表明,随着AI技术的普及,相关的风险和挑战也在增加。

3. 企业承认RAI风险,但应对措施仍显不足

麦肯锡的一项调查显示,尽管许多企业已经识别出关键的RAI风险(如准确性、合规性和网络安全),但并非所有企业都在积极采取措施应对。仅有64%、63%和60%的受访者分别将这些风险列为关注点,显示出企业在实际行动上的滞后性。

4. 全球政策制定者对RAI表现出强烈兴趣

2024年,全球在AI治理方面的合作进一步加强,重点是制定负责任AI的共识原则。包括经合组织(OECD)、欧盟、联合国和非洲联盟在内的多个主要组织发布了框架,明确了透明性、可解释性和可信性等关键RAI问题。

5. 公共数据资源迅速减少

AI模型依赖大量公开的网络数据进行训练,但一项最新研究发现,从2023年到2024年,数据使用限制显著增加。许多网站实施了新协议以限制AI训练的数据抓取。在C4公共爬取数据集中,受限token的比例从5-7%跃升至20-33%。这一趋势对数据多样性、模型对齐和扩展性产生了影响,并可能推动在数据限制下学习的新方法。

6. 基础模型研究透明度提升,但仍有改进空间

更新的基础模型透明度指数显示,主要模型开发者的平均透明度评分从2023年10月的37%提高到2024年5月的58%。尽管这一进展令人鼓舞,但透明度仍有很大的提升空间。

7. 更全面的事实性和真实性基准测试出现

早期的事实性和真实性评估基准(如HaluEval和TruthfulQA)未能在AI社区中广泛采用。为此,更新的评估工具如改进版的Hughes Hallucination Evaluation Model排行榜、FACTS和SimpleQA应运而生,为更全面地评估AI模型提供了新方法。

8. AI相关选举虚假信息全球蔓延,但影响尚不明确

2024年,在十几个国家和超过10个社交媒体平台上出现了大量与AI相关的选举虚假信息,包括美国总统选举期间。然而,这种问题的实际影响仍不明确,许多人预计虚假信息活动对选举的影响可能比实际情况更深远。

9. 明确去偏的LLM仍存在隐性偏见

许多先进的大型语言模型(如GPT-4和Claude 3 Sonnet)虽然设计上采取了措施以减少显性偏见,但仍表现出隐性偏见。这些模型更倾向于将负面词汇与黑人关联,将女性与人文学科而非STEM领域关联,并更倾向于将男性与领导角色联系在一起,从而在决策中强化种族和性别偏见。尽管在标准基准测试中偏见指标有所改善,但AI模型的偏见问题依然普遍存在。

10. 负责任AI研究在学术界获得更多关注

2024年,主要AI会议上接受的RAI论文数量从2023年的992篇增加到1278篇,增长了28.8%。这一持续上升的趋势表明,RAI在AI研究社区中的重要性正在稳步提升。


04 经济

1. 全球私人AI投资创纪录增长

2024年,企业AI投资总额达到2523亿美元,其中私人投资增长44.5%,并购活动增长12.1%。自2014年以来,该领域的总投资增长了13倍以上,显示出AI行业的迅猛扩张。

2. 生成式AI投资飙升

2024年,生成式AI的私人投资达到339亿美元,较2023年增长18.7%,是2022年的8.5倍以上。该领域目前占所有AI相关私人投资的20%以上。

3. 美国在全球AI私人投资中扩大领先优势

2024年,美国的私人AI投资达到1091亿美元,是中国93亿美元的近12倍,英国45亿美元的24倍。在生成式AI领域,美国的投资超出中国和欧盟及英国总和254亿美元,较2023年的218亿美元差距进一步扩大。

4. AI使用率飙升至前所未有的水平

2024年,报告其组织使用AI的调查受访者比例从2023年的55%跃升至78%。此外,报告在至少一个业务功能中使用生成式AI的受访者比例从2023年的33%翻倍至71%。

5. AI开始在业务功能中产生财务影响,但大多数公司仍处于早期阶段

尽管大多数报告AI带来财务影响的公司认为其效益有限,但49%使用AI进行服务运营的受访者报告了成本节约,其次是供应链管理(43%)和软件工程(41%),但大多数公司的成本节约不到10%。在收入方面,71%使用AI进行营销和销售的受访者报告了收入增长,供应链管理为63%,服务运营为57%,但最常见的收入增长幅度不到5%。

6. AI使用呈现显著区域变化,大中华区迎头赶上

尽管北美在组织使用AI方面仍保持领先,但大中华区显示出显著的年度增长率,组织AI使用率提高了27个百分点。欧洲紧随其后,增长了23个百分点,表明全球AI格局正在迅速演变,国际AI实施竞争日益激烈。

7. 中国在工业机器人领域的主导地位持续,尽管增速略有放缓

2023年,中国安装了276,300台工业机器人,是日本的六倍,美国的7.3倍。自2013年超过日本以来,中国的全球安装份额从20.8%上升至51.1%。尽管中国安装的机器人数量仍超过世界其他地区的总和,但这一差距在2023年有所缩小,标志着其快速扩张的适度放缓。

8. 协作和交互机器人安装变得更加普遍

2017年,协作机器人仅占所有新安装工业机器人的2.8%,到2023年这一比例上升至10.5%。同样,2023年,除医疗机器人外,服务机器人在所有应用类别的安装数量都有所增加。这一趋势表明,不仅机器人安装总量在增加,而且越来越多地部署机器人以承担面向人类的角色。

9. AI推动能源来源的重大转变,核能引发关注

微软宣布了一项16亿美元的协议,用于重启三哩岛核反应堆以支持AI运行,而谷歌和亚马逊也已达成核能协议,以支持其AI运营。

10. AI提升生产力并缩小技能差距

去年的AI指数报告首次强调了AI对生产力的积极影响。今年,更多的研究进一步支持了这一发现,确认AI不仅提升了生产力,而且在大多数情况下帮助缩小了低技能和高技能工人之间的差距。


05 科学与医学

1. 更大更强的蛋白质测序模型问世

2024年,多个大规模、高性能的蛋白质测序模型(如ESM3和AlphaFold 3)相继推出。这些模型的规模不断扩大,推动了蛋白质预测准确性的持续提升。

2. AI在科学发现中推动快速进步

AI在科学研究中的作用持续扩大。继2022年和2023年AI驱动的初步突破后,2024年带来了更大的进展,包括用于生物任务的LLM代理训练平台Aviary,以及显著提升野火预测能力的FireSat。

3. 顶级LLM的临床知识持续提升

OpenAI最近发布的o1模型在MedQA基准测试中取得了96.0%的最新最佳成绩,较2023年的最佳成绩提高了5.8个百分点。自2022年底以来,性能提升了28.4个百分点。作为评估临床知识的关键基准,MedQA可能正接近饱和,表明需要更具挑战性的评估方法。

4. AI在关键临床任务中超越医生

一项新研究发现,仅GPT-4在诊断复杂临床病例方面就超越了有无AI辅助的医生。其他研究表明,AI在癌症检测和识别高死亡风险患者方面也超过了医生。然而,早期研究显示,AI与医生的合作可能带来最佳效果,这为未来研究提供了重要方向。

5. FDA批准的AI医疗设备数量激增

美国食品药品监督管理局(FDA)在1995年批准了首个AI医疗设备。到2015年,仅有6款此类设备获批,但到2023年这一数字飙升至223款。

6. 合成数据在医学领域展现出巨大潜力

2024年的研究表明,AI生成的合成数据可以帮助模型更好地识别健康的社会决定因素,增强隐私保护的临床风险预测,并促进新药物化合物的发现。

7. 医学AI伦理研究逐年增加

医学AI伦理领域的研究数量从2020年的288篇增长至2024年的1031篇,四年间增长了三倍以上。

8. 基础模型进入医学领域

2024年,一系列大规模医学基础模型发布,包括通用多模态模型Med-Gemini,以及专注于心脏超声的EchoCLIP和放射学的ChexAgent等专业模型。

9. 公共蛋白质数据库规模扩大

自2021年以来,主要公共蛋白质科学数据库的条目数量显著增长,包括UniProt(增长31%)、PDB(增长23%)和AlphaFold(增长585%)。这一扩展对科学发现具有重要意义。

10. AI研究赢得两项诺贝尔奖

2024年,AI驱动的研究获得了最高荣誉,两项诺贝尔奖授予了AI相关突破。谷歌DeepMind的Demis Hassabis和John Jumper因AlphaFold在蛋白质折叠方面的开创性工作获得化学奖。与此同时,John Hopfield和Geoffrey Hinton因对神经网络的基础性贡献获得物理学奖。


06 策略和治理

1. 美国各州在AI立法方面领先,联邦层面进展缓慢

2016年,仅有一项与AI相关的州级法律通过,到2023年增加到49项。仅在过去一年中,这一数字就翻了一番以上,达到131项。尽管联邦层面提出的AI相关法案数量也在增加,但通过的法案数量仍然很少。

2. 各国政府大力投资AI基础设施

加拿大宣布了一项24亿美元的AI基础设施计划,中国启动了一个475亿美元的基金以促进半导体生产。法国承诺投资1170亿美元用于AI基础设施,印度承诺投资12.5亿美元,而沙特阿拉伯的“超越计划”包括对AI的1000亿美元投资。

3. 全球立法程序中AI提及次数持续上升

在75个主要国家中,2024年立法程序中提到AI的次数比2023年增加了21.3%,从1557次增加到1889次。自2016年以来,AI提及的总次数增长了九倍以上。

4. AI安全研究所全球扩展和协调

2024年,世界各国启动了国际AI安全研究所。第一个研究所于2023年11月在美国和英国成立,随后在2024年5月的首尔AI峰会上,日本、法国、德国、意大利、新加坡、韩国、澳大利亚、加拿大和欧盟等国家和地区承诺设立更多的研究所。

5. 美国AI相关联邦法规数量激增

2024年,共出台了59项AI相关法规,是2023年25项的两倍多。这些法规来自42个不同的机构,是2023年21个机构的两倍。

6. 美国各州扩大深度伪造法规

在2024年之前,只有加利福尼亚州、密歇根州、华盛顿州、德克萨斯州和明尼苏达州五个州颁布了在选举中监管深度伪造的法律。2024年,包括俄勒冈州、新墨西哥州和纽约在内的15个州引入了类似措施。此外,到2024年,已有24个州通过了针对深度伪造的法规。


07 教育

1. 美国高中计算机科学教育现状

美国高中计算机科学(CS)课程的参与率和入学率较上一学年略有增长,但不同群体之间的差距依然存在。学生参与情况因州、种族和民族、学校规模、地理位置、收入、性别以及残疾状况而异。尽管整体趋势向好,但教育公平性仍是亟待解决的问题。

2. 美国计算机科学教师面临人工智能教学困境

尽管81%的美国计算机科学教师认为,人工智能(AI)的使用和学习应纳入基础计算机科学课程,但不到一半的高中计算机科学教师觉得自己具备教授AI的能力。这一现象表明,教师培训和资源支持仍需加强,以满足人工智能教育的需求。

3. 全球K-12计算机科学教育进展与挑战

全球三分之二的国家已提供或计划提供K-12阶段的计算机科学教育,这一比例自2019年以来翻了一番,非洲和拉丁美洲国家的进展尤为显著。然而,非洲国家的学生因学校缺乏电力供应,计算机科学教育的可及性最低,基础设施不足仍是主要障碍。

4. 美国人工智能硕士毕业生数量激增

2022年至2023年间,美国人工智能硕士毕业生数量几乎翻倍。尽管本科和博士学位的增长可能需要更长时间才能显现,但硕士阶段的激增可能预示着未来所有学位层次的趋势。这一现象反映了人工智能领域的关注度和需求正在快速上升。

5. 全球信息技术与通信专业毕业生分布

美国继续在全球范围内引领信息技术与通信(ICT)专业毕业生的培养,涵盖所有教育层次。西班牙、巴西和英国紧随其后,成为不同层次的主要培养国,而土耳其在性别平等方面表现最为突出。这一数据表明,尽管全球教育资源分布不均,但部分国家在特定领域仍具有显著优势。


08 舆论

1. 全球对AI产品和服务的谨慎乐观情绪上升

根据Ipsos在2022年和2024年对26个国家的调查,18个国家中认为人工智能(AI)产品和服务利大于弊的人群比例有所增加。全球范围内,这一比例从2022年的52%上升至2024年的55%。尽管增长幅度不大,但显示出对AI的接受度正在逐步提升。

2. AI对日常生活的影响力被广泛认可

全球约三分之二的人认为,AI驱动的产品和服务将在未来三到五年内显著影响日常生活,这一比例自2022年以来增加了6个百分点。除马来西亚、波兰和印度外,其他国家的这一认知均有所提升,其中加拿大(17%)和德国(15%)的增长最为显著。

3. 对AI伦理和公平性的信任下滑

全球范围内,对AI公司保护个人数据的信心从2023年的50%下降至2024年的47%。同时,认为AI系统无偏见且不歧视的人数也较去年有所减少,反映出公众对AI伦理问题的担忧正在加剧。

4. AI乐观态度的地区差异依然显著

自2023年首次报告以来,AI乐观态度的地区差异依然存在。在中国(83%)、印尼(80%)和泰国(77%),大多数人认为AI产品和服务利大于弊;而在加拿大(40%)、美国(39%)和荷兰(36%),持此观点的人群比例较低。

5. 美国公众对自动驾驶汽车的信任仍显不足

根据美国汽车协会的最新调查,61%的美国人对自动驾驶汽车感到担忧,仅有13%的人表示信任。尽管这一担忧比例较2023年的68%有所下降,但仍高于2021年的54%。

6. 美国地方政策制定者对AI监管的支持显著增强

2023年,73.7%的美国地方政策制定者(涵盖乡镇、市和县级)支持对AI进行监管,较2022年的55.7%大幅上升。民主党(79.2%)的支持率高于共和党(55.5%),但两党均较2022年有显著增长。

7. AI乐观态度在曾经的怀疑者中显著上升

全球范围内,对AI产品和服务的乐观情绪有所增加,尤其是在过去持怀疑态度的国家。2022年,英国(38%)、德国(37%)、美国(35%)、加拿大(32%)和法国(31%)对AI利大于弊的认同度较低。自那以后,这些国家的乐观情绪分别增长了8%、10%、4%、8%和10%。

8. AI将重塑工作方式,但取代担忧仍较低

全球60%的受访者认为,AI将在未来五年内改变人们的工作方式,但只有36%的人担心AI会在五年内取代他们的工作。这表明,尽管AI对就业的影响备受关注,但人们对完全被取代的担忧仍相对较低。

9. 美国地方政策制定者在AI政策优先事项上分歧明显

尽管美国地方政策制定者普遍支持AI监管,但他们在具体优先事项上存在分歧。支持率最高的政策包括更严格的数据隐私规则(80.4%)、失业人员再培训(76.2%)和AI部署监管(72.5%)。然而,对于执法面部识别禁令(34.2%)、工资补贴(22.9%)和普遍基本收入(24.6%)的支持率显著下降。

10. AI被视为节省时间与娱乐助推器,但经济影响仍存疑

全球对AI的影响看法不一。55%的人认为AI能节省时间,51%的人期待它提供更好的娱乐选择。然而,对AI在健康(38%)、经济(36%)、就业市场(31%)和个人工作(37%)方面的积极影响信心较低。

报告网站:
https://hai.stanford.edu/ai-index/2025-ai-index-report
报告下载:

https://haiproduction.s3.amazonaws.com/files/hai_ai_index_report_2025.pdf




 

(文:AI先锋官)

发表评论