
图片来源:IEEE Future Directions
在一份新报告中,由人工智能先驱李飞飞共同领导的加州政策团体建议,立法者在制定人工智能监管政策时,应考虑“全球范围内尚未观察到”的人工智能风险。
周二发布的 41 页中期报告来自加州前沿人工智能模型联合政策工作组,该工作组由州长加文·纽森在否决加州有争议的人工智能安全法案 SB 1047 后组织成立。
尽管纽森认为 SB 1047 未能达到预期目标,但他去年承认需要对人工智能风险进行更广泛的评估,以便为立法者提供信息。
报告中,李飞飞与合著者——加州大学伯克利分校计算机学院院长詹妮弗·查耶斯,以及卡内基国际和平基金会主席马里亚诺-弗洛伦蒂诺·库埃利亚尔,共同主张应制定法律以增强对 OpenAI 等前沿 AI 实验室所研发内容的透明度。
报告发布前,来自不同意识形态领域的行业利益相关者进行了审阅,其中包括坚定支持 AI 安全的图灵奖得主约书亚·本吉奥,以及反对 SB 1047 法案的 Databricks 联合创始人伊昂·斯托伊卡等人。
报告指出,人工智能系统带来的新型风险可能需要立法强制 AI 模型开发者公开其安全测试、数据获取实践及安全措施。此外,报告还提倡提高第三方对这些指标及企业政策评估的标准,并加强对 AI 公司员工和承包商举报人的保护。
李飞飞等人指出,关于人工智能在协助实施网络攻击、制造生物武器或引发其他“极端”威胁方面的潜力,目前证据尚不充分。然而,他们也主张,人工智能政策不仅应应对当前风险,还应预见在缺乏充分防护措施下可能出现的未来后果。
报告指出:“例如,我们无需亲眼目睹核武器爆炸,也能可靠预测其可能并确实会造成巨大破坏。如果那些对最极端风险的猜测是正确的——我们尚不确定是否如此——那么当前在尖端人工智能领域不作为的代价和成本将是极其高昂的。”
报告建议采取双管齐下的策略来提高 AI 模型开发的透明度:信任但要验证。报告指出,应为 AI 模型开发者及其员工提供途径,让他们能够报告公众关注的领域,例如内部安全测试,同时要求他们提交测试声明以供第三方验证。
虽然该报告(最终版本定于 2025 年 6 月发布)并未具体支持任何立法,但它受到了人工智能政策制定辩论双方专家的广泛好评。
乔治梅森大学专注于人工智能的研究员迪恩·鲍尔(Dean Ball)曾在 X 平台上批评过 SB 1047 法案,他在一篇帖子中表示,这份报告对于加州的人工智能安全监管来说是一个充满希望的进展。加州州参议员斯科特·维纳(Scott Wiener)去年提出了 SB 1047 法案,他认为这也是人工智能安全倡导者的一次胜利。维纳在一份新闻稿中表示,这份报告建立在“我们在立法机构[2024 年]开始的人工智能治理紧急对话”基础之上。
该报告似乎与 SB 1047 法案及 Wiener 后续提出的 SB 53 法案的多个要点相吻合,例如要求 AI 模型开发者报告安全测试结果。从更广泛的角度看,这似乎是 AI 安全领域人士急需的一场胜利,他们的议程在过去一年中遭遇了挫折。
资料来源:techcrunch
编译:ChatGPT
(文:Z Potentials)