跳至内容

文| 杨柳
“AI的每一个进展都如此激动人心,但大家对AI安全和治理的讨论反而好像降温了。”3月26日,博鳌亚洲论坛一场分论坛上,复旦大学经济学教授杨燕青感慨,“当AI越强,AI的治理和安全实际上就更加重要。”
AI安全议题被弱化,在今年2月巴黎AI行动峰会上便已凸显。长期从事AI与地缘政治、法律交叉研究的张鹏,是多场AI行动峰会的亲历者。他注意到,2023年的英国布莱切利AI峰会和2024年的首尔峰会,主题都是围绕AI安全风险、如何防止风险展开,而巴黎峰会的主基调已从AI安全转向AI创新与发展。“安全还是个议题,但很大程度上被边缘化了”。
隐藏在背后的冲突点在于,AI的监管与创新是否不可调和?
“可以做到鱼和熊掌兼得。”博鳌亚洲论坛期间,中国科学院研究员、联合国人工智能高层顾问机构专家曾毅接受南都等媒体采访时说,AI治理并非阻碍AI行业发展的“缰绳”,而是引导其正确发展的“方向盘”。
中国科学院研究员、联合国人工智能高层顾问机构专家曾毅在博鳌论坛发表分享观点。图:杨柳
早在2023年3月,非营利组织未来生命研究所发表公开信,呼吁暂停研发比GPT-4更强大的人工智能系统至少6个月。曾毅作为签署者之一解释说,很多人都误解了这项倡议,以为是不要推进AI的研究。事实上,这项倡议旨在提醒公众,构建AI“安全护栏”的速度没能跟上AI发展的步伐。此前,全世界的科学家不清楚如何构建“安全护栏”,但经过一段时间的探索,学界已经有了初步的答案。
曾毅介绍,最新的技术进展表明,可以在构建“AI安全护栏”的同时,不损害大模型的能力。他提到自己今年在AI机器学习顶会上发表的一项研究——将十几款大模型的安全能力提升百分之二三十,对模型的问题求解能力的影响几乎可以忽略不计。这证明在极小代价的情况下,生成式AI仍能稳健发展。“利用人工智能技术本身推进人工智能的伦理安全,在技术和科学上是可行性的”。
“当然,这项探索还很初步,不是所有的安全问题都可以被解决掉。”曾毅认为,对于已知风险,可以在大模型提供上线服务前,用标准化的方式去解决;对于未知的风险,则需要积极进行战略性研判。
为应对生成式AI浪潮,《人工智能法草案》先后被列入2023年和2024年的国务院立法工作计划,预备提请全国人大常委会审议。学术界也给出多个版本的AI法律示范版本。尤其是欧盟和韩国相继通过一部《人工智能基本法》后,大而全的统一AI立法不乏赞同声,但也面临较大争议。
近期一场关于AI立法的研讨会上,中国政法大学比较法学研究院教授刘文杰认为,目前人工智能还处于飞速发展阶段,其将对人类生活及国际竞争产生哪些长远影响,仍待深入观察。同时,目前我国行政主管部门通过规章、规范性文件等多种方式对人工智能产业进行监管,可根据实际情况及时调整监管力度。这种灵活监管模式有利于产业发展,相较于通过一部AI“根本大法”解决所有问题的设想更切合实际。
曾毅同样秉持“小步快跑”的AI立法策略。他说,相较于推出一部覆盖全面的人工智能法律,更有效的做法是针对AI新兴和垂直领域,优先采用部门监管制度和标准的形式,解决短期内最关键、最紧迫的问题,“等法律是来不及的”。但现有的规制手段还不足够,特别是在涉及AI代替人类决策的场景,应当由法律加以规范。
随着自主执行任务的AI智能体日益火爆,曾毅在受访中反复强调:“不要让人工智能完全代替人的决策,一定要把决策权掌握在人类手中。”这是他对人机关系定位的论断——让AI变成启发人类的工具,而不是替代人类的工具。
基于这一论断,曾毅不认同用AI去炒股和做医疗诊断。他举例说明,在医疗领域,AI系统可用于大规模疾病筛查,但在药物治疗决策方面则应由医生负责。“AI永远不应该代替医生做决策,否则在一些情况下可能产生灾难性后果”。
教师用AI给学生评判作文的场景应用,更让曾毅笃信上述判断。一次,曾毅上小学的女儿写了一篇作文,AI给出的评价是“没有自我体验、没有比喻”。然而,最终检查发现,这是AI对作文内容的误判。曾毅认为,用AI替代决策,给他女儿造成的便是直接的伤害。如果教师先自行审阅学生的作文,再参考AI提供的反馈意见,修正其中不合理之处后再告知学生,这是一种更好的方式。
(文:AI前哨站)