跳至内容

文| 李玲 黄莉玲
从ChatGPT横空出世到DeepSeek引发全球瞩目,技术发展日新月异,人工智能正迅速改变着产业、社会和世界。从生成式AI引发的虚假信息泛滥,到自动驾驶技术对责任划分的挑战,技术迭代与法律滞后的矛盾日益尖锐。
全国政协委员、北京国际城市发展研究院创始院长连玉明长期关心数字经济治理话题,隐私保护、数据治理、人工智能话题都在他的关注之列。
早在这波全球性人工智能浪潮苗头初露之际,他就曾告诉南都记者:“我们必须强调和建立一个共识,即便是最先进的技术也不能脱离法律法规、社会道德和行业规范等制约条件无序发展。”
全国政协委员、北京国际城市发展研究院创始院长连玉明(受访者供图)
去年5月,国务院办公厅印发《国务院2024年度立法工作计划》,明确“预备提请全国人大常委会审议人工智能法草案”,这也意味着中国第一部人工智能专门立法不远了。
中国需要一部怎样的人工智能法,这部法律应该具备怎样的功能和定位?在全球人工智能竞争的大背景下,立法又该如何把握治理与发展的关系?2025年全国两会召开期间,南都为此专访连玉明。
如今,他对于人工智能治理有了更深远的思考。在他看来,人工智能法既是一部以未来视野引领伦理重构的“未来法”,也是一部奠定规则基石的“基本法”,更是一部以守护人的主体性为使命的“保护法”。
“人工智能发展不能只追求效率,要通过伦理嵌入和价值校准抑制技术异化风险。”
当聊到熟悉的数据治理话题时,连玉明表示应该构建全链条数权保护机制,要求企业公开数据训练来源与算法决策逻辑,打破“数据黑箱”;赋予用户“算法拒绝权”和“反操控工具”,例如社交平台需提供关闭个性化推荐的选项,防止算法过度操控用户行为。在个人信息保护领域,需超越形式合规,建立实质透明的问责机制,确保用户能够对抗算法歧视或隐私泄露。
“人工智能‘双刃剑’效应显著,算法歧视、技术失控等均需明确规则”
南都:如果把人工智能视为一项技术或者应用,用一部法律能否规制新技术带来的治理挑战?当前制定人工智能法的必要性是什么?
连玉明:人工智能作为引领新一轮科技革命和产业变革的战略性技术,其影响已渗透至经济、社会、文化、安全等各个领域。然而,技术的快速迭代与治理体系的滞后性矛盾日益凸显。单一技术或应用层面的法规难以应对人工智能的复杂性和系统性风险。例如,生成式AI引发的虚假信息、深度伪造等问题,既涉及算法治理,又关乎数据安全、知识产权和伦理审查,需要跨领域、多维度的制度协同。因此,制定一部综合性、前瞻性的《人工智能法》,是构建数字文明法治框架的必然选择。
当前立法的必要性主要体现在三方面:一是应对技术风险的紧迫性。人工智能的“双刃剑”效应显著,算法歧视、数据滥用、技术失控等问题威胁人格尊严、社会公平甚至国家安全。例如,自动驾驶事故的责任划分、AI医疗误诊的法律归责等,均需明确规则。二是参与全球治理竞争的战略需求。欧盟《人工智能法案》、韩国《人工智能基本法》等已率先构建治理框架,中国亟需通过立法输出治理方案,提升国际规则话语权。三是推动科技与法治的动态适配。传统法律难以匹配技术迭代速度,需通过“总则式”立法建立开放制度框架,为技术发展与风险防控提供弹性空间。
南都:制定人工智能法草案已列入国务院立法规划。对于人工智能法的功能定位,您怎么看?
连玉明:《人工智能法》的功能定位应体现“三位一体”的立法建构,即兼具“未来法”“基本法”和“保护法”三重属性。
《人工智能法》是一部“未来法”。作为面向数字文明的前瞻性立法,其核心在于确立人与技术共生的新范式。通过引领技术伦理重构、权利体系革新和治理模式升级,为智能社会的可持续发展奠定制度基础。
它也是一部“基本法”。可借鉴民法典的立法经验,采用“总则式”立法体例。突破传统法律应对新兴技术的滞后性,建立技术发展与法治建设的动态适配机制,构建稳定又开放的制度框架。
《人工智能法》还是一部“保护法”。立法要以守护人的主体性为核心,明确数权保护、算法治理、伦理审查等基础制度,防范技术滥用对人格尊严、隐私安全和公平正义的侵害。同时,建立针对特殊群体和弱势场景的差异化保护规则,确保技术进步服务于人的全面发展。
南都:人工智能立法不可能一蹴而就,对于这部法的制定,您有什么建议?
连玉明:立法进程需坚持“问题导向、系统思维、动态平衡”三大原则,我具体建议如下:
第一,强化企业参与,凝聚多元共识。一是在立法进程中要充分听取企业等市场主体意见,全面收集和了解企业对制度建设的诉求信息,主动了解企业所需和困难所在,促使立法进程更加有的放矢。在算法备案、数据确权等关键制度设计时,不仅要听取科技巨头意见,更要关注中小企业的现实困境。二是推动企业在立法程序的部分环节中发挥更大作用。在医疗AI、金融风控等专业领域,企业积累的“技术暗知识”比教科书更有价值。可以试点“监管沙盒”,允许企业在特定场景中先行测试责任划分、事故赔偿等规则,把实践经验转化为立法智慧。三是培育企业规则输出能力。中国企业在跨境数据流动、人脸识别伦理等领域已积累丰富经验。应当支持头部企业参与国际标准制定,把我们在智慧城市、移动支付中的治理方案转化为全球规则。
第二,深化基础理论研究,破解法律空白。组建跨学科课题组,研究“数据人”法律地位、AI科技伦理等前沿问题。例如,研究构建以“数据人”为核心的权利保障体系。“数据人”作为自然人的数字化身,其法律地位的确认需突破传统主体理论。要探索其身份法律属性,厘清权责边界,构建复合型权利体系,为相关法律问题提供法理支撑。又如,要确立“以人为本、智能向善”的价值导向。人工智能发展不能只追求效率,要通过伦理嵌入和价值校准抑制技术异化风险。确立算法透明、人工干预等刚性规则,避免自动化决策对个体自主性的侵害。同时,构建“技术善意”评估标准,划定人本红线。
第三,聚焦重点领域,筑牢安全底线。国家安全方面,建立核心算法备案、数据跨境流动审查等机制,对涉及国家命脉的AI研发进行动态安全评估,防止技术失控。公共利益维护方面,防范平台利用算法制造信息茧房、煽动社会对立,通过算法备案和审计确保推荐系统不扭曲事实。在医疗诊断、司法裁判等领域,保留人类最终决定权,维护社会公平。个人信息保护方面,建立全链条保护机制,要求企业公开数据训练来源和算法决策逻辑,赋予用户“反操控”工具,不能仅满足于形式合规。知识产权保护方面,破解“AI创作”的法律空白,探索“智能生成物”分级确权规则,平衡创作者和技术开发者的利益,既鼓励创新,又防止算法滥用。
“立法需为技术迭代预留接口,根据技术演进调整监管尺度”
南都:在中美人工智能竞争的大背景下,此时立法会否限制和影响中国人工智能发展?如何把握治理与发展的关系?
连玉明:立法不是限制发展的枷锁,而是护航创新的基石。中美竞争的本质是技术规则与治理能力的竞争。中国立法需在“安全可控”与“创新包容”间寻求动态平衡。
一方面,以治理促发展,防范系统性风险。明确“技术善意”评估标准,划定人本红线。例如,禁止将AI用于社会信用评分中的歧视性算法,避免技术滥用损害社会信任。通过“负面清单”管理模式,对高风险应用,如深度伪造、自动驾驶等,严格监管,对如智能客服等低风险场景适度放宽,为创新保留空间。
另一方面,以发展强治理,提升国际竞争力。鼓励企业参与技术标准制定,推动国产深度学习框架、算力芯片等核心技术自主化,减少对境外技术依赖。通过立法建立“中国版”治理方案,例如在数据跨境流动中探索“分类分级”管理模式,既保障安全,又促进国际合作。
治理与发展的关系本质是“在发展中规范,在规范中发展”。立法需为技术迭代预留接口,例如设置定期评估机制,根据技术演进调整监管尺度。
南都:韩国《人工智能基本法》将于2026年实施,如何评价域外立法实践?对我国有何启示?
连玉明:韩国的《人工智能基本法》是全球第二个全面的人工智能立法,紧随欧盟之后。该法案的核心内容包括风险分级管理、透明度义务、安全评估要求以及设立监管机构等。例如,韩国对高影响力AI和生成式AI进行了严格监管,要求企业履行透明度义务,如标明AI生成内容,并对违规企业处以高额罚款。此外,韩国借鉴了欧盟的“基于风险”的监管模式,将AI应用分为不同风险等级进行管理,这有助于精准治理。韩国的立法体现了对技术风险的前瞻性应对,通过构建系统框架平衡创新与伦理,但也面临可能的监管过严问题,可能抑制企业创新活力。同时,欧盟的《人工智能法案》强调高风险领域的严格管控,如禁止社会评分系统,这些经验为其他国家提供了参考。
对于中国来说,可以借鉴韩国的风险分层机制,避免“一刀切”监管,同时加强用户权利保护,如算法解释权,并推动国内治理经验国际化。此外,结合欧盟的监管沙盒模式,中国可探索适应性更强的监管工具,促进技术迭代与法律协同发展。韩国与欧盟的立法实践表明,人工智能治理需兼顾风险防控与创新激励。中国应立足本土需求,吸收域外经验,构建兼具包容性与前瞻性的法律框架,既为技术发展划定安全边界,又为全球治理贡献“中国方案”。
(文:AI前哨站)