[新闻] 构建灵活适配的人工智能立法体系| 数博会官网

构建灵活适配的人工智能立法体系

作者: 张 平    来源: 科技日报   编辑: 杨小婷  时间:2026-04-09 15:52:11  

  当前,人工智能技术加速迭代,已深度渗透到生产生活、社会治理、产业升级等各个领域,成为经济高质量发展的关键引擎,同时也带来一系列法律难题与治理挑战。人工智能立法作为规范技术发展、防范潜在风险、保障社会公平的核心手段,其必要性、目标与难点、模式选择等问题都值得探讨。

  治理需求亟待加快人工智能立法

  从我国发展现状看,人工智能技术正处于快速普及与迭代升级的关键阶段。实践中,AI幻觉引发的民事侵权纠纷、算法歧视导致的机会不公、数据安全泄露引发的隐私侵害、违规GEO系统实施“数据投毒”扰乱市场秩序等问题时有发生,既直接侵害了公民的人身权、财产权等合法权益,也制约了人工智能产业的健康有序发展,亟待通过立法予以规范和引导。全国人大常委会2025年度立法工作计划已将人工智能健康发展相关立法列为预备审议项目,多名人大代表也提出制定人工智能法的议案,充分凸显了人工智能立法的紧迫性与现实必要性,也体现了国家层面对人工智能法治治理的高度重视。

  从国际竞争与国家战略层面来看,人工智能已成为全球科技竞争的核心领域,世界主要司法辖区均已积极部署人工智能发展战略,加速探索相关法律法规的制定,全球人工智能立法正从源头治理走向综合治理,从粗放治理走向精细治理,形成了各具特色的治理模式。美国坚持鼓励创新、包容审慎的治理态度,持续加强顶层战略政策引导,不断更新国家人工智能战略,评估调整人工智能优先事项,贴合产业发展实际需求,同时通过总统行政令、行业自愿承诺等“软法”工具与联邦法规相结合的方式,构建灵活的治理框架。欧盟则强化成员国协同推进,将立法重心聚焦于人工智能伦理道德与标准制定,出台《人工智能法案》这一全球首部全面监管人工智能的法规,通过风险分级监管模式,强化对高风险AI应用的规范,着力维护其在新兴产业领域的国际规则话语权。在全球人工智能治理竞争与合作交织的背景下,我国加快人工智能立法,既是应对国内治理需求的必然选择,也是参与全球规则博弈、保障国家科技竞争力的重要举措。

  然而,人工智能技术发展日新月异,其应用领域的规则尚未形成,不同领域的风险等级、治理需求差异巨大,在这样的背景下,不宜制定一部体系化的人工智能法,体系化立法具有较强的稳定性和整体性,难以适配人工智能技术快速迭代与场景灵活拓展的需求,强行制定反而可能因条款笼统缺乏可操作性,或因固化滞后束缚产业创新,因此应立足产业实际,构建灵活适配的人工智能立法体系。

  技术特殊性导致立法面临挑战

  人工智能技术的特殊性与复杂性,决定了其立法过程面临诸多挑战,核心难点集中在技术特性与治理需求的矛盾、发展与规范的平衡等多个方面,具体可概括为以下四点。

  其一,如何妥善处理人工智能技术的不可预测性与立法治理的规范性、前瞻性、滞后性之间的矛盾。人工智能技术具有迭代速度快、应用场景多元、行为结果不确定等特点,尤其是智能体等新业态的出现,其风险呈现隐蔽性、传导性特征。而立法本身具有规范性、稳定性的属性,既要明确治理规则,又要具备一定前瞻性,以避免因技术迭代导致法律条文失效;同时,立法不可避免地存在滞后性,导致出现“立法追不上代码”的困境。因此,如何实现技术发展与法律规范的动态适配,成为立法首要解决的难题。

  其二,如何化解技术发展与技术治理不同步的矛盾。人工智能技术的创新突破与治理体系的完善往往存在时间差,技术应用已延伸至医疗、金融、司法等多个领域,但相应的治理规则、监管手段尚未及时跟进。这就要求立法需遵循灵活性应对原则,在明确核心底线的基础上,为技术创新预留空间,例如可借鉴知识产权领域的合理使用四要素原则,平衡技术应用与权利保护,避免过度监管扼杀创新活力,同时通过“边发展、边治理,边摸索、边修正”的敏捷治理模式,实现治理与技术发展的协同推进。

  其三,如何准确把握“有所为,有所不为”的立法尺度。人工智能立法既要发挥规范、监管作用,防范技术风险,又要避免过度干预,保障技术创新与产业发展的空间,其中的尺度把握尤为关键。实践中,诸多原则之间存在潜在冲突,例如安全原则与透明度原则,为保障AI应用安全,部分场景需要对算法进行保密,而透明度原则又要求公开算法逻辑以防范偏见与滥用;又如创新促进与风险防控的平衡,过度强调风险防控可能增加企业合规成本,制约产业发展,过度放任创新则可能引发系统性风险,如何在各类原则之间寻求平衡,明确立法的边界与重点,成为立法的核心难点之一。

  其四,如何应对超级人工智能的潜在风险,破解硅基主体带来的法律责任困境。随着技术的持续演进,超级人工智能的到来成为可能,其多主体协同发生的侵权行为如何分配法律责任、如何构建风险防控体系等问题,尚无明确答案。我国首例AI幻觉引发的侵权纠纷案明确了人工智能不具有民事主体资格,其相关责任由人类主体承担,但是由智能体服务提供者承担还是由使用者承担,关系着人工智能宽松发展还是严格监管问题。前者更倾向于保护使用者权益,后者更倾向于产业发展,立法者采取何种立场不仅取决于法律制度的内在逻辑,也与国家宏观发展战略密切相关。

  应避免“一刀切”或过度放任

  我国人工智能立法应坚持“立足国情、适度前瞻、弹性适配、分层推进”的原则,明确合理的立法定位,避免陷入“一刀切”的监管困境或过度放任的治理误区。

  首先,不宜制定强监管的综合性立法。人工智能技术涵盖领域广泛、应用场景多元,不同领域的技术特点、风险等级差异较大,若制定统一的强监管综合性立法,难以兼顾不同领域的需求,既可能制约技术创新,也可能导致监管流于形式。

  其次,应优先制定具有原则指引性的弹性立法。通过制定人工智能基本准则,明确伦理底线、安全红线,确立“以人为本、智能向善”的核心原则,规范人工智能技术的研发、应用与治理的基本方向,为后续立法提供指导。这种弹性立法既能够应对技术迭代的不确定性,为创新预留空间,又能够明确核心治理要求,防范重大风险,契合人工智能技术的发展特点。

  再次,可制定专门的人工智能促进法、发展法、保障法,或以决定、条例等形式出台宣示性立法。这种立法模式既能够强化对人工智能产业的支持,明确政府、企业、科研机构等主体的责任,又能够通过宣示性条款明确立法导向,凝聚社会共识。

  最后,应实行分层立法、分类施策,推动具体应用领域的规则完善。对于人工智能在医疗、金融、教育、司法、自动驾驶等领域的特殊应用问题应通过部门法、下位法的形式予以规范,结合不同领域的风险等级,制定针对性的监管规则与责任划分标准。形成“基本准则+专项立法+部门规章”的多层次立法体系,实现治理的精细化与精准化,既保障技术创新发展,又有效防范各类潜在风险。

  总之,人工智能立法是一项系统性、长期性的工程,既要充分认识到立法的必要性与紧迫性,又要科学把握立法难点,明确立法目标,确定合理的立法定位,兼顾创新与规范、发展与安全。通过构建多层次、弹性化、精细化的法治体系,为我国人工智能技术的健康发展提供有力的法律保障,推动人工智能更好地服务于中国式现代化建设。