提交成功
2023-06-01

人工智能立法与发展前瞻

*本文首发于LexisNexis律商联讯《中国法律透视》


引 言


人工智能(Artificial Intelligence)概念首次提出于20世纪50年代,概指制造智能计算机程序的科学与工程,旨在使系统具备类人思考与类人行为能力。《人工智能:一种现代方法》一书中,将人工智能计算机系统划分为四类,包括:像人类一样思考的系统、像人类一样行动的系统、理性思考的系统与理性行动的系统。依据系统智能化程度,区分为弱人工智能与强人工智能。弱人工智能是目前常见的AI形式,系模拟人类行为与思考,专注于执行特定任务的智能系统。强人工智能,拟使机器具备与人类同等的智力水平,具有自我意识与学习规划能力。

ChatGPT的面世及迭代更新,促使弱人工智能逐步走向强化。在技术发展驱动下,人工智能立法规制问题再次回归公众视野。近期,国际及国内应对人工智能问题的立法进程加快。2023年4月23日,我国国家网信办就《生成式人工智能服务管理办法》公开向公众征求意见。5月11日,欧洲议会内部市场委员会与公民自由委员会以84票赞成,7票反对和12票弃权通过了关于人工智能的谈判授权草案。如何规范人工智能技术发展、确定立法监管重点与方向,成为现阶段各国应对人工智能的焦点问题。



一、近来域外立法进程


(一)

欧盟《人工智能法案》


2021年4月欧盟委员会首次提出关于制定人工智能统一规则的立法提案,经法国、捷克等国讨论修改,形成多版折衷草案。5月欧盟通过的《人工智能法案》谈判授权草案,预计将于今年年末提交欧洲议会表决。

《人工智能法案》重点确保人工智能系统由人监督,安全、透明、可追溯、非歧视和环保。提案将人工智能系统按照风险分类成为不可接受风险(unacceptable risk)、高风险(high risk)、低风险(limited risk)或最低风险(minimal risk),依照不同AI使用情况给出不同的规范措施。经修订后,侵入性和歧视性使用人工智能系统将被禁止,包括在公共可访问空间建立“实时”远程生物特征识别系统(经司法授权后执法部门起诉严重犯罪的除外)、使用敏感特征(例如性别、种族、民族、公民身份、宗教、政治取向)的生物识别分类系统、预测性警务系统、情感识别系统、从社交媒体或闭路电视录像中抓取生物特征数据以创建面部识别数据库等侵犯人权和隐私权的系统。高风险AI系统,指对自然人健康、安全、基本权利或环境造成危害的智能系统。对于某些AI系统,同时应履行披露义务,AI系统提供方负有上市后监测和报告以及调查相关事项和故障的义务,提案同时鼓励非高风险AI系统提供方自愿适用高风险AI系统的强制性要求。

高风险AI对自然人的健康和安全构成危害风险,提案要求需建立风险管理体系,做好落地、记录和维护;使用数据进行模型训练的,需采取适当的数据治理和管理做法;在产品投入市场前需提案进行符合性评估,整合技术文档;在系统设计和开发时需确保运行时自动记录日志;需向使用者提供信息,履行披露义务;系统设计开发时需采用适当的人机交互工具,健全人为监督渠道;系统须确保准确性、稳健性、网络安全性。此外,提案另对高风险AI系统提供方、产品制造商、授权代表、进口方、分销方、系统使用者等多方主体义务进行明确,要求设立公告机构和指定机构等监管组织对高风险AI系统符合性进行核查监督。

此次修正提案进一步提高了违法处罚数额,将最高3000万欧元或侵权公司上一财政年度全球营业额的6%,修改为最高4000万欧元或侵权公司上一年度全球年营业额的7%。处罚数额的提高,侧面反映了欧盟当局对人工智能监管决心与力度。


(二)

美国《人工智能风险管理框架》


与欧盟相似的,2021年5月美国国会研究服务部(The Congressional Research Service,“CRS”)发布《人工智能:背景、选定问题和政策考量》研究报告,就人工智能发展、联邦行政措施、立法选择做出了综合分析。

2022年10月美国白宫发布《人工智能权利法案蓝图》(Blueprint for an AI Bill of Rights),提出五项基本原则,包括安全有效的系统原则、算法歧视保护原则、数据隐私原则、通知和解释原则、人工替代、考虑和退出原则。其中安全有效的系统,要求智能化系统应当保证安全性与有效性,使个人免受不安全或无效系统的影响。算法歧视原则,则要求系统应以公平的方式被设计和使用,禁止不平等评估、不平等缓解。数据隐私原则要求人工智能系统在设计和构建时应当默认包含隐私保护,在其设计开发的全生命周期内进行隐私风险测评、以合理的技术及政策手段缓解隐私风险,收集使用用户信息应当征求同意并保障个人数据权利,对敏感领域数据提供额外的保护。通知和解释原则,保障个体便捷了解人工智能系统的工作机制,提供自动化系统决策的相关说明与解释。人工替代、考虑和退回原则,给予个体在人工智能系统使用过程中充分的救济权利,在系统失效、程序故障或用户希望申诉、敏感领域相关自动化系统部署等情况下,可替代选择人工监管或保障措施。

《人工智能权利法案蓝图》通过原则性规定,旨在指导人工智能系统设计、使用及部署。美国法案蓝图未制定具体的实施措施,以原则性规定的方式搭建人工智能发展基本框架。从指导性的规范设计角度来看,美国立法及制度层面上对人工智能发展尚且处在弱监管的态势,社会层面以开放的态度积极鼓励人工智能技术的创新与拓展。


二、我国人工智能立法动态


为加快建设创新型国家和世界科技强国,我国向来重视人工智能领域先发优势。2017年国务院印发关于《新一代人工智能发展规划》的通知,统筹指导人工智能发展方向与政策方针。

4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《管理办法》”)公开征求意见的通知,就生成式人工智能服务内容进行针对性规范。

《管理办法》要求生成式人工智能产品或服务应合法合规,符合公序良俗与社会公德,避免歧视、不公平竞争、虚假信息,禁止侵犯他人利益等。在管理要求上,生成式人工智能产品提供服务前,需向国家网信部门申报安全评估、履行算法备案和变更、注销备案手续。在权利义务方面,办法重点指出了生成式人工智能产品服务提供者责任,要求提供者提供安全、稳健、持续的服务、对产品数据来源合法性负责、采取适当措施防止过分依赖或沉迷、对用户输入信息和使用记录承担保护义务、不得生成歧视性内容、建立用户投诉接收处理机制、防止违规内容再生成、生成内容标识、满足透明度要求与其他合法合规要求等。

《管理办法》针对生成式人工智能服务提出了针对性监管措施,从服务安全性、来源合法性、歧视保护、投诉反馈等角度对基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术进行规制。在此之前,2022年11月国家网信办联合工信部、公安部发布《互联网信息服务深度合成管理规定》,就于我国境内应用深度合成技术提供互联网信息服务提出相关管理要求。2021年,多部门联合发布《互联网信息服务算法推荐管理规定》。综合历来管理规范来看,我国关于人工智能领域的规定采用区分业务领域、区分技术方向的措施,管理规范趋于分散化。在规范出台上,往往具有应时性特征,在特定技术出现后做出专门性管理规定。规范由行政部门主导颁布,侧重监管,在规范层级上未上升为法律。


三、人工智能监管趋势与立法建议


结合域内域外针对人工智能的立法现状于发展趋势,现阶段针对人工智能的管理规制已得到了社会公认,各国为合理规范人工智能健康发展、促进人工智能技术创新发展纷纷提出了不同规范要求。就人工智能产品与服务的急速发展以及域外立法的长臂管辖,未来针对人工智能的集中立法或将成必然之势。


(一)

强监管与弱监管的抉择


目前欧美国家在人工智能立法监管上采取不同的态度。

欧盟国家应对人工智能采用强监管态势,宣称《人工智能法案》将成为世界上首部人工智能立法。对人工智能按风险等级采取不同的监管措施,要求进行符合性评估,设定公告机构、指定机构等监管机构。

美国作为弱监管的典型,在人工智能立法上采取慎重的态度。《人工智能权利法案蓝图》以原则性条款进行规范,相关条款不具有强制效力。在技术发展与规范管理的制约平衡上,美国实务更倾向于以立法激励技术发展。2022年8月美国总统签署通过《芯片与科学法案》,拟在人工智能、机器人技术、量子计算等关键领域投入2000亿美元的研究经费与产业补贴。

在人工智能技术立法问题上,首先需要确定不同的立法监管态度,平衡鼓励创新与规范发展。立法监管划定合法边界,在对相关领域进行规范限缩的同时,不应过分压缩其生存空间、不当遏制技术创新。对于新生态的技术措施,如何实现规范与创新的有机平衡,是立法之先首要考虑的问题。我国采取鼓励人工智能技术发展同时有限规范相关领域管理的措施,以调和的政策与管理要求引导人工智能技术发展。


(二)

人工智能立法建议


综合域外立法经验与我国规范现状,针对人工智能领域立法规范,可采用统一、分级立法方式,体现宽严相济的立法导向。


1. 统一立法

现下,我国人工智能领域相关规范依技术内容不同散见于行政部门管理规定之中,立法呈现分散化、领域化,且规范层级相对较低。未来,随着人工智能技术不断发展及各国立法长臂管辖的影响,亟需统一的人工智能立法。制定关于人工智能的专门法律,能有效应对相关管理规定零散化、局部化,通过统一原则性立法要求解决新兴技术面世后立法滞后化等现有问题。

2. 分级立法

针对人工智能的立法方式,可适当借鉴欧盟立法做法,采取分级管控措施。我国目前规范举措以不同技术内容为线索进行专门化管理,专项规定的方式具有针对性、细节化特点,但却存在无法含括全部情形的缺陷。因而在统一立法时,可依照不同人工智能安全风险进行分级管理,或依照不同技术方向进行全面概括,以避免重复立法、节约立法成本、提高立法效率。

3. 宽严相济

在对人工智能领域相关问题进行立法规制时,同时应注重宽严相济的立法原则。由于人工智能属于新兴的技术产业,相关技术处在不断开拓创新的摸索发展阶段,立法在对相关安全风险、个体权利保障与事先评估审批的同时,应注重预留相关产业发展空间,以立法激励技术创新、抢占人工智能先发优势。


结 语


日前人工智能技术加速发展,良好的产业政策与市场环境下,人工智能产业迎来新的历史阶段。在技术创新发展的同时,新兴产业带来的法治挑战,亟待现实立法予以回应。各国为鼓励技术创新、规范产业发展,采取各样的立法形式对人工智能产业领域行为进行监督管控。我国积极开拓人工智能产业市场,应对人工智能发展需要与监管需求,需结合产业发展实际,进行立法引导与规范。




文章分享
相关文章推荐