APP下载

人工智能法的基本问题及制度架构*

2023-03-09侯东德

政法论丛 2023年6期
关键词:原则人工智能法律

侯东德

(西南政法大学民商法学院,重庆 401120)

当前,随着大数据、云计算的发展,依托于我国庞大的消费市场和海量的数据支撑,推动了人工智能在多元场景中的落地。当前,我国人工智能行业已经成为最火热的投资风口之一,加上国家政策的支持,人工智能产业发展迅猛,正逐渐成为新的经济增长点和国际竞争焦点。科技与法律具有密切的关系,随着人工智能技术的发展,出现了大量新的立法领域。随着人工智能技术成果在人类生产、生活领域的应用,种种新的社会关系相继出现,法律问题也接踵而至。[1]P285法律作为调整人类社会关系的重要行为规范,面对人工智能的发展,理应做出回应。在2017年国务院印发的《新一代人工智能发展规划》中,提出到2025年初步建立人工智能法律法规、伦理规范和政策体系。2023年6月国务院办公厅印发《国务院2023年度立法工作计划的通知》,明确提出预备将人工智能法草案提请全国人大常委会审议。这意味着,我国人工智能立法工作已经启动。

人工智能法作为新兴的技术法,当前学界针对人工智能法的属性、立法目的、调整对象、基本原则等基本问题尚未形成统一认识,针对人工智能法的制度构建尚缺乏系统性的研究,而这些问题是人工智能法立法过程中亟需且不可回避的。因此,在人工智能法立法之际,针对上述问题展开探讨实属必要。在这些问题中,人工智能法的属性为人工智能法的立法目的奠定了方向,而人工智能法立法目的又为人工智能法的调整对象和基本原则提供了指引,同时,人工智能法基本原则又为人工智能具体制度的构建提供了指引。鉴于此,本文拟首先对人工智能法的属性、立法目的、调整对象、基本原则等基本问题进行分析,进而再初步探讨人工智能法的制度架构如何搭建。

一、人工智能法的属性

罗马法学家关于公法与私法的划分,在法律上将国家权力和私人活动之间划定了一条清晰的界限,这就使得罗马统治者分别制定了旨在维护国家利益的公法和旨在维护私人利益的私法。公法与私法的划分对后世法学的发展具有深远的影响,也为我国法治建设提供了有益的启示。[2]P109-113由于公法与私法在价值取向、调整方法、调整对象、保护法益等方面具有显著的差异,因此,切实明确人工智能法的公法抑或私法属性,对于确定人工智能法的立法目的、调整对象、基本原则设计等均具有重要的意义。通过论证分析,本文认为人工智能法宜定位为公法主导兼具私法性质的部门法,主要理由如下:

一方面,从推动人工智能的发展角度分析。人工智能作为一项新兴技术,正成为推动我国社会经济创新发展的重要驱动力。当前,人工智能技术已经在多领域、多场景中应用落地,并且随着人工智能红利的不断释放、科研成果的迭代升级,人工智能应用场景将会不断地拓展。法律对科技的发展具有多方面的重要作用,法律可以对科技活动起到组织、管理、协调等作用,也可以规定国家各级政府在科技成果转化和推广中的地位和作用,明确其职责范围。[1]P288-289国家通过立法对人工智能研发和应用中的各类关系进行调整,以此推动人工智能的健康稳定发展。国家所制定的这一系列规范主要是为了维护国家利益和社会公共利益,并且这一系列规范所调整的主体主要是国家机关之间或国家与私人之间管理与被管理之间的关系。另一方面,从防范人工智能风险角度分析。随着科学技术的发展人类已经进入风险社会,乌尔里希·贝克在《风险社会》书中提出“在现代化进程中,生产力的指数式增长,使危险和潜在威胁的释放达到了一个我们所未知的程度”[3]P15史蒂芬·霍金对人工智能的发展表示担忧,认为成功创造出人工智能将是人类历史上最伟大的事件,很遗憾,这可能也是最后一次。埃隆·马斯克对人工智能日益扩散到日常生活感到焦虑,甚至有人将使用人工智能称之为“召唤魔鬼”。[4]P529人工智能作为一项新技术踏入了社会公众的视野,所谓“新”代表着一种未知,并隐含着未知的风险,需要历经大量的应用实践才能实现不断完善。但由于新技术自身的不成熟及不完备性,在实践中容易引发新的风险。为防范人工智能带来的安全风险,需要通过立法的方式对人工智能的研发、供应及使用等相关活动进行规制。而这一系列规范主要体现为国家监管部门对人工智能研发和应用主体的监管,主要是强制性规范。法律是反映社会的镜像,法律并不是人主观创设的产物,而是人的行为协调的结果。[5]P103因而,人工智能立法需要立足于人工智能发展的现状和人工智能对法律的需求。因此,人工智能法从总体上看宜定位为公法。

但需要注意的是,总体上将人工智能法定位为公法并不意味着人工智能法就没有私法规范。事实上,随着社会经济的发展,人类的社会关系日益复杂化,在政府和市场双重失灵面前,单纯的公法或私法均难以解决各类社会问题。在这种背景下,出现了“公法私法化”和“私法公法化”思潮。[6]P117人工智能的研发与应用不仅涉及国家利益和社会公共利益,同时还涉及私人利益,例如人工智能技术开发与产品研制,人工智能产品与服务相关的生产与销售,人工智能产品与服务相关的采购与消费等均会涉及私人之间的利益关系。而这些利益关系则需要私法规范加以调整。此外,人工智能的安全问题不仅会对社会公共利益造成损坏,而且也会对私人利益造成损坏。例如,自动驾驶汽车致人损害。关于人工智能安全问题引发的私人利益损害应当由谁承担责任、如何承担责任等问题,均属于私法调整的范畴。综上所述,人工智能法宜定位为兼具私法属性的公法。

二、人工智能法的立法目的

(一)立法目的条款存废辨析

立法目的条款是反映立法目的,能够辐射整部法律文本且执行特定立法职能的专门性条款。[7]P48在立法理论研究中,关于立法目的条款的设置有不同观点:必设说认为,立法目的条款是一部法律不可或缺的,在制定法律过程中,应当将法律的立法目的以条文的形式加以确定。[8]P485-486废除说认为,立法目的条款难以被适用,并且立法目的通常较为明确,在法律文本中设置立法目的条款有些多余,应当省略。[9]P381区分说折中了前两种观点,认为是否应当设置立法目的条款应当依据法律的类型,区分对待。至于人工智能法是否应当设置立法目的条款,本文持肯定观点,原因如下:首先,证成人工智能法的合法性。政策法是国家为了实现特定的目的而制定的法律,其合法性依赖于立法目的进行证成。[10]P415人工智能法具有鲜明的政策法特征。人工智能法的正当性不在于长期的人工智能研发与应用中的习惯。相反,我国对人工智能的规制是先有政策后有法律,并且人工智能立法的启动也具有较强的政策性。因此,人工智能法的立法目的便成了无法回避的问题。其次,彰显人工智能法的属性。前文已述,人工智能法属于兼具私法属性的公法,公法更侧重于维护国家利益和社会公共利益。通过立法目的条款规定人工智能法应当维护国家利益和社会公共利益,彰显了人工智能法的属性。最后,指引人工智能法基本原则的设计。法律原则是普遍价值观念的法律表达,集中彰显了人们为法律所设定的调整社会所应达致的目标。[11]P141人工智能法基本原则表达着人工智能的价值以及人工智能所要达到的目标,而这恰恰需要立法目的条款的指引。

(二)人工智能法立法目的考量因素

立法目的条款表达了立法者制定法律的精神以及所欲实现的目标。法律属性蕴含着法律所要保护的法益和基本立场,对立法目的的内容设计具有指引和约束作用。前文已述,人工智能法宜定位为兼具私法属性的公法。依据公法、私法划分理论,公法更侧重于保护国家利益和社会公共利益。因此,人工智能法立法目的设计宜遵循维护国家利益和社会公共利益的基本方向,具体宜考虑以下因素:

首先,宪法对人工智能法立法目的的影响。宪法是我国的根本法和母法,依宪立法是立法工作的一项基本原则。[12]P97人工智能法作为规制人工智能研发与应用的基本法,其制定也必须依据宪法。所谓依宪立法,其本质就是要求其他法律在整体上应当体现宪法的精神,而宪法精神具体体现在宪法指导思想、基本原则以及其他宪法规范形成的整体性价值中。[13]P112因此,人工智能法的立法目的也要从宪法中寻找依据。宪法作为人工智能法的上位法,对人工智能法立法目的内容的设计具有约束性规范意义。但由于宪法所规定的内容通常都是较为原则、抽象的,并且宪法所规定的内容通常都是涉及国家政治、经济、文化、社会等各方面的重大原则性问题,因而需要通过演绎的方法,将宪法的精神、指导思想和基本原则内化为人工智能法的立法目的。

其次,国家政策对人工智能法立法目的的影响。国家政策与法律具有密切关系,国家政策与法律都是人民意志的反映,二者在本质上是一致的。一方面国家政策的实现离不开法律。另一方面,国家政策是制定法律的重要依据之一。在制定法律时,国家政策尤其是党的政策是立法的重要依据,政策是法律的灵魂,没有一定的政策指导,立法目的就难以确定,就无从确定法律权利与法律义务。[1]P259国家政策作为国家权力的产物,其目的在于推进改革、实现国家宏观调控和分享改革成果。将国家政策通过法定程序上升为法律,可以有效调和法律的稳定性与社会生活复杂性之间的矛盾,同时可以落实权力机关对个人利益与社会公共利益的协调。[14]P155当前,我国关于人工智能发展已经出台多项政策。十九大报告、《国民经济和社会发展第十四个五年规划和2035年远景目标纲要》(以下称“十四五规划”)均对人工智能技术发展有所要求。此外,我国针对人工智能技术还出台多项专门性政策。在国家层面,2017年国务院印发《新一代人工智能发展规划》,将人工智能发展上升为国家战略。在部委层面,为落实《新一代人工智能发展规划》,工信部发布《促进新一代人工智能产业发展三年行动计划(2018-2020年)》。在专项规划方面,科技部根据《新一代人工智能重大科技项目实施方案》已经启动实施科技创新2030—“新一代人工智能”重大项目。在重点领域方面,2020年国家发改委发布了《智能汽车创新发展战略》,对构建智能汽车产品监管体系和网络安全体系提出了明确要求。[15]P96-98人工智能法作为一部政策性法律,其立法目的也必然受到上述政策的影响。

最后,我国人工智能发展现状对人工智能法立法目的的影响。首先,从法的本质分析。物质制约性是法律的根本属性,社会物质生活条件使人们产生了法律需求,同时又决定着法的本质和发展。[16]P71同样,人工智能法也必须在社会物质生活条件下进行具体的制度设计。因此,人工智能法立法目的条款的设置在根本上受到我国社会物质生活条件的制约。其次,从法与社会的关系分析。若将法律与社会的关系视作线性关系,且社会为自变量,则在法律与社会将呈现出一种镜像与本体的关系,在这一关系中,法律被视为镜像,社会被视为本体。[5]P103法律与社会的镜像关系表明,法律并非人类凭主观想象设计出来的,法律是对社会现象的一种反映。此外,立法的最终目的是通过制定法律规范解决社会实践中的各类纠纷。[17]P81同样,法社会学理论也主张法律的目的是化解各类社会利益冲突,法学研究的核心不在于立法和司法,而在于社会本身。[18]P124因此,人工智能法立法目的的设计应当立足于我国人工智能发展现状,着眼于人工智能发展中存在的问题和需求进行科学设计。最后,从科学立法角度分析。科学立法的核心在于尊重和体现社会发展的客观规律,使法律能够准确适应社会改革发展稳定安全的需求,并能够公正合理的协调社会利益关系。[16]P232-233因此,人工智能法的立法目的条款设计立足于我国人工智能发展现状,反映人工智能发展的规律为宜。

(三)人工智能法立法目的具体设计

1.宪法约束下人工智能法立法目的设计

宪法作为人工智能法的上位法,对人工智能法立法目的内容的设计具有约束性规范意义。我国《宪法》中有关科学技术的直接规定主要是第十四条,规定国家通过推广先进的科学技术,以不断提高劳动生产率和经济效益,发展社会生产力。人工智能技术是引领新一轮科技革命和产业变革的战略性技术,人工智能法作为规制人工智能的基本法,应当以《宪法》第十四条为指引,推动人工智能技术创新,推动人工智能技术与社会各领域的融合,使人工智能技术更好的造福人类社会。此外,除《宪法》第十四章规定外,《宪法》在序言、总纲部分对基本国策的规定也是人工智能法应当实现的目标。具体而言,《宪法》序言中规定国家的根本任务包括贯彻新发展理念,推动物质文明、政治文明、精神文明、社会文明、生态文明协调发展。对此,人工智能法也应当推动人工智能技术与经济、政治、文化、社会、生态各领域的融合发展,为推动我国社会主义现代化建设贡献力量。法治与人权具有密切联系,人权是法治进程中的依据和根本目的,贯穿于法治建设全过程之中。同时,法治又是实现人权的保障,是尊重和保障人权的重要途径。[19]P262004年我国将“国家尊重和保障人权”写入《宪法》,这就要求在国家和社会各个领域,都必须尊重和保障人权。[20]P117人工智能技术是把“双刃剑”,人工智能技术在带给人类生产、生活便利的同时,也引发了新的法律风险,例如网络攻击、个人信息泄露、技术失控致人损害风险等。人工智能法在促进人工智能技术创新的同时,也需要注重人工智能技术风险的防范,保障人工智能技术的安全、可控、可靠,避免因其潜在的风险对人类造成损害。

2.国家政策指引下人工智能法立法目的设计

关于人工智能技术的发展,党的十九大报告指出“推动互联网、大数据、人工智能和实体经济深度融合”。我国“十四五规划”也提出,要聚焦人工智能关键算法的研发突破与迭代应用,培育壮大人工智能产业。新一代人工智能发展规划指出,到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平。到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会建设取得明显成效。上述这些政策表明,人工智能技术的发展既需要技术层面的突破,也需要技术在社会各领域的应用落地。因此,在国家政策的指引下,人工智能法的立法目的应该包括促进人工智能技术的发展和推动人工智能技术在社会各领域的应用落地。

3.适应人工智能发展趋势的人工智能法立法目的设计

当前,我国人工智能技术已经进入快速发展阶段,人工智能技术已经在社会众多领域应用落地。但人工智能技术的发展仍存在以下方面问题:一方面,人工智能技术的发展仍存在制约因素。人工智能的基础支撑层由数据、算法和算力组成。数据是人工智能智能化的养料,算法的深度学习需要大量的数据,数据越多质量越高,则算法输出的结果越精确。我国虽然具有海量的数据资源,但缺乏高质量的数据,这就限制了人工智能技术的发展。同时我国数据垄断性较强,大多数据集中于公共部门或集中于少数大型互联网平台企业,并且我国尚未建立完善的数据交易、共享机制,导致大量数据难以得到有效利用。算法是人工智能“智慧”的核心,是一系列精确地指定用于执行某些具体任务的指令。[21]P48-49算法可以理解为计算的方法,通过算法函数告诉人工智能以什么逻辑和步骤处理数据,从而得出结论。算法模型设计需要大量的专业人才,而我国当前人工智能技术人才匮乏,尤其具备跨学科、复合型人才匮乏,阻碍了人工智能产业的发展。算力则是快速的决定怎么走。算法深度学习需要训练大量数据,在执行任务时需要处理大量数据,这需要强大的算力支撑。当前,我国人工智能芯片短缺导致算力无法满足人工智能发展需求,成为制约人工智能发展的关键因素。法律对科技具有重要的指引和激励作用,法律可以激励人的科技创造力,维护人的科技创造活动自由的权利。[22]P93人工智能法作为规范人工智能发展的综合性立法,理应促进人工智能技术的创新。

另一方面,人工智能技术安全问题亟需法律规制。人工智能深度学习已经能够对大规模数据进行处理和分析。然而,随着科学技术的发展人类已进入风险社会,人工智能作为一项新技术踏入社会公众视野,“新”代表着一种未知,并隐含着未知的风险,需要历经大量的应用实践才能实现不断完善。但由于新技术自身的不成熟及不完备性,在实践中容易引发新的风险,例如网络安全、数据安全、个人隐私保护等风险。在面对科技进步带来的风险时,即使科技风险本身具有不确定性,但政府仍应将“预防原则”放在以法律手段应对科技风险的中心位置。[23]P59人工智能法宜坚持底线性规制原则,以审慎的态度防范人工智能发展中的风险。

综上所述,人工智能法的立法目的概括说来主要包括以下几方面的内容:一是尊重人工智能发展规律,推动人工智能技术不断创新;二是促进人工智能在社会各领域应用,推动国家现代化建设;三是防范人工智能发展中的风险,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益,促进人工智能健康发展和规范应用。

三、人工智能法的调整对象

(一)人工智能法调整对象确定的法理逻辑

法律作为人类费时费工,付出高昂成本所制定的规范体系,其目的在于满足人类的物质与精神生活需要。[24]P126而国家之所以制定人工智能法其原因在于通过对人工智能相关活动的调整,从而促进人工智能健康发展,推动人工智能更好的造福人类社会。而人工智能法对人工智能相关活动的调整,便涉及到人工智能法调整对象的问题。人工智能法调整对象与人工智能法立法目的具有内在的逻辑关系。一方面,人工智能法调整对象是实现人工智能法立法目的的介质,只有通过人工智能法对人工智能相关活动进行规制,才使得人工智能法立法目的得以实现。另一方面,人工智能法立法目的又是人工智能法调整对象纳入规范的逻辑后果,人工智能法通过对人工智能相关活动的规制,从而实现了人工智能法立法目的。人工智能立法目的是在遵循人工智能法属性定位的基础上确定的,蕴含着立法者的精神和所要达至的目标,为人工智能立法奠定了基本方向。因此,人工智能法调整对象的确定宜以实现人工智能法立法目的为目标。

(二)人工智能法调整对象的类型分析

前文已述,人工智能法立法目的主要包括促进人工智能技术创新、推动人工智能应用落地、防范人工智能风险三大方面。据此,本文将人工智能法调整对象归纳为以下方面:

1.人工智能技术研发活动

人工智能技术研发活动主要指人工智能相关的科学研究、技术开发和产品研制等活动。人工智能法之所以宜将人工智能技术研发活动纳入调整范围,主要有以下原因:首先,促进人工智能技术创新。人工智能技术的研发活动离不开数据、芯片和人才。然而,我国数据交易与共享机制不完善、人工智能人才匮乏、芯片短缺抑制了人工智能技术的创新。法律对科技活动具有促进作用,将人工智能技术研发活动纳入人工智能法调整范围,有助于促进人工智能技术创新。其次,防范人工智能技术风险。人工智能技术作为一项新兴技术,其本身存在诸多技术性缺陷,人工智能可以在不涉及人类的情况下自动执行破坏性动作。[25]P113-117这种风险又被称之为内生安全风险。[26]P87将人工智能技术研发活动纳入人工智能调整范围,可以通过立法对数据训练活动、数据标注活动、算法设计活动等进行规制,从而提升数据质量,确保算法透明、可靠、可控,避免算法偏见,防范人工智能内生安全风险。

2.人工智能技术应用活动

人工智能技术应用活动主要是指人工智能系统提供者向用户提供人工智能系统服务的活动。将人工智能技术应用活动纳入人工智能法调整范围主要有以下原因:首先,防范人工智能技术风险,保护用户合法权益。除人工智能技术本身缺陷会引发风险外,人工智能技术被人为滥用也会引发风险,有学者称之为人工智能“助力攻击风险”。[26]P82-100将人工智能技术应用活动纳入人工智能法调整范围,可以通过立法赋予人工智能系统提供者相应的义务,并明确其责任,从而防范人工智能技术被人为滥用而引发的风险。其次,推动人工智能技术赋能千行百业,让人类共享人工智能技术发展红利。技术创新本身并非人工智能发展的最终目的,实现人工智能技术赋能千行百业,让人类共享技术发展红利才是最终归宿。实现这一转化的关键便是推动科技成果转化,促进生成式人工智能技术在多元场景应用落地。将人工智能技术应用活动纳入人工智能法调整对象,可以通过立法促进人工智能技术成果转化。同时,也可以通过立法维护人工智能产品与服务市场秩序,为人工智能产业发展营造良好的生态环境。

3.人工智能风险管理活动

人工智能风险管理活动主要包括三大方面:一是国家机关对人工智能的监管活动;二是行业组织对人工智能的自律监管;三是企业对人工智能的自律监管。将人工智能风险管理活动纳入人工智能法调整范围主要有以下原因:首先,防范人工智能技术风险。人工智能在带给人类巨大进步和福利的同时,也带来了不可忽略的伦理风险、极化风险、异化风险、规制风险和责任风险。[27]P47因此,需要强化风险意识,通过制定人工智能法构建人工智能风险防范法律体系。其次,平衡创新发展与风险防范之间的关系。人工智能创新性与风险性并存,对其监管过于严格则抑制了技术创新,监管宽松则难以有效防范风险,如何实现技术创新与风险防范的平衡是监管的难点与重点。将人工智能风险管理活动纳入人工智能法调整对象,在遵循包容审慎监管的理念下,坚持激励性原则和底线性原则进行具体的规则设计。最后,保护相关主体合法权益。一方面,保护用户合法权益。通过立法加强人工智能风险管理活动,可以有效保护用户的隐私权、个人信息和商业秘密。另一方面,保护被监管者合法权益。通过立法明确应当对哪些领域、哪些活动进行监管,明确监管机关的权责,明确监管程序,明确责任类型等,保障监管部门依法行使监管权。

四、人工智能法的基本原则

(一)人工智能法基本原则确定的法理逻辑

在逻辑上,法律原则是一个法律体系不可或缺的。由于人的有限理性不足以应对法所规范的事物变化的无穷性,法与它所规范的事物之间存在永恒的矛盾。为调和该种矛盾就需要法律原则,以此填补法律漏洞、纠正法律讹误。[16]P120人工智能法作为规制人工智能技术的基础性、综合性法律,宜保持法的稳定性。而人工智能技术更新迭代速度较快,为调和法的稳定性和人工智能技术的创新发展之间的矛盾,需要明确人工智能的基本原则。

法律的立法目的与法律原则均属于概括性概念,其内涵与外延没有明确的界限,为发挥二者的作用可以将二者视为具有位阶关系的一组概念。在二者关系中,法律的立法目的处于高位阶,法律原则是法律立法目的的具体表现形式,处于低位阶,法律原则应当体现法律的立法目的。因此,人工智能基本原则宜在人工智能法立法目的的指引下进行讨论。

(二)人工智能法基本原则确定

本文基于前文对立法目的的探讨,将人工智能法基本原则确定为以下方面:

1.公平原则

公平原则包含以下含义:首先,从主体分析,公平原则是指社会上一切人都可以平等的享有、占有和支配资源、财富或机会的一种状态;其次,从社会关系分析。社会公平是通过国家法律进行调控,体现了国家由守夜人转换成仲裁者角色开始介入社会经济发展以及分配公平等问题的决断。再次,从内容上分析,社会公平主要与分配正义有关,既包括物质财富分配,也包括权利、机会、资源等的分配。[28]P95将公平原则作为人工智能法的基本原则主要有以下原因:首先,宪法依据。我国《宪法》第33条规定“中华人民共和国公民在法律面前一律平等。”公平原则包含着平等的含义,该条款便是公平原则的体现。《宪法》与人工智能法属于母法与子法的关系,《宪法》是人工智能法的立法依据。因此,公平原则也应当属于人工智能的基本原则。其次,公平原则是法律正义价值的根本体现。[29]P25法律的基本价值包括正义、公平、秩序和效率,公平是法律价值的重要取向之一。将公平原则作为人工智能法的基本原则,体现了人工智能法对法律价值的认同。最后,数字经济具有天然垄断性,“摩尔定律”使得互联网具有边际成本趋零的特点,“梅特卡夫定律”使得互联网具有边际收益递增的优势,[30]P26这两大定律驱使着人工智能服务提供者实施垄断行为。而垄断则将导致弱者利益受到侵害、机会平等无法保障并且使得垄断者获取超额的利益。因此,应将公平原则作为人工智能法的基本原则,坚持普惠性和包容性,加强弱势群体保护,推动全社会公平共享人工智能带来的益处。然而,人工智能法所倡导的公平原则具有特定的内涵,是在承认相关主体的资源和个人禀赋等差异的前提下而追求的实质公平,具体内容包括:一是地位平等,即全社会主体在涉及人工智能各类活动中地位是平等的,人工智能算法不存在偏见和歧视;二是分配公平,即全社会主体均能够公平共享人工智能带来的益处;三是正当的差别对待,即注重对弱势群体保护。

2.可靠、可控、可信原则

可靠性原则是指人工智能系统在安全性与鲁棒性层面能够满足部署环境和可持续运行的要求。可控性原则是指人工智能系统在功能层面能够充分保护人类的自主意志和权利,保障人类对人工智能系统的控制权。可信性原则是指人工智能系统的设计和应用应当符合人类的价值理念和伦理道德。[31]之所以将上述可靠、可控、可信作为人工智能法的基本原则,主要有以下原因:首先,人工智能技术存在固有缺陷。人工智能技术本身存在诸多技术性缺陷,人工智能可以在不涉及人类的情况下自动执行破坏性动作。[25]P113-117罗伯特·洛根指出,人工智能生成的“智能”不是人的智能,而是模拟了人类智能的某些属性而已,[32]P289这种模拟的智能也将导致人工智能技术本身的不确定性和不稳定性。因此,宜将可靠性作为人工智能法的基本原则之一,以确保人工智能系统能够稳定运行。其次,人工智能存在失控风险。技术的“自主”意味着技术相对于人类的“失控”,人工智能使得现代技术在“可控”与“失控”两极之间进一步向“失控”偏移,[33]P47-50人工智能失控则将对人类构成极大威胁。因此,宜将可控性也纳入人工智能法的一个基本原则,以确保人工智能技术能够被人类所控制。最后,人工智能存在信任危机。人与技术的关系是基于某种信任而形成的一种深度融合。这种信任是人与人工智能技术关系存在的前提。[34]P38而由于人工智能算法存在缺陷,例如算法偏见、算法黑箱、算法权力异化等,将导致人与人工智能技术之间的信任危机。因此,宜将可信性也纳入人工智能的基本原则,以确保人工智能可信。

3.安全和发展并重原则

一方面,人工智能法应当保障人工智能安全。人工智能技术与社会的融合不仅将人工智能技术本身的风险带入人类社会,同时人工智能技术被滥用又产生了新的风险,并使这种风险传染性更强、风险系数更高。[35]P130对此,人工智能法宜遵循底线性思维,通过制定一系列规则守住安全底线,以防范人工智能技术风险。另一方面,人工智能法宜能够促进人工智能技术的创新发展。规制不是控制,当然更不是限制,通过立法对人工智能的规制不是抑制人工智能技术的发展,即使规制具有束缚性,也是建立在合理性基础上的必要束缚。对人工智能立法是为了促进人工智能的健康发展。人工智能技术是引领新一轮科技革命和产业变革的战略性技术,它能够推动社会生产力的极大发展,从而增加了人类福祉。法律制度对人的行为具有激励功能,法律制度可以通过对社会关系的调整,使人作出法律所要求和期望的行为,从而实现理想的法律秩序。[11]P164因此,人工智能法宜坚持发展的原则,通过恰当的制度设计,促进人工智能技术创新发展。制度是社会生产力与生产关系发展到一定阶段的产物,制度对社会实践具有反作用,[36]P614良好的制度是一种生产力。人工智能风险性与创新性并存,人工智能法宜坚持安全与发展并重的原则,通过科学的规则设计,引导“技术向善”,促使人工智能技术更好的服务于人类社会。

4.合规性原则

合规性原则主要包括以下方面内容:一是人工智能的研发活动、供应活动、使用活动等不得违反法律、不得违背社会公德和伦理道德。二是人工智能研发者、人工智能服务提供者及其他相关主体应当对自己违法行为承担责任。将合规性原则作为人工智能法的基本原则主要有以下原因:首先,合规性原则体现了对公民人格的尊重。合规性原则承认法律主体拥有理性的事实,同时尊重法律主体在理性的指导下,做出理性的行为,并相信法律主体能够对自己行为负责。[37]P172其次,弥补法律的漏洞。人工智能的监督管理活动、研发活动、供应活动是一场涉及多方主体的复杂活动。人工智能法作为规制人工智能技术的综合性法律难以全面的对人工智能各项活动进行具体规定。而合规性原则要求人工智能各项活动不得违反法律、社会公德和伦理道德,因此,可以通过合规性原则弥补法律的漏洞。最后,实现人工智能法与其他法律之间的衔接。当前我国已经出台《网络安全法》《数据安全法》《个人信息保护法》,同时颁布《新一代人工智能伦理规范》《新一代人工智能治理原则——发展负责任的人工智能》《人工智能伦理治理标准化指南》等伦理规范。可以通过合规性原则,要求人工智能各项活动要符合上述规范性法律文件的要求,从而实现人工智能法与上述法律之间的衔接。

五、人工智能法的制度架构

(一)人工智能法制度架构设计的法理逻辑

法律原则是法律的基础性真理、原理。[16]P120法律原则可以为法律规则提供某种基础或根源的综合性的、指导性的价值准则。[38]P26若将法律的立法目的、法律原则、具体制度视为具有位阶关系的一组概念,立法目的处于最高位阶,法律原则是立法目的的具体表现形式,具体制度又是法律原则的具体表现形式与载体。在这组概念中,法律原则既体现着法的立法目的,又涵摄具体制度。因此,人工智能法的制度体系宜在人工智能法基本原则的指引下进行设计。

(二)人工智能法的制度架构设计

1.人工智能发展与促进制度

随着互联网、大数据、超级计算、脑科学等技术理论的发展,人工智能发展进入新阶段,呈现出深度学习、跨界融合、自主操控、大模型等新特点。随着人工智能技术在社会各领域的融合,人工智能已经成为推动社会经济发展新的引擎并带来社会建设发展新的机遇。同时人工智能已经成为国际竞争中的一个新的焦点。创新是发展的第一动力,良好的制度也是一种生产力,人工智能法作为规范人工智能发展的基础性、综合性法律,理应推动人工智能的发展。推动人工智能技术的发展可以从技术创新和技术应用落地两个大的方面着手。

一方面,实现人工智能技术的重大突破需要从前沿基础理论、关键性技术、基础设施、人才队伍等方面着手,多方位提升人工智能技术创新能力。首先,前沿理论方面。理论对实践具有指导作用,人工智能法宜明确规定国家支持大数据智能理论、跨媒体感知技术理论、混合增强智能理论、群体智能理论、自主协同控制与优化决策理论、高级机器学习理论、类脑智能计算理论、量子智能计算理论等基础理论的研究和发展。其次,关键技术方面。人工智能应用场景、功能、目的不同,所采用的技术也有所差异。人工智能法作为规范人工智能的基础性、综合性法律可以对人工智能关键性、共性的技术进行规定,例如算法技术、大数据技术、芯片技术等。再次,基础设施方面。人工智能技术创新平台是人工智能技术研发与应用的新基建和基础。人工智能法可对人工智能创新平台的布局做出引导,包括人工智能开源软硬件基础平台、群体智能服务平台、混合增强智能支撑平台、自主无人系统支撑平台、人工智能基础数据与安全检测平台等。最后,人才队伍方面。人工智能技术的发展需要大量专业人才,人工智能可明确规定完善人工智能领域学科布局,引导和支持高等院校开设人工智能专业,推动人工智能领域一级学科建设。支持和鼓励高校、科研机构、企业等组建专业团队开展人工智能关键技术研究。完善人工智能技术人员评定机制,完善科技成果转化激励机制。

另一方面,推动人工智能多元应用场景落地。人工智能技术创新推动传统生产优化升级,并经由全面融入社会交往和日常生活趋势实现技术发展红利向社会公共福祉转变。实现这一转化的关键便是推动科技成果转化,促进人工智能技术在多元场景应用落地。一是政府职责。政府具有管理科技活动的职责,人工智能法宜明确各级政府科学技术管理部门在人工智能技术成果转化和推广中的地位、职权与责任,促进辖区内人工智能技术成果转化。二是加强产权保护。科技成果的专利权、著作权、技术秘密等是促进科技成果转化的利益驱动力量。[16]P388对此,人工智能法可明确规定加强人工智能发明专利、人工智能生成内容、人工智能技术秘密等的保护,为人工智能技术成果转化提供良好的法律环境。三是建立健全科技成果交易制度。确权是交易的前提,当前人工智能生产内容属性及权利归属、数据归属不明阻碍了技术成果转化,亟需人工智能法加以规定。此外,技术的应用容易引发垄断、不正当竞争等扰乱市场秩序的现象。对此,人工智能法宜建立公平有序的竞争规则和交易规则,以健全人工智能市场监督制度。

2.人工智能风险防范制度

科学技术发展及其所伴随的危险和潜在威胁促进生产力爆发式增长的同时亦使得社会风险程度不断增加,其副作用或负面效应常常经由某种程度获得“可接受水平”的合法化——贝克称之为“虚伪的欺骗”。[3]P75-83牛津大学哲学家尼克·博斯特罗姆将建造人工智能的研究比作“玩炸弹的孩子”。[39]P172-173可见,人工智能技术的创新性与风险性是并存的,亟需对其“立规矩”,以防范人工智能风险。

一是建立人工智能准入制度。建立人工智能准入制度是溯源治理的要求,可以从源头防范人工智能风险。首先,建立负面清单制度。明确规定属于负面清单规定内的事项禁止或限制人工智能的研发。由于法律必须保持其稳定性,只有意义稳定、安定的法律,才能有效的调整社会关系,维护良好的社会秩序。[40]P81鉴于人工智能技术的迭代更新速度较快,应用场景也在不断扩展,人工智能法作为规范人工智能技术的基础性、综合性法律宜遵循宜粗不宜细的立法原则,以此维护法律的稳定性。具体可以表述为对于以攻击、破坏为目的,或具有较大社会危害性且无法控制的技术应明确禁止研发。对具有较大社会危害性但可以控制的技术限制研发。具体的禁止和限制事项授权国务院另行规定。同时规定对于负面清单规定禁止研发的,任何人和社会组织都不得研发。对于负面清单规定限制研发的,经批准后可以研发。其次,建立备案登记制度。人工智能风险性与创新性并存,对人工智能的法律规制应遵循安全与发展并重原则。因此,对于负面清单以外的事项,可以采取备案登记制度,加强事后监管。

二是建立分级分类监管制度。分级分类监管制度是安全和发展并重原则的具体体现,契合了人工智能的创新性与风险性特征。分级分类监管的前提是按风险高低对人工智能进行分级分类。欧盟《人工智能法案》将人工智能系统的风险划分为不可接受风险、高风险、有限风险和轻微风险这样四类,并对不同的风险类型规定了不同的监管措施,该规定对我国人工智能法的立法具有一定的借鉴意义。考虑到人工智能技术更新较快,为保持法律的稳定性,我国的人工智能法可以对人工智能风险进行概括性划分,具体类型可以授权国务院规定。具体而言,对于可能危害国家安全、社会公共利益、人民群众生命健康的人工智能应划分为不可接受风险等级。对于该风险等级的人工智能无论是研发、投放市场或是使用均应当被禁止。对于可能危害自然人、社会组织其他人身权益、财产安全的人工智能应划分为重大风险等级。该风险等级的人工智能是重点监管对象,宜对其建立入市前和入市后的全流程风险监管措施。对于可能造成其他轻微危害的人工智能划分为一般风险等级。对于该风险等级的人工智能应当坚持包容审慎的理念,赋予其一定的自由度,同时赋予人工智能研发者和提供者一定的义务,加强事后监管。

三是建立试错容错监管制度。人的理性发展在于不断检视自身错误。[41]P44人的理性认知是有局限的,正如科恩所言,纵然人具有高度的智慧并秉持高度的审慎,政府官员也难免出错。[42]P178人工智能作为一项新兴科学技术,囿于人的有限认知尚无法对其进行全面认识,宜遵循发展与安全并重原则,对其实施试错容错监管。首先,明确试错容错监管的适用范围。对于风险等级属于不可接受风险的禁止研发和使用,不能适用试错容错监管制度。对于风险等级属于重大风险的要求强制适用试错容错监管制度。对于风险等级属于一般风险的,由人工智能系统研发者、提供者自主选择是否适用试错容错监管制度。其次,明确试错容错制度适用条件。采取试错容错监管的人工智能系统应当满足相关法律法规、伦理规则及相关技术标准。可要求人工智能系统研发者、提供者已经建立起完善的合规机制,并且已经对人工智能系统可能引发的风险进行评估并建立完善的防范措施。最后,建立责任豁免制度。试错容错的本质在于守住风险底线的前提下鼓励创新。因此,对于人工智能在观察期内产生的风险,在未对市场、用户等产生重大影响的情况下可以适当减轻处罚或免于处罚,并对其进行风险防范合规指导。

四是建立协同性监管制度。善治的本质在于能够有更多渠道让公民参与国家的管理。[43]P11随着大数据、大模型、芯片等技术的发展,人工智能将更为智能,应用场景也在加速扩展,对其监管也需要多方主体的共同努力,除政府监管外,还需加强行业协会、科技企业的自律监管。对此,可以充分发挥行业协会在制定人工智能伦理规范、技术标准、行业行为规范等方面的积极作用。同时,加强企业合规管理,引导科技企业建立健全内部合规体系。此外,人工智能风险评估是一种有效的事前风险防范措施,可以提前发现技术的风险隐患,避免“灰犀牛”“黑天鹅”等事件的发生。[35]P134因此建议建立第三方风险评估制度,发挥社会中介机构的“看门人”作用。

3.人工智能研发者和提供者的义务体系制度

(1)人工智能研发者和提供者的一般义务

一是公开透明性义务。算法作为一项专业性较强的新兴技术,对于普通人类而言属于“黑箱”。算法“黑箱”给算法自动化决策结果与自动化执行的过程披上了一层面纱。将这种具有“黑箱”属性的算法应用于社会各个领域,则极易引发私人资本支配公权力、算法监督的政治失灵、政府信任危机等风险。[44]P92并且,若算法不透明,人类则将难以信任算法决策的结果。因此确保人类对算法决策和执行过程的知情权,是人类面对算法活动做出理性选择的基础和前提。提升算法透明度,不仅可以促进人与算法的互动,增强人类对算法的信任,而且有利于人类在算法社会中的自我完善,实现人类自由和有尊严的发展。[45]P54因此,人工智能研发者和提供者应当在算法的设计、实验、应用等环节提升算法的透明度,进而提升人类对算法的信任度。

二是解释说明义务。人工智能研发者和提供者的解释说明义务包括两大方面。一方面是对算法决策过程的解释说明,即人工智能研发者和提供者以人类能够理解的方式对算法自动决策的过程进行诠释说明。赋予人工智能研发者和提供者对算法决策解释说明义务主要基于以下原因:首先,防范算法风险。算法通常具有歧视性风险、算法黑箱风险、算法权力风险,而通过算法解释可以有效的防范算法黑箱风险,并通过公开透明化间接有助于防范算法歧视和算法权力所引发的风险。[46]P193-194其次,提升人类对算法的信任度,促进人工智能在社会各领域的应用落地。最后,明确法律责任,保护用户的合法权益。无论是否赋予人工智能主体地位,在解决人工智能引发的法律责任时,必须解释其是如何行为的,若无法解释算法决策的过程,则规则就难以成立。[47]P80-87另一方面,是对格式条款的解释说明。实践中,用户使用人工智能系统服务时通常需要注册,而人工智能系统提供者与用户签订的合同通常属于格式合同。对此,人工智能系统提供者应当有义务依照《民法典》的规定对合同条款进行解释说明。

三是安全保障义务。安全保障义务是指人工智能研发者和提供者应当保证其研发或提供的人工智能系统符合保障人身、财产安全的要求。对可能危及人身、财产安全的人工智能系统,应当向用户做出真实的说明和明确的警示,并建立完善的风险防范体系,防止风险和损害的发生。具体包括以下方面:首先,人工智能研发者和提供者应当保障研发和提供的人工智能系统符合法律法规、伦理规范、国家标准、行业标准,不存在不合理的危险。其次,人工智能研发者和提供者在将人工智能系统投入市场前应当进行安全测试,评估风险,对存在潜在风险的,做好风险防范措施。再次,对可能存在风险的人工智能系统,人工智能研发者与提供者应当向用户做出真实的说明并提示可能存在的风险,并指导用户正确地使用人工智能系统,明确告知用户防范风险发生的方法。最后,人工智能研发者和提供者应当定期对人工智能系统进行安全性测评,一旦发现人工智能系统存在安全风险隐患的,应当立即向监管部门报告并及时通知用户,并及时采取防止风险发生的措施。

(2)人工智能研发者的特殊义务

一是提升数据质量的义务。数据是人工智能智能化的养料,深度学习算法、大模型对数据的质量提出了更高的要求,数据质量对算法的运行结果具有直接的影响。在数据收集过程中,收集方式、收集对象的选择都将影响到数据集的构成,一旦收集的数据具有某种结构性的偏见则将导致算法运行结果的偏见,甚至“数据投毒”行为将会人为的改变算法的执行结果。因此,人工智能研发者宜负有提升数据质量的义务,在数据收集、存储、使用、加工等各个环节严格遵守数据相关法律法规、标准和伦理规范,确保人工智能学习数据的完整性、及时性和准确性。此外,人工智能研发者应当制定符合人工智能伦理规范和技术标准的数据标注规则,定期对数据标准质量进行评估,确保数据标准的准确性。

二是避免算法歧视的义务。算法是人工智能“智慧”的核心,是一系列精确的用于执行某些具体任务的指令。[21]P48-49算法是人工智能“智慧”生成的核心驱动力,算法之于人工智能,犹如意志自由之于自然人。[48]P5-7然而,人工智能不是不偏不倚的救世主,人工智能存在算法偏见。[4]P530造成人工智能算法偏见的原因除了数据质量外主要是算法设计。所有的算法都遵循人类的设定规则,人类将自己的偏见和假设导入到算法中,将导致算法偏见。[49]P40资本具有逐利性,在缺乏法律约束的情况下,在利益的驱使下,算法设计者将难以客观公正的进行算法设计,从而导致算法偏见。若将这种带有偏见性的算法应用于社会各领域,则将会造成社会歧视。例如,犯罪风险评估算法COMPAS得出没有再次犯罪的黑人“被认为风险较高的可能性几乎是白人的两倍”,而再次犯罪的白人“被认为风险较低的可能性比黑人大得多”的种族歧视性结论。[50]P263因此,人工智能研发者应当负有避免算法歧视的义务,在算法设计中加强伦理审查,充分考虑差异化的诉求,避免算法偏见所引发的社会歧视性风险。

(3)人工智能提供者的特殊义务

一是及时采取处置措施的义务。该义务是指人工智能系统提供者在提供服务过程中发现使用者利用人工智能系统从事违法活动的,应当立刻采取警示、限制功能、暂停或终止服务等处置措施,并保持留存相关记录,及时向有关监管部门报告。对于可能造成他人损害的,应当及时通知受害人。要求人工智能提供者承担及时采取处置措施的义务主要原因在于:首先,人工智能提供者是人工智能系统的控制者,在发现违法活动时,其可以快速采取措施以及时防范风险的发生。其次,人工智能提供者同时也是人工智能系统服务的受益者,基于权利与义务相一致的原则,其有义务对违法行为加以制止。最后,人工智能提供者对其提供的人工智能系统负有安全保障义务。该安全保障义务不是一时性的义务,而是一种持续性的义务。要求人工智能提供者承担及时采取处置措施的义务是其安全保障义务的应有之义。

二是及时受理投诉、举报的义务。该义务是指人工智能系统提供者宜建立健全投诉、举报机制,设置便捷的投诉、举报入口,并向社会公众公开投诉、举报的流程及反馈时限,将处理结果及时向社会公布。要求人工智能提供者承担及时受理投诉、举报的义务主要原因在于:首先,提高社会公众监督的积极性。社会公众监督是社会主义监督体系的重要组成部分,积极发挥社会公众监督是实现公开、公平、公正为价值目标的和谐社会的重要保障。[51]P21要求人工智能提供者承担及时受理投诉、举报义务有利于提高社会公众监督积极性,构建人工智能多元主体协同性监管体系。其次,有助于及时发现风险。随着人工智能应用场景的不断扩展,人工智能的用户数量将持续上涨,人工智能系统提供者难以对所有的用户行为进行时时监督,难以及时发现违法行为。在用户利用人工智能系统从事违法行为时,允许社会公众投诉、举报,可以使得人工智能系统提供者及时知晓违法行为并及时采取措施,避免风险的发生。

结 语

人工智能技术是引领新一轮科技革命和产业变革的战略性技术,具有溢出带动性很强的“头雁”效应。当前,人工智能正将成为世界未来发展的新的核心竞争力,并将成为新的国际竞争焦点。良好的制度也是一种生产力,推动人工智能健康稳定发展离不开法治保障,人工智能法作为规范人工智能发展的基础性、综合性法律不可或缺。当然,人工智能法的制定涉及众多问题,本文仅对人工智能法最为核心问题进行初步探讨,尚有大量问题有待后续研究。

猜你喜欢

原则人工智能法律
法律解释与自然法
2019:人工智能
人工智能与就业
坚守原则,逐浪前行
数读人工智能
下一幕,人工智能!
无罪推定原则的理解与完善
“互助献血”质疑声背后的法律困惑
惹人喜爱的原则(二)
惹人喜爱的原则