APP下载

欧盟数字科技伦理监管:进展及启示

2023-08-11肖红军张丽丽阳镇

改革 2023年7期
关键词:监管模式

肖红军 张丽丽 阳镇

摘  要:随着数字技术的迅猛发展,数字科技伦理问题日益凸显。欧盟已经形成相对完善的数字科技伦理监管政策体系,并设置相关监管机构,具有一定的借鉴意义。对欧盟数字科技伦理监管进展进行分析后发现:第一,欧盟数字科技伦理监管主体包括立法层的欧盟委员会、欧洲议会、欧洲理事会;在制度执行层,主要包括欧盟和成员国相应的数字科技伦理监管机构;行业组织和协会则发挥着提供意见和咨询等作用。第二,监管政策布局以人工智能和大数据为重点领域,重点议题主要面向人工智能的可信赖与负责任式创新、数据安全与隐私保护、互联网安全。第三,监管模式与机制为欧盟统一框架引领下成员国各具特色的双重监管,注重综合性监管政策与细分监管政策的配合且多元社会主体共同参与其中。欧盟相关实践对中国开展数字科技伦理监管的启示在于:在制度设计上,要注重软性约束与硬性监管相结合、全局性监管与专门性监管并行,加强双边和多边伦理监管制度建设;在监管模式上,要广泛吸纳多元主体参与数字科技伦理监管政策的制定,形成中央和地方一致且协调的双重监管,并设置相应的伦理监管机构来保障制度的有效执行;在社会生态赋能上,要加大数字科技领域的创新投资力度,推动数字科技的广泛应用和协调发展,加强国际合作与交流。

关键词:数字科技;科技伦理;监管模式

中图分类号:F49  文献标识码:A  文章编号:1003-7543(2023)07-0073-17

基金项目:国家社会科学基金重大项目“国企混合所有制改革的实现路径选择研究”(20&ZD073);中国社会科学院国情调研重大项目“数字科技伦理监管制度调查研究”(GQZD2023009);中国社会科学院登峰战略企业管理优势学科建设项目。

作者简介:肖红军,中国社会科学院工业经济研究所研究员、博士生导师;张丽丽(通信作者),北京市科学技术研究院数字经济创新研究所副研究员;阳镇,中国社会科学院工业经济研究所助理研究员,清华大学技术创新研究中心兼职副研究员。

21世纪以来,数字经济作为一种新的经济形态在全球迅猛发展,并逐步成为中国经济高质量发展的重要引擎。以人工智能、大数据、区块链等为代表的数字科技是企业数字化转型和国家经济发展的重要技术支撑。从国际经验来看,欧盟是较早开展数字科技发展战略布局的地区,为了促进数字科技的快速发展,先后发布了《欧洲人工智能战略》《人工智能白皮书》《欧洲数据战略》《欧洲新工业战略》《投资未来:欧洲2021—2027 数字化转型》《2030数字罗盘:欧洲数字十年之路》等文件,对数字科技的发展进行部署和规划,以降低对美国等数字科技领先国家的依赖,将数字主权牢牢握在手中。随着数字化转型进程的不断深入,数字科技向经济和社会的渗透程度也在不断加深。在数字科技为人类生产、生活带来智能化和便捷化的同时,个人隐私泄露、数据安全性、算法黑箱、深度伪造、信息茧房以及数字鸿沟等伦理问题也随之出现,引起政府、学术界等的广泛关注和探讨,面向数字科技伦理监管的重要性日益凸显。欧盟对数字科技的伦理监管开始得较早,制度体系建设相对完善,对于中国数字科技伦理监管具有重要的借鉴意义。早在1995年欧洲议会和欧盟理事会出台的《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》就对数据安全和个人隐私问题提出了相关监管要求,再到《一般数据保护条例》《可信人工智能伦理准则》《人工智能法案(草案)》等一系列监管政策的出台和实施,欧盟构建了相对严格和完善的数字科技伦理监管制度体系,形成了以政府为主导、多方利益主体共同参与的监管模式,并设置了相应的监管机构来保障数字科技伦理监管制度的有效落地。系统分析欧盟数字科技伦理监管领域主要主体及其发挥的作用,数字科技伦理监管的政策布局、重点议题、模式和机制、机构设置等,对中国加强数字科技伦理监管、推动经济和社会高质量发展具有重要意义。

从既有对数字科技伦理监管的研究来看,学者们对欧盟、美国、英国、日本等国家的数字科技伦理监管情况的研究较为丰富,且多属于制度建设情况、动态分析和经验借鉴层面。一是从数字科技规制与监管的总体思路方面展开分析。贾开、郭雨晖、雷鸿竹[1]和章小杉[2]对欧盟和美国关于算法歧视的法律规制模式进行了分析和比较,其将欧盟的模式归纳为以数据保护为中心,美国的模式为以算法责任为中心,并在此基础上提出了中国的算法歧视规制之路。郭丰、嵇叶楠、黄潇怡[3]和林美玉、王琦[4]对欧盟的5G相关监管法律和指导性文件进行了介绍与分析,并从监管模式、推动机制、保障措施等方面提出了欧盟5G安全监管的路径和举措,对中国5G网络安全监管具有一定的借鉴意义。宋黎磊和戴淑婷[5]对中、美、欧三个区域的人工智能治理体系进行了归纳和比较分析,其中,中国在负责任的人工智能理念下不断加强制度体系建设,美国则在经济发展、技术创新、伦理监管三者之间实现多方利益主体平衡的治理,欧盟作为人工智能伦理监管的领先者对全球的治理体系具有影响力。三者可以尝试通过国际合作平台、民间行为体等媒介来加强合作监管。二是按照人工智能(算法)、大数据、區块链等数字技术类别来分别阐述和分析其存在的伦理问题、监管政策体系的建设情况等。其中,对于人工智能技术伦理监管的研究主要关注强、弱人工智能等不同发展阶段所涉及的伦理问题以及风险,并提出了相应的防范措施[6]。也有部分学者研究了中国现行的算法伦理监管法律框架和制度,探索算法监管与算法治理的多重监管与治理模式[7-8]。胡鹏鹏和翟相娟[9]就区块链技术给个人信息删除权带来的伦理问题提出了宏观与微观监管进路。三是针对数字科技应用中的重点企业类型,探索数字科技伦理监管的主要范式、实现模式与推进路径,包括针对互联网平台企业的监管范式重塑[10]、人工智能企业道德伦理监管[11]、数字企业社会责任治理[12]以及平台情境下的企业社会责任治理内容、维度与模式的全方位重塑[13]等多层次研究。四是针对一些国家或地区发布的某一项或几项数字科技伦理监管政策的内容进行具体分析与研究。金晶[14]以欧盟的《一般数据保护条例》为重点内容,对欧盟个人数据保护政策定位、规则构建、司法推动以及风险和展望等进行了系统阐述和分析。曾雄等[15]、王伟洁等[16]以及金玲[17]对《人工智能法案(草案)》的相关内容进行了介绍,指出欧盟在人工智能伦理监管上试图取得促进技术创新和加强伦理监管之间的平衡,弥补在人工智能技术上的短板,以实现数字主权的战略目标。

通过梳理现有数字科技伦理监管领域的相关文献,发现学者们停留在对欧盟、美国、英国、日本等国家的伦理监管法律法规以及监管模式等的介绍,结合中国数字科技伦理监管状况,提出完善中国数字科技伦理监管制度体系以及加强数字科技伦理监管的政策建议,缺少对欧盟数字科技伦理监管制度体系、监管模式和机制等方面的系统性深入分析。基于此,本文对欧盟数字科技伦理的监管主体、政策布局、重点议题、监管模式和机制进行系统性和较深入的剖析和总结,并在此基础上提出有助于完善中国数字科技伦理监管的启示和经验借鉴。

一、欧盟数字科技伦理监管主体与政策布局

鉴于域内的大型数字企业较少,欧盟数字科技伦理的监管主体主要是政府机构、社会组织以及行业协会等,其监管政策的形成主线是政府牵头,其余主体以提交研究报告、修改建议以及对相关政策进行测试等形式提供相应的支撑。在数字科技伦理监管的政策布局上,以人工智能和大数据为重点领域,数字科技伦理监管的政策体系较完善,其中《可信人工智能倫理准则》和《一般数据保护条例》较有代表性。对于区块链和互联网的伦理监管,则侧重于具体应用领域的安全性、自由性和平等性。

(一)欧盟数字科技伦理监管的核心主体及其监管方式

欧盟对于数字科技的伦理监管一直走在前列,鉴于域内的大型数字企业较少,其主要监管主体是政府机构、社会组织以及行业协会等。按照不同监管主体在数字科技伦理监管中所发挥的作用和监管方式,将其划分为立法层、执行层、行业组织和协会三个层面,各类数字科技伦理监管主体及其监管方式具有较大的差异性。

1.立法层:欧盟委员会、欧洲议会与欧洲理事会

欧盟数字科技伦理监管相关法律法规的核心立法机构主要有欧盟委员会、欧洲议会和欧洲理事会。按照欧盟现行的立法程序,三者在其中发挥着不同的作用。一般而言,一项数字科技伦理监管立法最早由欧盟委员会提出,草案形成之后交由欧盟理事会审议,最终由欧洲议会决定是否通过,如果通过,相关草案将在欧盟公报公布20天后生效,经过2年的过渡期之后正式实施。

欧盟委员会主要发挥制定数字科技伦理监管政策并设立伦理委员会等作用。欧盟委员会根据欧盟域内的数字科技发展状况及战略规划来制定相关科技伦理监管政策,将科技伦理监管的思想、原则以及措施等内嵌到数字科技相关发展战略和资金支持计划之中,并设立了科技伦理委员会以对数字科技伦理监管提供指导和咨询。具体而言,在数字科技伦理政策的制定方面,欧盟委员会以欧盟核心价值观为指导,针对人工智能、算法以及大数据等数字技术所面临的伦理问题制定相应的监管政策,并在欧盟全域内推行。欧盟委员会出台的伦理监管政策以《可信人工智能伦理准则》《人工智能法案(草案)》《一般数据保护条例》《数字服务法案》等较有代表性,在数字科技伦理监管中发挥着重要的作用。欧盟将数字科技伦理监管的相关思想、原则以及措施等内嵌到战略规划和资金支持计划中,例如启动于1984年的“欧盟科研框架计划”在“第七框架计划”中提出了负责的研究与创新(Responsible Research and Innovation,RRI)理念,将科技伦理理念从科技产品应用扩展到科技的创新与研究中。《欧洲人工智能战略》提出要在欧盟核心价值观与《欧盟基本权利宪章》的基础上,确立合适的人工智能伦理与法律框架。《人工智能协调计划》中明确了欧盟人工智能的两大关键原则是设计伦理和设计安全。《欧洲数据战略》提出要建立包含公共数据的使用与共享、个人数据的使用以及网络安全等领域的统一数据治理框架。

欧盟委员会推动设立欧盟层面和成员国层面的伦理监管部门和咨询专家组等,以制定监管准则或提出数字科技伦理监管的建议等。欧盟委员会早在1997年就组建了欧洲科学和新技术伦理专家组,就科技伦理的政策制定和立法等方面提供建议。为了更好地制定数字科技伦理监管规则,2018年6月欧盟委员会在《欧洲人工智能战略》框架下成立了人工智能高级专家组,就人工智能的发展机遇、中长期风险等问题提供政策建议,并负责起草人工智能规范性文件。欧盟数据保护委员会是欧盟数据保护的中心,也是成员国内部数据保护机构合作机制的关键。在成员国层面,数字科技伦理监管机构有相应的设置,例如德国于2018年组建了数据伦理委员会,对数据保护等伦理问题制定相关原则和提供监管建议。

欧洲议会和欧洲理事会制定和审议数字科技伦理监管的相关法律法规。首先,欧洲议会在数字科技伦理监管领域所发挥的作用主要体现为制定数字科技相关伦理监管法律,并在欧盟范围内得到推行。早在2016年,欧洲议会法律事务委员会就针对机器人的伦理监管发布了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》和《欧盟机器人民事法律规则》,提出了对机器人工程师伦理准则、机器人研究伦理委员会伦理准则以及使人类免受机器人伤害的基本伦理原则等。2019年1月,欧洲议会的产业、研究与能源委员会发布报告,呼吁欧盟针对人工智能和机器人制定全方位的欧盟产业政策,涉及网络安全、人工智能和机器人的法律框架、伦理治理等。其次,欧洲议会和欧洲理事会对欧盟委员会提出的数字科技监管政策或法案进行审议并提出相应的修正案或建议,有助于相关监管政策的进一步完善。例如,2017年10月,欧洲理事会指出,欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定。2021年4月20日,欧洲议会发布了拟议的《人工智能法案(草案)》的修正案。

2.制度执行层:相关伦理监管机构

欧盟为了保障数字科技伦理监管相关政策的有效推行和域内执行的一致性,设置了欧盟整体层面和成员国层面相应的监管机构。在人工智能伦理监管机构的设置上,《人工智能法案(草案)》中明确要建立人工智能委员会来推动法案的实施和加强成员国之间的交流,保证欧盟全域内法案执行的统一性和协调性。在成员国层面,设置通告机构来发挥对人工智能产品风险等级的评估、监管以及信息传递等职能。在数据伦理监管机构设置方面,《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》《一般数据保护条例》均提出要在欧盟构建两个层级的数据保护监管机构,并明确了其权力和责任,以确保在欧盟区域内相关监管制度的有效执行。在区块链伦理监管机构设置方面,区块链伦理问题主要与金融领域的虚拟货币、数据安全和隐私保护等关联。除设置数据伦理监管机构外,欧盟拟设立反洗钱机构,并于2024年开始运作,成员均来自各成员国的相关监管机构,以实现一系列反洗钱指令执行的协调性和一致性,降低跨境虚拟货币流动中的风险。在互联网伦理监管机构的设置方面,2019年欧盟正式实施的《关于欧洲网络与信息安全局信息和通信技术的网络安全》的目标之一就是将欧盟网络和信息安全署(ENISA)设置为永久性机构,并对其职能进行重新界定,提出了建立网络安全认证制度、对跨国境的网络安全事故进行联合处理、提高公民的网络安全意识等全域性的网络安全监管要求。

3.行业组织和协会

行业组织和协会在欧盟数字科技伦理监管中主要发挥为数字科技伦理监管政策制定提供支持性意见、推出行业示范性规则、促进伦理监管政策实施等作用,其中具有代表性的行业组织有人工智能高级专家组、欧洲人工智能联盟在线论坛、欧洲绿色数字化联盟等。

人工智能高级专家组由欧盟委员会在《欧洲人工智能战略》框架内于2018年6月成立。该专家组由学术界、企业界和民间的52位专家代表组成,就人工智能发展机遇、中长期风险等问题提供政策建议,并负责起草人工智能规范性文件。《可信人工智能伦理准则》就是由人工智能高级专家组撰写并提交欧盟委员会发布的,具有重要的参考价值。欧洲人工智能联盟在线论坛是由欧盟委员会牵头组建的在线论坛,其既可以广泛动员社会各界参与到人工智能相关的主题讨论中,又可以协助人工智能高级专家组的政策制定和提供政策反馈。随着时间的推移,欧洲人工智能联盟在线论坛越来越成为欧洲人工智能领域社会各界的交流沟通平台。《人工智能法案(草案)》经过了广泛的意见征询以及專家论证阶段,历时两年后出台。在这个过程中,欧洲人工智能联盟在线论坛作为一个平台,先后组织4 000多名利益相关者就人工智能的技术和社会影响进行辩论,并最终决定每年召开一次人工智能大会。除了加强传统的数字科技伦理监管之外,行业组织还将数字科技伦理延伸至环境目标的实现上。欧洲绿色数字化联盟的成立宗旨就是将环境保护和数字科技结合起来,旨在推动欧盟实现数字化转型的同时,也实现实施气候变化倡议的目标。欧洲绿色数字化联盟是由德国电信、Orange和西班牙电信在内的26家ICT领域企业的高管们组成的一个联盟,沃达丰集团、诺基亚和爱立信的领导人也参与其中,目标是围绕“更绿色”的数字技术以及更节能的服务的投资与开发,帮助欧洲科技行业“变得更加可持续、循环和零污染”。

此外,欧洲政策研究中心、非营利组织、欧洲数据创新委员会等也承担一定的伦理监管政策制定和相关报告的研究等工作,对推动欧盟数字科技伦理监管的合理性、重复性、一致性、互动性等产生了一定的影响。例如,欧洲政策研究中心于2022年9月14日发布了《〈人工智能法案〉和新兴的欧盟数字保护法》报告,针对《人工智能法案(草案)》与欧盟其他数字法律法规之间是否存在重叠、不一致性以及差异等进行了分析。欧洲数据创新委员会是在《数据治理法案》推动下设立的,其主要向欧盟委员会提供数据保护领域的相关建议和咨询,推动跨部门数据的流动、使用、共享的治理与规范制定等工作。

(二)欧盟数字科技伦理监管的政策布局

1.面向人工智能伦理监管的政策布局

欧盟高度重视人工智能伦理监管政策制定与布局,以确保人工智能技术朝着有益于人类的方向发展。在人工智能伦理监管政策布局中,欧盟呈现的特点是以实际应用中出现的问题为引导,以机器人伦理监管为开端,逐渐覆盖人工智能的研发和应用等领域,既内嵌到人工智能发展战略中,又专门制定相关的伦理监管政策或法规。

欧盟将伦理监管的相关内容内嵌于人工智能发展战略中,以实现对人工智能伦理的“软”监管和原则性指导,并对后续伦理监管政策的出台起到推动和引导作用。《欧洲人工智能战略》《人工智能协调计划》《人工智能白皮书》等战略性文件最具代表性,试图构建欧盟共同的人工智能监管框架,为人类提供可信任的人工智能系统。《欧洲人工智能战略》将对人工智能的伦理监管作为人工智能发展的目标之一,即在欧盟现有价值观和《欧盟基本权利宪章》下,确定人工智能伦理和法律框架。《人工智能协调计划》则指出人工智能技术的发展要符合伦理规范,并进一步提出2019—2020年要建立人工智能伦理监管框架。《人工智能白皮书》指出要构建欧洲共同人工智能监管框架,对人工智能按照风险等级实现分类监管,以减少人工智能对社会的潜在风险为目标。

在人工智能伦理监管政策的布局方面,欧盟开始对机器人进行伦理监管,主要监管政策分布领域为人机共存、如何应对机器人对人类的伤害以及机器人技术工程师伦理等。2017年2月,欧洲议会通过了《欧盟机器人民事法律规则》,该规则中包含机器人监管的总体原则性规定和伦理道德规范,也包含适用于无人交通工具、护理机器人等细分领域的法律规定。同该项规则一起发布的指导性准则还包括《机器人技术工程师伦理行为准则》《研究伦理委员会准则》等以供未来立法作为具体参照。在《欧洲人工智能战略》《人工智能协调计划》《人工智能白皮书》等重要政策文件的指导下,专门针对人工智能技术的伦理监管准则相继出台。2019年4月8日,欧盟委员会出台《可信人工智能伦理准则》和《建立以人为本的可信人工智能》,形成了包含可信人工智能的基础原则、可信人工智能的要求和实现手段以及评估机制等三个部分的欧盟人工智能伦理准则框架。2021年4月21日,欧盟委员会发布的《人工智能法案(草案)》是全球范围内第一份综合性人工智能监管法案,在彰显欧盟人工智能伦理监管标准和有效应对不同风险等级的人工智能等方面具有全球标杆意义。

2.面向大数据伦理监管的政策布局

自20世纪70年代开始,欧盟各成员国就分散制定关于数据安全或隐私保护相关的法规和条例等,具有代表性的是《有关个人数据自动化处理之个人保护公约》《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》《一般数据保护条例》等,逐渐构建起了欧盟域内相对严格的保护个人数据主权和隐私的监管规则体系。欧盟关于大数据伦理监管规则政策的布局在全球具有标杆性地位,《一般数据保护条例》被众多国家或地区当作数据隐私政策制定的参照,深刻影响着全球大数据伦理监管规则的方向。

欧盟成立之后,为了统一各成员国对数据安全和隐私保护的监管法规,欧洲议会和欧盟理事会于1995年通过了《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》,构建以数据主体同意为核心的数据处理合法化标准,同时也赋予个人对数据的知情权、拒绝权和删除权等基本权利,并通过行政及司法救济来确保个人的数据权利不受侵犯,该指令的发布标志着对个人数据保护和伦理监管进入“大一统”的欧盟法时代。2018年11月21日,欧洲数据保护专员公署发布了《针对欧盟机构和机关的个人数据泄露报告指南》,在《第(EU)2018/1725号条例》的基础上,建立了个人数据泄露的评估和报告机制。2018年欧盟颁布的《一般数据保护条例》是一部个人数据保护法规,数据所有者被赋予携带权、删除权以及申请司法救济、侵权补偿等权利,并确立了个人数据跨境流动的“充分性认定”标准等。2021年欧盟发布的《电子隐私条例(草案)》是对数据伦理监管的进一步细化,对电子通信服务领域的个人数据和隐私保护作出了更加具体的要求,将对电子通信内容和电子通信元数据的保护放在了重要位置。2022年欧盟相继发布了《数据法案》《数据治理法案》《数字服务法案》以及《关于〈一般数据保护条例〉下的个人数据泄露通知》最终版等,分别针对非个人数据流动和使用、数据共享和再利用、不同类型数字平台服务企业以及数据泄露等重要细分领域或主体的数据伦理问题提出了具体的监管措施,是对《一般数据保护条例》中空白的填补,也是针对新问题或新主体提出的新监管措施。

3.面向区块链伦理监管的政策布局

作为一种新兴技术,区块链技术体现着技术进步的价值取向,代表着先进技术创新和共识可信。然而,区块链的去中心化以透明度为代价,也存在损害个人信息安全的风险。此外,区块链的创新性、去中心化、匿名性、不变性、自动化等技术特征引发了被遗忘权、可携带权等与个人信息权利存在冲突的伦理问题。欧盟对区块链的伦理监管主要从个人信息安全、隐私保护以及虚拟货币等角度进行,相关监管政策主要散落在大数据伦理监管政策和反洗钱监管政策中。欧盟具有代表性的区块链伦理监管政策包括《欧盟反洗钱第五号指令》和《欧盟反洗钱第六号指令》,这两项反洗钱指令的生效将从事虚拟货币兑换服务的主体以及钱包托管服务商等纳入反洗钱监管,并且明确了其尽职调查的内容和措施,将欧盟的反洗钱和反恐金融规则扩展到了虚拟货币领域。欧盟各成员国根据反洗钱指令的要求,陆续完善国内的制度和机构设置。

4.面向互联网伦理监管的政策布局

网络安全是欧盟数字化和欧洲互联的基石,互联网伦理问题主要集中在安全性和隐私保护领域。目前,欧盟已经构建起以《关于欧洲网络与信息安全局信息和通信技术的网络安全》《关于在欧盟全境实现高度统一网络安全措施的指令》《欧盟电子通信准则》(European Electronic Communications Code,简称EECC)以及《网络弹性法案》等政策为主的伦理监管制度框架。2016年发布的《网络与信息系统安全指令》(后被《关于在欧盟全境实现高度统一网络安全措施的指令》替代)是欧盟最早关于网络安全的监管政策,具有统领性的意义。该指令要求各成员国制定网络安全战略,将《网络与信息系统安全指令》转化为国内法,并加强成员国之间的合作与交流。2019年正式实施的《关于欧洲网络与信息安全局信息和通信技术的网络安全》则是将欧盟网络和信息安全署设置为永久性机构,提出了建立网络安全认证制度、对跨国境的网络安全事故进行联合处理、提高公民的网络安全意识等全域性的网络安全监管要求。2022年9月15日发布的《网络弹性法案》针对具有数字元素的产品在整个生命周期内引入强制网络安全要求,以保护消费者和企业免受安全功能不足产品的影响,监管对象包括制造商、进口商、经销商等数字产品产业链中的多个主体。该法案是欧盟第一部针对数字产品制造商实施的网络安全立法。2023年正式生效的《关于在欧盟全境实现高度统一网络安全措施的指令》在《网络与信息系统安全指令》所包含的监管实体基础上,将数据服务、关键产品制造、邮政快递等主体纳入监管范围,细化了网络安全风险管理的相关要求,完善了国际合作机制。至此,欧盟形成覆盖网络与信息系统安全、风险管理、安全事故跨境联合处理、数字产品全链条安全等多个领域的政策体系,成为保障欧盟互联网安全与伦理监管的重要政策依据。

除了互联网整体层面的伦理监管政策外,欧盟还专门针对5G网络安全制定了监管政策以应对相关伦理问题。其中,《5G网络安全建议》明确了5G网络安全相关制度建设和具体路徑,以确保欧盟5G网络的安全性。在该建议的统领下,欧盟相继配合出台了《5G网络安全风险评估报告》《5G网络威胁视图》《欧盟5G网络安全风险消减措施工具箱》《EECC安全措施指南》《5G补充说明》等指导性文件,为通信服务提供商、设备制造商缓解5G网络安全风险等问题提供了更加明确的技术指导。欧盟形成了覆盖5G网络整体和具体细分领域的相对完善的政策监管体系,为欧洲互联、安全且自由地使用5G网络铺平了道路。

二、欧盟数字科技伦理监管的重点议题

欧盟在数字科技伦理方面的重点议题主要集中在人工智能和大数据领域,尤其是人工智能领域。欧盟数字科技伦理监管的重点议题主要包括算法的非歧视与透明性、数据的安全性、隐私保护、数字鸿沟、数字贫困、自由、公平性以及对特殊群体的关注等,贯穿于人工智能、大数据、互联网、区块链等领域。

(一)可信赖的人工智能与责任式人工智能创新

人工智能领域相关的科技伦理监管是较早的,欧盟一直强调在使用人工智能技术时,需维护法律面前平等、个人隐私、言论自由以及参与文化和政治生活的权利,尤其是对于少数群体而言。欧盟围绕人工智能伦理的重点议题主要有个人隐私保护、深度伪造、算法歧视、算法透明性等。

在个人隐私保护方面,欧盟在人工智能发展战略性文件中建议资助更多关于标准化隐私设计方法的研究,促进加密解决方案和保护隐私的机器学习,从而确保高质量的数据可用于训练算法和执行人工智能任务而不侵犯隐私。此外,欧盟从最开始的《欧盟机器人民事法律规则》到《可信人工智能伦理准则》《人工智能责任指令》,再到《人工智能法案(草案)》,均将个人隐私保护放在重要位置。由于机器人和人工智能这一系统包含数据系统和数据流,《欧盟机器人民事法律规则》提出要特别关注个人和敏感数据的机密性,并出台了《机器人技术工程师伦理行为准则》和《研究伦理委员会准则》作为补充。《可信人工智能伦理准则》中更是将尊重隐私作为可信赖人工智能的一项要求单独列出。《人工智能法案(草案)》也将隐私保护和数据治理作为监管重要内容。

在人工智能以人为中心、为人类服务方面,欧盟在人工智能伦理监管领域一直将基本价值观贯穿其中。《欧盟机器人民事法律规则》《可信人工智能伦理准则》等伦理监管政策中均包含相关内容的阐述,确保人工智能以人为中心,以人为中心包括尊重人的尊严、平等、公平、公正、不歧视以及自由等原则和价值观。人工智能和机器人应以人为中心并发展为人类辅助的原则,发挥人工智能的巨大潜力,如在医疗、自动驾驶等领域。

在人工智能的深度伪造方面,《人工智能法案(草案)》中对深度伪造的概念及危害进行了阐述,它是指利用人工智能技术(包括机器学习和深度学习)制作或合成的音频、图像或视频内容,让人以为是真实和原始的,从而产生了虚假信息的传递,这种深度伪造现象将引起公众对人工智能的不信任和社会的两极分化等。

在人工智能和算法的反歧视性方面,人工智能和算法的歧视性体现在种族、性别、性取向以及年龄等方面。《可信人工智能伦理准则》中强调应确保欧盟所倡导的关于保护公民基本人权的相关原则,尤其是对于儿童、妇女、残障人士以及少数群体等的歧视。《人工智能法案(草案)》也对降低算法的歧视性作了相关规定,对欧盟现有反歧视相关法律法规作了补充。

在人工智能及算法的透明性方面,由于人工智能系统和算法决策过程本身就具有不透明性,又称为算法黑箱,对其进行伦理监管以提高其透明性是极为重要的议题。《可信人工智能伦理准则》中指出透明性是建立和维护可信赖人工智能的关键,可信赖人工智能伦理透明度算法在使用过程中应该接受人类的监督,其决定必须是可问责、可质疑的,并在相关情况下是可逆转的。《人工智能责任指令》中提出高风险人工智能系统的开发和部署者具有归档、记录保存以及提供相关信息的义务,以满足后续证据披露的需要。《人工智能法案(草案)》中对于深度伪造技术的透明度提出了相关要求。此外,人工智能伦理监管机构也应具有独立性和透明度。

(二)数据隐私保护与数据安全

欧盟对大数据领域伦理监管的重点集中在隐私保护、数据安全、数字鸿沟和数字贫困等领域。其中,隐私保护和数据安全主要集中在个人数据领域,数字鸿沟和数字贫困关注的是不同区域、不同群体平等性的伦理问题。通过建立欧盟全域的数据保护机制,可为欧洲数字单一市场的建设提供支持,推动欧盟数字经济红利的加快释放。

在隐私保护和数据安全方面,数据保护和基本隐私权利是欧盟公民数字建言平台“欧洲未来会议”(The Conference on the Future of Europe)的主要议题。“欧洲未来会议”提出要将弱势群体保护、算法歧视、监视和言论审查等伦理问题纳入欧盟委员会未来的讨论中,以促进数字领域的正义和法治[18]。对个人数据的伦理监管更加重视隐私保护,非个人数据则更加重视安全性和使用,这既是《欧洲人权公约》《欧盟基本权利宪章》相关条款的体现,也是伦理监管的重要议题。《保护个人享有的与个人数据处理有关的权利以及個人数据自由流动的指令》《第(EU)2018/1725号条例》《一般数据保护条例》《电子隐私条例(草案)》均对个人数据的安全和隐私保护提出了相关监管要求,并对个人数据所有者相关的权利进行了明确,主要包括携带权、拒绝权、删除权等权利,且可以通过行政及司法救济来确保数据权利不受侵犯。《数据法案》《数据治理法案》《数字服务法案》等则分别针对非个人数据安全和使用、数据共享和再利用、不同类型数字平台服务企业等重要细分领域或主体的数据伦理提出了具体的监管措施,其中,公共部门机构持有的数据在使用时应该关注商业保密、统计保密以及第三方的知识产权保护等。

在消除数字鸿沟和数字贫困方面,欧盟各成员国之间在数字科技发展上存在一定的差异,芬兰、德国等少数国家的数字科技发展相对迅速,应用覆盖率较高,而其他国家则处于相对落后状态。为消除数字鸿沟,提高域内数据共享和使用水平,欧盟强调建立数字单一市场,为数据共享创造良好的法律环境,如建立数据共享服务提供者通知制度等,以提高数据共享主体的信任程度,扫除成员国之间数据共享(尤其是公共数据共享)方面的障碍。在不同年龄段和教育背景的公民之间以及已进行数字化转型和未参与数字化转型的企业之间也存在数字鸿沟。为解决此问题,欧盟加大对妇女和老年人等弱势群体的数字技能提升和教育措施等领域的投资,从而消除数字鸿沟。《2030数字罗盘:欧洲数字十年之路》中提出欧洲2030年的战略愿景是建设一个“没有人掉队”的数字社会,力图弥补新的“数字鸿沟”和“数字贫困”。

(三)互联网安全与公平透明的数字市场

欧盟将核心价值观和公民的基本权利贯彻到网络伦理监管之中,强调公民使用网络的自由和公开性。在传统现实空间中奉行的规范、原则和价值观也应当同样适用于虚拟的网络空间,基本权利、民主和法治在网络空间中也应当受到保护。网络空间是一个拥有自由和基本权利的空间。

欧盟将互联网的安全性放在重要位置,现行的《关于欧洲网络与信息安全局信息和通信技术的网络安全》《关于在欧盟全境实现高度统一网络安全措施的指令》《欧盟电子通信准则》《外国直接投资审查条例》《网络弹性法案》等监管政策均强调网络的安全性和可靠性,以保障欧盟数字化进程和其他数字技术的应用。欧盟还将欧盟网络和信息安全署设置为永久性机构,以确保全域内的网络安全。此外,欧盟专门针对5G网络的安全性制定了《5G网络安全风险评估报告》《5G网络安全建议》《5G网络威胁视图》《欧盟5G网络安全风险消减措施工具箱》《EECC安全措施指南》《5G补充说明》等相关监管政策和技术指导文件等。

除安全性外,欧盟还关注隐私和信息保密以及特殊人群的权利等伦理问题。在网络使用过程中,每个人都有权对其通信和电子设备上的信息保密,不受非法在线监视、非法跟踪或拦截措施的影响,有效保护通信免受未经授权的第三方访问,禁止非法身份查验和非法保留活动记录等。欧盟关注儿童和青年的网络使用权利,保护所有儿童和青年免受网上有害和非法内容、剥削、操纵和滥用的侵害,防止数字空间被用于犯罪或为犯罪提供便利。保护所有儿童和青年不受非法跟踪、分析和锁定,特别是出于商业目的,并让儿童和青年参与与他们有关的数字政策的制定。

三、欧盟数字科技伦理监管的主要模式与机制

欧盟数字科技伦理监管的模式及机制体现为,在欧盟核心价值观的引领下,政府发挥主导作用,多元主体共同参与,形成欧盟全域统一监管框架引领和成员国各具特色的双重监管。这种监管模式既强调整体层面监管的统一协调性,又重视成员国自身数字科技的发展特点;既有综合性的监管政策,又包含对重点领域和新问题的伦理监管。

(一)欧盟统一框架引领下成员国各具特色的双重监管模式及机制

欧盟作为一个多国家集合体的特殊性,决定了成员国在数字经济发展和监管政策领域存在诸多差异。欧盟在数字科技伦理监管中既制定了全域内的伦理监管政策,又将相应的监管权力赋予成员国,实行欧盟整体和成员国两个层面的监管制度体系构建和机构设置。

欧盟针对数字科技伦理监管制定了一系列政策文件,对欧盟全域内的数字科技进行伦理监管或指导,如《一般数据保护条例》《可信人工智能伦理准则》等,并设置了欧盟数据保护委员会等监管机构。在欧盟整体层面的数字科技伦理监管政策要求或指导下,成员国结合自身数字科技发展状况,制定相应的伦理监管政策。以大数据伦理监管为例,《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》《一般数据保护条例》《电子隐私指令》等在欧盟层面发挥统领和指导作用,且在相关条款中指出允许成员国实施更加具体的监管政策。爱尔兰、德国等成员国根据自身特点修订或制定了数据伦理监管的相关政策,其中,爱尔兰为与欧盟的《电子隐私指令》中关于Cookie等技术的使用、数据缩小以及个人数据隐私的监管保持一致,于2011年发布了《电子隐私条例》;对原有的数据保护法律进行修订后形成了《2018年数据保护法》,并设立数据保护委员会。德国在数据伦理监管领域,2018年发布《新联邦数据保护法》,该法在遵守《一般数据保护条例》的基础上,根据德国的国情对部分条款进行了细化和补充,并设置了联邦数据保护和信息自由委员会。同样,为了执行欧盟《电子隐私指令》,德国制定了《电信和电信媒体数据保护法》,其规定了电信和电信媒体在数据保护上的原则,亮点在于设置了隐私保护和用户同意权的相关条款。除爱尔兰和德国外,欧盟其他成员国也制定了相应的监管制度。这样欧盟形成了整体层面和成员国层面两个层级的数字科技伦理监管政策体系和监管机构,保障了欧盟数字科技伦理监管政策执行的有效性、一致性与协调性。

(二)综合性政策统领与细分政策强化的监管模式及机制

通过梳理欧盟数字科技发展与伦理监管政策布局之间的关系,发现欧盟的数字科技伦理监管政策布局领先于其数字科技发展水平。为了刺激数字科技发展,欧盟制定了一系列发展战略或计划,《欧洲人工智能战略》《欧洲数据战略》《2023—2024年数字欧洲工作计划》《2030数字罗盘:欧洲数字十年之路》等文件以及“地平线2020”“地平线欧洲(2021—2027)”的发布,无不体现出欧盟对数字科技和数字化转型的重视和支持,这为数字经济的发展提供了良好的外部环境。以上文件除了资金投入和政策支持外,也包含伦理监管的相关内容。例如,“地平線欧洲(2021—2027)”将抢占人工智能和机器人、先进计算与大数据以及下一代互联网等前沿技术领域作为重点科研支持领域,与此同时,在数字技术中采用“预设安全”和“隐私设计”架构原则来加强网络安全和数据保护。此外,为了对《2030数字罗盘:欧洲数字十年之路》计划的实施提供指导,2022年欧盟发布了《欧洲数字权利与原则宣言》,其指出欧盟数字化转型应该是以人为中心的,要合乎人的基本权利,遵守非歧视性的技术中立、网络中立、选择自由以及包容性等原则,强调对数字科技使用者的保护,主要体现为受保护、安全可靠的网络环境,隐私保护和个人数据的控制,儿童和年轻人更应该得到保护等。

除了统领性的战略规划和资助计划外,欧盟还针对不同的数字科技领域制定了具体的监管政策,尤其是人工智能和大数据领域。与统领性的发展战略或计划中提及的伦理监管内容有所不同,细分领域发布的伦理监管政策大都具有强制性,要求成员国、企业或个人等相关主体均要执行。在细分技术领域中,人工智能相关的伦理监管最为完备,从《欧盟机器人民事法律规则》《人工智能责任指令》《可信人工智能伦理准则》,到《人工智能法案(草案)》,既有存在一定弹性的指令和准则性约束,又有法律层面的硬性约束。大数据领域也有相应的伦理监管政策,多以条例、指令的形式发布。互联网、区块链领域的伦理监管更多与实际应用相关联,其本身的技术中立性更为明显。

综合监管政策与细分监管政策之间相辅相成、相互促进。在《欧洲人工智能战略》《人工智能协调计划(2021年修订版)》以及“地平线2020”等战略和规划等综合性政策中,包含着对伦理监管的布局或安排。例如,《人工智能协调计划(2021年修订版)》除了对人工智能发展目标、核心任务以及具体行动作出部署外,还专门对伦理监管提出了相关要求。一是明确指出要制定《人工智能伦理指南》《数据应用伦理指南》《人工智能侵权责任法律框架的建议稿》等来规范人工智能和数据的应用与研究活动。二是对现有的伦理监管规则或法律等进行修订,以更加适用于人工智能技术和产品的变化,如修订《一般产品安全指令》《无线电设备指令》等。三是加强与其他国家或地区在伦理监管规则方面的合作与对话。在细分伦理监管政策对综合性伦理监管政策的促进方面,细分监管政策的制定与实施既可以推动综合性政策的快速落地和有效实施,又可以更好地实现人工智能、大数据、区块链以及互联网等技术的发展,为欧盟经济发展提供新动力。

(三)多元社会主体共同参与的监管模式及机制

在数字科技伦理监管中,欧盟的政府机构发挥着主导作用,这在相关伦理监管政策和法规的颁布或制定机构中有所体现,加之欧盟大型数字科技企业数量相对较少,政府的主导性更加突出。除政府机构外,欧盟引导科研机构、社会组织、企业以及公民等主体在监管政策制定和实施中发挥作用。政府的主导性体现在欧盟委员会等政府机构将伦理监管的相关内容渗透到战略、产业政策、法律框架、治理机制等制度构建中,具有一定的权威性和强制性。例如,在人工智能伦理监管政策的制定过程中,欧盟委员会早在《欧洲人工智能战略》中就对人工智能伦理监管框架提出了构想,并对相关领域的研究等给予资金支持和政策倾斜,通过组建临时专家组、伦理委员会等吸收和接纳相关研究人员参与到伦理监管政策的制定中。在此过程中,除欧盟委员会外,其他政府部门也发挥着重要作用。例如,2016年欧盟社会和经济委员会曾就大数据伦理问题开展了调查并提交报告《大数据伦理:平衡经济利益与大数据伦理问题》。

欧盟在政策制定中,尤其是法律法规的制定中耗时较长,从草案的提交到最终发布文件之间需要进行多轮的征求意见和商讨等。在此过程中,企业、社会组织、普通公民等均可参与到意见的提出和修改中来,包括欧盟内部伦理准则试点工作等。欧盟通过《欧洲技能议程:促进可持续竞争力、社会公平和抗逆力》《欧洲网络安全技能框架》等来培养和提高企业和个体公民的数字技术技能和伦理意识,在全社会范围内提高数字科技伦理监管的意识和重视程度。此外,欧盟已发布《违反欧盟法报告人指令》,其在隐私和个人信息保护领域有专门的“吹哨人”保护机制,有助于及时发现数字科技伦理监管中的漏洞和问题。通过战略规划、监管规则、技能议程以及“吹哨人”保护机制等政策,欧盟将政府、社会组织、企业以及公民纳入伦理监管政策制定与实施中,形成了多层次的伦理监管和执行体系。

四、欧盟数字科技伦理监管对中国的经验启示

欧盟无论是在制度设计层面,还是监管模式、社会生态赋能层面,均对中国加强数字科技伦理监管具有借鉴意义。

(一)制度设计层面对中国的经验启示

1.软性约束与硬性监管相结合,兼顾数字科技发展和伦理监管

欧盟数字科技伦理监管制度建设的一大特点是软性约束与硬性监管相结合。软性约束是指将相关监管制度内嵌于战略规划、产业发展白皮书、投资计划、政府资助的研究课题中,不具有强制性,主要是突出政府相关部门对伦理监管的重视程度和指导性,并对欧盟域内数字科技的发展具有一定的鼓励性和支持性。如《欧洲人工智能战略》《欧洲数据战略》等。硬性监管则是在前期课题研究的基础上或数字科技应用的过程中,针对重点领域设计专门的伦理监管制度,大多以条例、指令、公约以及法案的形式出现,如《数据治理法案》《人工智能法案(草案)》《一般数据保护条例》《关于欧洲网络与信息安全局信息和通信技术的网络安全》等。这些硬性的监管条例或法规则具有强制性,欧盟领域内的成员国需要执行对应的伦理监管条款,并且延伸到域外的相关国家和经济主体。

中国数字科技伦理监管制度建设状况如下:一是内嵌于数字科技相关发展战略与规划中的伦理监管内容。中国相继出台了一些促进数字科技发展的相关规划,具有代表性的有《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018—2020年)》《促进大数据发展行动纲要》《“十四五”大数据产业发展规划》《网络安全产业高质量发展三年行动计划(2021—2023年)》等。其中,《新一代人工智能发展规划》提出建成更加完善的人工智能法律法规、伦理规范和政策体系;到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。《促进大数据发展行动纲要》中提出切实加强对涉及国家利益、公共安全、商业秘密、个人隐私、军工科研生产等信息的保护。《“十四五”大数据产业发展规划》中明确提出要加强隐私计算、数据脱敏、密码等数据安全技术的应用等以保障数据的安全性。上述政策性文件以产业发展为重心,伦理监管所涉及的内容较少;且所提及的数字科技伦理监管问题,仅是方向性指导、战略目标或要求,约束力较为有限。二是专门的数字科技伦理监管制度建设情况。2022年3月,中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》,其出台标志着我国对于科技伦理的重视程度日渐提高,对于未来的伦理监管制度设计具有指导意义。该文件将人工智能单独列出,但并未提出具体的监管措施。2023年4月,科学技术部会同相关部门研究起草的《科技伦理审查办法(试行)》公开征求意见,其中仅对涉及数据和算法的科技活动的审查作出了规定。借鉴欧盟数字科技伦理监管的制度建设经验,中国可以在数字科技产业发展规划或促进条例中增加伦理监管的相关内容,并强化不同主体的伦理监管意识和责任。此外,应加快数字科技伦理监管的硬性制度建设,且不要停留于方向性指导或顶层设计领域,应注重监管制度的落地和有效性。

2.全局性监管与专门性监管并行,力求覆盖数字科技全领域

欧盟在对数字科技进行伦理监管制度设计时,兼顾数字科技全局性和专门技术领域的制度,力求覆盖数字科技相关的全部伦理问题。具体而言,欧盟出台或者准备出台的数字科技伦理监管制度中具有全局性监管功能的政策有《塑造欧洲的数字未来》《2030数字罗盘:欧洲数字十年之路》等;专门针对某一项数字技术的伦理监管制度有《算法责任与透明治理框架》《可信人工智能伦理准则》《一般数据保护条例》《关于欧洲网络与信息安全局信息和通信技术的网络安全》等。

中国在数字科技伦理监管相关制度建设方面存在一定的滞后性,目前出台的科技伦理监管相关政策有《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》(征求意见稿),它们具有全局性监管的作用,但因不具有法律效应,约束力和有效性有限。此外,《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》等法律中已经涉及网络安全、数据分级分类监管、数据安全流动、个人隐私保护等相关内容,但是没有从伦理监管这一视角出发,落脚点更多在于安全性、有序性、具体应用和价值释放等。在數字科技的人工智能、区块链等细分领域,中国未出台专门性的伦理监管政策。未来,中国可以从数字科技全局构建伦理监管框架,覆盖人工智能、大数据、区块链以及互联网的共性伦理问题。此外,还应针对具体数字技术的特殊性伦理问题制定相应的伦理监管政策,切实促进数字科技更好地为人类服务。

3.在单边伦理监管的基础上,积极推动双边和多边伦理监管制度建设

除了域内的伦理监管制度建设外,欧盟还根据欧洲价值观以开放且自信的方式将数字科技伦理监管的相关内容内嵌于双边或多边的贸易政策和协议中,如已经失效的《安全港协议》《隐私盾协议》以及已经生效的《跨大西洋数据隐私框架》《美日数字贸易协定》《美国—墨西哥—加拿大协定》等。其中,2020年签署的《人工智能伦理罗马宣言》是欧盟推动全球数字技术伦理监管新标准的标志性事件,将对人工智能和数字技术的发展产生深远影响。该宣言明确表示,人工智能技术应用的前提是必须要尊重个人的隐私,以可靠而无偏见的方式工作,应考虑“所有人的需求”,并强调人工智能的透明性。此外,在多边伦理监管方面,欧盟正在与欧洲理事会、联合国教科文组织、经济合作与发展组织、世界贸易组织和国际电信联盟等进行合作。欧盟还参与了联合国数字合作高级别小组报告的后续工作,包括关于人工智能的建议。

借鉴欧盟的相关做法,中国在加强国内数字科技伦理制度建设之外,还应进一步提高数字科技伦理监管制度的国际影响力。一是依托“一带一路”倡议、数字贸易试验区建设等,尝试将数字科技伦理监管的相关内容内嵌于与其他国家或地区的贸易合作协议中,推动监管制度的互认互信。二是主动参与到国际性数字科技伦理监管制度的制定中去,提高在国际规则制定中的地位和话语权,而不仅仅是现有伦理监管制度的遵从者或跟随者。

(二)监管模式设计层面对中国的经验启示

1.政府主导且多方利益主体共同参与伦理监管

通过对欧盟数字科技伦理监管情况的梳理和总结可以发现,欧盟实行以政府为主导、多元主体共同参与的伦理监管模式。在这种监管模式下,政府在伦理监管政策设计、机构设置、政策推行中发挥着主导作用。在相关伦理监管政策制定和机构的设置中,会广泛征集利益相關方的意见或建议,其中包括政府部门及所属研究机构和咨询机构、社会组织、企业以及公民等主体,这样既可以对政策制定和机构设置提供一定数量和质量的意见建议,防止出现监管疏漏,又可以让利益主体具有一定的参与感,充分调动其积极性,有助于伦理监管制度的落地。

中国在数字科技伦理监管领域已经形成一些法律法规及相关政策,如《关于加强科技伦理治理的意见》《中华人民共和国数据安全法》等,但是多方利益主体参与度有待提高。根据《中华人民共和国立法法》中的相关规定,法律的制定需要经过法律案提出、审议、表决、公布四个过程,其中,专业性较强的法律草案,可以吸收相关领域的专家参与起草工作,或委托相关专家、科研单位、社会组织等起草。行政法规、地方性法规、自治条例和单行条例以及规章等的制定程序类似。其中,非专业公众对于法律或政策性文件制定过程的参与主要体现在征求意见阶段,需要进一步提高公众对于立法等相关政策制定的参与度。数字科技伦理问题涉及个人的隐私保护、企业的经营活动以及其他经济主体的利益,应提高公众参与程度,将非专业公众吸纳进数字科技伦理监管政策的制定中来,尤其是关于数字科技相关应用领域的伦理监管政策的制定,不应局限于征求意见阶段,这样方能提高监管政策制定的合理性和落地的有效性。上述措施对于数字科技伦理监管机构的设置同样适用。

2.形成中央和地方双层伦理监管,并重视监管的一致性与协同性

欧盟是一个多国家的集合体,存在政治制度和经济发展水平的差异,在欧盟全域内推行数字科技伦理监管制度,需要成员国的行动一致性和交流合作。在进行数字科技伦理监管的过程中,欧盟成员国可以建设符合自身发展实际的制度体系,但是当涉及欧盟全域伦理监管制度的遵从时,需要严格执行欧盟整体层面的监管政策。例如,《一般数据保护条例》具有在欧盟成员国的普遍适用性、全面约束力和直接效力,且明确指出成员国的数据保护机构应遵从欧盟数据保护委员会具有强制的一致性原则。在不同数据监管机构出现争议时,应当由欧盟数据保护委员会等相应的机构来解决,以确保在欧盟区域内相关伦理监管制度的一致适用性。

中国不同省份和地区之间,尤其是不同民族之间存在地域和文化差异。在推行数字科技伦理监管相关政策时,借鉴欧盟的相关经验,可以尝试从中央层面和地方层面分别设计监管政策,中央层面的监管政策具有全局性和指导性,与此同时,应赋予地方政府一定的权力空间。首先,在数字科技伦理监管政策的制定和执行中,要坚持中央政策和地方政策的统一性和一致性原则,既不能出现监管政策之间的矛盾性条款,又不能出现地方政策凌驾于中央政策之上的现象。其次,要强调不同省份和地区之间横向的协同性与合作,不能出现监管政策地区异质性引致的中央统一部署的相关政策实际执行困难或不同区域间抢夺数字企业等现象。最后,要强调中央和地方以及地方政府之间的合作与交流,尤其在跨区域性的数字科技伦理监管方面。

3.相应的伦理监管机构设置为制度执行保驾护航

欧盟的数字科技伦理监管模式将相应的监管机构设置包含在伦理监管制度之中,并且分为欧盟整体和成员国两个层面,这样就为制度的顺利推行提供了保障。例如,欧盟在数据安全和隐私保护领域的制度中,《有关个人数据自动化处理之个人保护公约》《一般数据保护条例》均提出要在欧盟构建两个层级的数据保护监管机构,并明确了其权力和责任,以确保在欧盟区域内相关伦理监管制度的有效执行。欧盟在人工智能伦理监管领域也同样进行了相似的监管机构设置和权力配置。

中国涉及数字科技伦理监管相关职责的机构主要有科学技术部、国家科技伦理委员会等。此外,《关于加强科技伦理治理的意见》中对于伦理监管机构的设置作出了明确:从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会;推动设立中国科技伦理学会,健全科技伦理治理社会组织体系,强化学术研究支撑。借鉴欧盟数字科技伦理监管机构的设置与权力配置情况,结合中国的实际,可以从三个方面来加强伦理监管机构的设置:一是以法律法规等强制性制度来进一步明确机构设置的层级、数量和权责分配;二是机构设置要以数字科技伦理监管制度的落地为指导性原则,从数字科技伦理审查层面扩展到风险防范、应对以及处罚等领域;三是设置中央和地方两个层级的数字科技伦理监管机构,将伦理监管贯穿到省(自治区、直辖市)、地级市(州、旗)、县(区、县级市)、乡(镇、街道)及村。

(三)社会生态赋能层面对中国的经验启示

欧盟通过《人工智能协调计划》《人工智能白皮书》《欧洲数据战略》等政策性文件逐渐构建起涵盖基础能力、技术创新、产品设计、应用场景等的有助于人工智能、大数据等数字科技发展的社会生态系统,并将科技伦理监管相关内容贯穿其中。

1.加大对数字科技领域的创新投资力度,夯实数字科技发展基础

欧盟发布了一系列数字科技发展战略和白皮书等,其中重要的一项是加大对相关领域的投资,例如,《人工智能协调计划》和“地平线2020”中均安排了未来几年在特定数字科技领域增加相应投资,高达几百亿欧元。除了直接的资金支持外,还通过设立欧洲战略投资基金、发展公私合营等模式来增加对人工智能等数字科技发展的支持,加大数字科技创新的资金投入,夯实数字科技的发展基础。

为了促进人工智能、大数据等数字科技的发展,中国出台了《新一代人工智能发展规划》《“十四五”大数据产业发展规划》《网络安全产业高质量发展三年行动计划(2021—2023年)》等一系列文件,其中明确提出要加大财政资金支持力度,发挥重大项目等国家科技计划(专项、基金)的引导作用,鼓励政府产业基金、创业投资以及社会资本的投入等来支持数字科技的发展。其中,政府引导基金投入的领域主要集中于电子及光设备、能源及矿产、IT、生物技术/医疗健康、电信及增值业务,对这五大领域的投资累计超过了100亿元,占据了所有投资金额的60%[19],这与欧盟的相关投资额仍存在一定差距。在政府研发资金投入上,2020年中国研发投入强度为2.40%,与韩国(4.81%)、美国(3.45%)、日本(3.27%)相比也存在一定差距①。中国未来应加大数字科技领域的资金投入力度,尤其是基础性和关键性技术领域的投入。

2.积极推动数字科技的广泛应用和协调发展

欧盟积极推动数字科技的广泛应用,欧盟委员会以及各成员国政府部门发挥带头作用,积极采用人工智能等数字技术,既实现了公共部门服务效率的提升,又推动了数字科技的广泛应用。例如,欧盟委员会与成员国政府部门共同采用云服务、自然语言处理、机器学习等技术来应对城市管理、災难应急等事件。

欧盟注重全域内的数字科技协调发展,陆续推出了《数字化单一市场战略》《塑造欧洲的数字未来》《欧洲数据战略》等文件,并倡导设立数字科技合作机构,如数字创新中枢、泛欧AI卓越中心网络以及数据共享支持中心等,促进欧盟数字科技的发展与合作,弥补成员国之间的科技鸿沟。

在推动中国数字科技的广泛应用方面,借鉴欧盟政府部门的相关做法,除有效执行2018年国家发展和改革委员会、科学技术部等发布的《关于促进首台(套)重大技术装备示范应用的意见》对重大技术研发予以支持外,还应扩大国产数字科技相关应用的采购和使用,形成全国范围的示范带动作用,促进相关产品国产化率的不断提高以及数字科技的广泛应用,早日获得数字科技关键领域的主动权和领导权。

在推动数字科技协调发展方面,中国主要集中在中央层面的科学技术部、工业和信息化部,地方政府层面则主要集中在经济和信息化局(委员会)。以发展纲要或者规划等文件明确要设立的数字科技合作机构较少,尽管可以建立社会性数字科技合作机构,但缺乏刚性和整体规划性,对于数字科技发展的促进作用也有待检验。借鉴欧盟相关经验做法,中国可以加速数字科技合作机构的设立,尝试采用政府所属机构的方式,这样既可以保证国家相关政策的有效实施,又可以指导和促进数字科技领域的发展。

3.加强国际合作与交流,形成广泛参与的合作监管机制

除了形成欧盟整体与成员国、成员国之间两个层面的数字科技伦理合作监管机制之外,欧盟还注重加强与其他国家和地区的合作与交流,推动合作监管机制的形成。欧盟通过签订贸易合作协议、联合制定监管规则、举办部长级会议以及多边论坛等方式来加强国际合作与交流,不断提高欧盟数字科技伦理监管规则的国际认同度。此外,欧盟数字科技伦理监管制度具有一定的“长臂管辖”特征,要求所涉及企业遵守相关的条款,以此来提高欧盟数字科技伦理监管制度的影响力。例如,在数据隐私保护、人工智能可信任性上,欧盟除了要求成员国遵守相应的监管规则之外,还要求数据流入国、特定“守门人”企业等均要按照相关监管规则来开展经营活动。

借鉴欧盟数字科技伦理合作监管机制构建的经验,中国应加强与不同国家或地区以及国际组织之间的数字科技伦理监管的合作与交流。在中国出台的《新一代人工智能发展规划》《“十四五”大数据产业发展规划》《网络安全产业高质量发展三年行动计划(2021—2023年)》等促进数字科技发展的相关文件中,“促进国际交流合作”“参与国际规则或标准制定”是重要的保障措施。进一步加强与其他国家或地区以及国际组织的合作,应从如下方面着手:一是进一步加深对欧盟、美国等数字科技伦理监管更为前沿的国家或地区的伦理监管制度建设情况的了解和掌握,通过吸收和借鉴其先进的经验来补足自身监管的不足和漏洞。二是依托“一带一路”倡议等以贸易合作或交流的方式,将中国的数字科技伦理监管的相关理念和制度推广至其他国家或地区,加强与不同国家或地区之间数字科技伦理监管制度的互认互通,提高影响力与认可度。三是积极参与到联合国教科文组织等国际组织全球性数字科技伦理监管政策的制定中去,提高中国在国际数字科技伦理监管政策制定中的话语权。

参考文献

[1]贾开,郭雨晖,雷鸿竹.人工智能公共政策的国际比较研究:历史、特征与启示[J].电子政务,2018(9):78-86.

[2]章小杉.人工智能算法歧视的法律规制:欧美经验与中国路径[J].华东理工大学学报(社会科学版),2019(6):63-72.

[3]郭丰,嵇叶楠,黄潇怡.5G网络安全的欧盟策略与实践[J].电信科学,2020(6):133-137.

[4]林美玉,王琦.欧盟5G安全监管模式研究[J].信息通信技术与政策,2021(5):60-66.

[5]宋黎磊,戴淑婷.中美欧人工智能治理领域的竞争与合作[J].当代中国与世界,2021(4):58-67.

[6]莫宏伟.强人工智能与弱人工智能的伦理问题思考[J].科学与社会,2018(1):14-24.

[7]肖红军,商慧辰.平台算法监管的逻辑起点与思路创新[J].改革,2022(8):38-56.

[8]阳镇,凌鸿程,季与点,等.数智化时代传统文化的特殊力量:儒家文化会驱动人工智能企业创新绩效吗?[J].创新科技,2021(7):19-33.

[9]胡鹏鹏,翟相娟.区块链技术对个人信息删除权的挑战与立法回应[J].南海法学,2022(1):94-103.

[10]肖红军,阳镇,商慧辰.平台监管的多重困境与范式转型[J].中国人民大学学报,2022(4):24-39.

[11]肖红军,阳镇,凌鸿程.媒体关注会驱动人工智能企业履行社会责任吗?——基于中国A股上市公司人工智能企业的实证检验[J].南京大学学报(哲学·人文科学·社会科学),2022(2):42-66.

[12]阳镇,陈劲.数智化时代下企业社会责任的创新与治理[J].上海财经大学学报,2020(6):33-51.

[13]肖红军,阳镇.平台型企业社会责任治理:理论分野与研究展望[J].西安交通大学学报(社会科学版),2020(7):57-68.

[14]金晶.个人数据跨境传输的欧盟标准——规则建构、司法推动与范式扩张[J].欧洲研究,2021(4):89-109.

[15]曾雄,梁正,张辉.欧盟人工智能的规制路径及其对我国的启示——以《人工智能法案》为分析对象[J].电子政务,2022(9):63-72.

[16]王偉洁,邓攀科,吕志远.欧盟2021年《人工智能法》研究[J].信息安全研究,2022(2):117-121.

[17]金玲.全球首部人工智能立法:创新和规范之间的艰难平衡[J].人民论坛,2022(4):44-47.

[18]EDPS. Shaping a safer digital future: The EDPS strategy 2020-2024[EB/OL].(2020-06-30)[2023-04-28].https://edps.europa.eu/edps-strategy-2020-2024/.

[19]王江璐,刘明兴.我国政府引导基金的现状分析与政策建议[J].福建师范大学学报(哲学社会科学版),2019(6):78-86.

Ethical Regulation of Digital Technology in the European Union:

Progress and Enlightenment

XIAO Hong-jun  ZHANG Li-li  YANG Zhen

Abstract: With the rapid development of digital technology, the ethical issues of digital technology are becoming increasingly prominent. The European Union(EU) has formed a relatively complete regulatory policy system and regulatory institutions for digital technology ethics, which has certain reference significance. After analyzing the progress of digital technology ethics regulation in the EU, this article finds that: Firstly, the regulatory bodies of digital technology ethics in the EU include the European Commission at the legislative level, the European Parliament, and the European Council, as well as the corresponding digital technology ethics regulatory agencies in the EU and member states at the institutional implementation level; Moreover, industry organizations and associations play a role in providing advice and consultation. Secondly, the regulatory policy layout focuses on AI and big data, and the key topics are mainly AI oriented trusted and responsible innovation, data security and privacy protection, and internet security.Thirdly, the regulatory model and mechanism are the unique dual regulation of member states under the unified framework of the European Union, emphasizing the coordination of comprehensive regulatory policies and segmented regulatory policies, with the participation of diverse social entities. The EU's experience in conducting ethical regulation of digital technology in China is drawn from the combination of soft constraints and hard regulations in institutional design, parallel global and specialized regulations, and strengthening the construction of bilateral and multilateral ethical regulatory systems. In terms of regulatory models, it is necessary to widely incorporate multiple entities into the formulation of ethical regulatory policies, form a unified and coordinated dual regulation between the central and local governments, and establish corresponding ethical regulatory agencies to ensure the effective implementation of the system. In terms of social ecological empowerment, it is necessary to increase innovation investment in the field of digital technology, promote the widespread application and coordinated development of digital technology, and strengthen international cooperation and exchange.

Key words: digital technology; technology ethics; regulatory model

猜你喜欢

监管模式
脱钩背景下行业协会监管模式探析
金融监管模式的演进及对我国监管体制改革的启示
新媒体时代食品安全迎来智能时代
互联网时代下的金融发展和监管模式探析
分享经济的价值创造模式及其影响
关于我国金融市场监管存在问题及对策分析
中外互联网金融监管模式的比较研究
新兴网商组织监管模式构建研究
试论互联网金融监管模式
大型深水航道疏浚施工期通航安全监管模式的构建