APP下载

数字经济可持续发展中的风险表现与法治策略

2024-03-20汤建华

人文杂志 2024年2期
关键词:数字经济法治化可持续发展

汤建华

关键词:数字经济 可持续发展 系统 法治化

党的二十大报告明确指出,“要加快发展数字经济”。①在大数据、人工智能、算法等技术的影响与带动下,我国进入了经济结构转型与新一轮科技革命、产业变革加速推进历史交汇期。数字经济为提升我国经济发展动能.促进产业转型升级带来了新的契机。然而,在关注数字经济的积极面向时,也必须要注意到其中的诸多风险,而这些风险已经在数字经济的发展中逐步显现,如国家数据主权安全风险、数字市场垄断风险等。当前学界已经有诸多研究注意到了规避、化解数字经济风险的重要性,但不足之处在于,现有研究更多是从经济学、管理学视角出发,缺乏法学研究视角,尤其是缺乏法治思维的积极策应。这集中表现为缺乏立足于法治高度对数字经济风险进行系统的法治策应,如管理学的研究虽然从国家、社会、产业、企业、个人五个层面出发,归纳了数字经济风险的具体表现形式,但是其更多是提出框架性的机制建构建议,并未深入至具体的法律制度中。②经济学的研究则是从“数字经济”本身出发,从税收、就业、区域均衡发展等经济法最为关注的几个角度论及数字经济风险。①已有法学方面的研究则较为宏观,提出了防范数字经济风险的整体立法逻辑。②例如,有学者主张,数字经济平台的网络效应、规模效应以及锁定效应极易导致数字经济视域下的不正当竞争,威胁社会公共利益;③有学者提出以数字经济的地方法治为切入点,以地方试错和经验积累为着力点扩大到国家数字法治整体建设,推动构建多元共治的基本格局;④还有学者主张,可以以欧盟的《数字服务法》为参考,结合中国数字经济发展实际构建针对中介服务提供者的“阶梯式”监管模式。⑤由此可见,上述研究虽然加深了我们对数字经济的认知,但并不足以从规则层面对相关风险进行周全式的法律规制,更重要的是,上述对于数字经济安全风险的认知更多是点对点,不同类型风险之间缺乏内在的逻辑关联,以至于很难对数字经济安全风险进行清晰洞察。基于此,就需要从法治研究视角出发,系统阐述数字经济风险的认知框架、生成机理与法治策略。本文着重强调从国家、市场与个人三个维度对数字经济风险进行系统认知,意在从宏观到微观,从整体到局部,通过提高数字经济的系统性风险防范能力促进数字经济的可持续发展。

一、宏观层面:数字经济可持续发展中的国家风险

1.外在表征:数据与主权的多维互动

首先,数字技术安全风险。在大数据时代,作为数字经济的关键性基础支撑,数字技术安全始终处于国家数据主权安全的最前端。正如有学者指出,数据技术已然成为国家数字经济运行的基础性战略资源,掌握数据的规模、利用数据的能力等已成为国家软实力和竞争力的重要标志。⑥尤其在全球化视野下,各个国家为了在数字经济运行之始就取得最大竞争优势,纷纷制定數字技术主权化战略,围绕核心数字技术开展技术排外与技术垄断。其间,以数据的掌控分析能力为标准,信息强国之于信息弱国会存在信息势差,相对落后的国家由于技术实力的悬殊没有能力开发本国数据资源,可能导致本国数据成为他国资源,最终可能遭受“数据霸权”。时下,以高端芯片、核心算法、云计算等为代表的“卡脖子”困局就是我国数字技术安全的典型表现。这种技术上的短板,会在无形中重塑全球数字经济的组织形式,进而给国家数据主权安全埋下安全隐患。

其次,数据流动安全风险。数据流动安全位于国家数据主权安全的中端,随着全球化的不断推进与数字经济的纵深发展,数据的全球跨境流动规模逐渐扩大,但与之相伴的是数据的跨境流动风险。数据跨境流动风险的原因,一方面在于各国之间的数据保护水平不一,本国流向境外的数据是否能够得以妥当保护,他国能否采取必要的措施防范数据被再次流出是数据出境的主要担忧点。另一方面则在于数据当中蕴含的重要信息,譬如个人的健康、交通、医疗信息等,这是得以形成数据产品的必要内容,但同时这些信息又与国家安全、社会安全紧密相关,允许其无限制流动则可能危及国家及社会安全,禁止其流动则可能对本国数字经济发展造成阻滞。由此,在数据流动安全风险视域下,数字经济发展与数据安全保护之间的张力愈发凸显。

最后,数据服务安全风险。数据服务安全风险位于国家数据主权安全的终端,是指附着国家情报安全的相关数据在不同国家或地区流动,被不同跨国公司获取、转换、储存、加工和利用而产生的风险。⑦相比于主权国家,跨国公司在数据服务中往往扮演着更为重要的角色,也是国家数据主权风险的重要源头之一。就掌握的数据量以及数据分析能力而言,部分跨国公司甚至已经超越主权国家,其凭借着雄厚的资本基础、先进的算法技术对一国内的数字经济发展产生影响,这些具有显著数据影响力的跨国公司是数据服务安全风险的主要来源。

2.内在原理:技术与监管的断层交互

第一,技术阻滞、垄断与围困。尽管近年来我国在数据技术的研发和投入上取得了一定成就,但受制于数据产业起步较晚、早期研发意识薄弱等因素,当前很大程度上我国仍面临着自主研发技术供给不足与国外技术垄断这一双重难题。虽然近年来政府部门愈发重视信息处理系统的生产自主化,但考虑到部分国产技术尚未成熟,相应的数据存储与应用存在很大的安全隐患。①同样,国外信息技术看似成熟,但由于终端系统掌握在国外数据平台手中,信息泄露风险同样很高。近年来,我国在芯片研发、半导体应用等领域面临着“卡脖子”情形,这使我国在数据安全维护上备受困扰,由于当前国家安全与芯片技术的关系日益密切,如果未来脱离芯片技术的有效支撑,我国的数据安全势必会面临重大挑战,以美国为首的西方国家同样意识到了这一点,并在中国科技领域频频设阻。②因此如何突破技术封锁,就成为维护国家数据安全的重中之重。

第二,监管欠缺、碎片与争霸。随着掌握海量数据以及数据处理技术的跨国数据平台的出现,资本对于国家数据主权的影响进一步增强,③某种程度上形成了“数据垄断”以及“算法鸿沟”的现象,影响国家行使数据主权。④基于此,是否拥有完善的跨国数字平台监管体系业已成为影响本国数据主权的重要因素。目前,欧盟成员国与欧洲议会的成员代表就《数字服务法》达成一致,该法将重新平衡用户、在线中介机构(包括在线平台和大型在线平台)以及公共机构的权利和责任。⑤相比之下,面对这些大型跨国数据平台,我国尚未形成系统和规范的监管体系,更多是以事后监管为主,而且,国内外相关监管规范的衔接性与系统性也远远不足,这就为我国数据主权的维护埋下了一定的安全隐患。

第三,流通阻塞、封闭与掠夺。数字经济市场的流通性与国家数据主权的维护存在密切关联。由于各国数字技术发展不均衡,对待数字贸易的开放程度有所不同,不同的国家基于本国经济发展水平、数字技术水平以及国内立法水平的不同,对数字贸易中的跨境数据流动采取了差异性的限制要求。绝大多数发展中国家受其数字技术水平及立法现状的限制,对于跨境数据流动采取更为谨慎的态度。一方面,发展中国家的数字技术相对落后,在国际数字贸易的竞争中处于不利地位,为避免欧美等发达国家的数字企业抢占本国市场,因而反对跨境数据自由流动;另一方面,发展中国家的隐私保护立法尚不完善,且在国际规则的制定上缺乏话语权,无法像欧盟一样以个人数据保护为由阻止不符合其法律要求的数字企业进入区域市场,因此,包括我国在内的大多数发展中国家借助数据本地化措施等相应的贸易保护政策,对跨境数据流动进行规制,这在一定程度上对本国数字经济发展造成了阻滞。

3.法治因应:激励与完善

第一,数据关键基础设施是一国数据主权实现的前提所在。基于此,为有效维护我国数据主权安全和国家情报安全,必须强化关键基础设施的研发和投入,在安全芯片、安全区块链以及数据安全开发系统上强化技术供给,建立一套自主、安全、持续的网络安全系统,完善国家主权保障的技术支撑体系。①

第二,数据市场与跨境互联。随着数字经济的发展,国内外数字技术的联系也愈发紧密,在此情况下,通过市场前沿的技术供给,能够有效辅助国家数据主权建设。近年来,欧盟、美国、英国等国家和地区越来越重视数据技术市场的互联互通,例如欧盟一再强调要加强欧盟区域内数据技术的流通和转化,2020年,欧盟通过了《数据治理法案》,该法案试图消除因缺乏信任而造成的数据共享障碍,改善单一数据市场中数据共享的条件,构建欧盟的数据共享模式。②对此,我国同样应该加强数字统一市场的建设。近年来,我国愈发重视数据技术共享,③截至2023年8月,我国已有226个省级和城市的地方政府(浙江省、北京市、湖南省长沙市等)上线了数据开放平台,并且与国家数据共享交换平台实现对接,以“公共数据授权运营”的方式畅通公共数据资源的大循环,以期促进更大范围内的数据共享。④

第三,健全监管与系统规制。考虑到传统监管机制下,事后的救济方案与国家网络数据安全风险的虚拟性、隐匿性存在张力,我国亟须转变监管模式,将跨国数字平台纳入国家数据安全治理网络,并将其经营目标、服务范围和服务协议纳入监管体系中来,合理转变“长臂管辖”的适用规则,将跨国数字平台的风险降到最低。我国对跨国数字平台的监管可从准入与准出这两个关键环节进行:就准入监管而言,合法性是跨国数字平台入境的前提所在,“合法性”强调跨国数字平台的入境数字经营行为必须符合国际商事法律规范、我国民商事法律法规、反垄断法律法规,还主張跨国数字平台不能因为自身的技术优势与资本优势而享有法律豁免权,更不能因为地方招商引资需要而免于商事审查。我国可以适当参考欧美国家的网络安全审查机制,设置特定的入境监管审查机构,对跨国数字平台准入、网络产品认证、网络服务目录等予以全方位规制,以系统和严格的准人机制来规范跨国数字平台企业,从而建立持续健康的准入审查体系。⑤就准出监管而言,我国不仅要防止外国数字平台对我国数据安全的直接入侵,还要防止本国数字平台因为携带特定数据资源而造成的数据安全风险。以滴滴公司为例,其自身掌握了大量数据资源,一旦其将特定用户个人数据信息、地理位置信息等交付他国的数据主管部门备案,将会对我国的数据主权安全造成严重威胁,“运满满”“货车帮”“BOSS直聘”等公司的赴美上市审查同样如此。⑥因此,为强化企业出境安全审查,今后必须完善长臂管辖规制,在现有《数据安全法》《反垄断法》等基础上加以系统规制,从而避免因为我国对数字平台的监管不力而导致本国机要数据信息的泄露。

二、中观层面:数字经济可持续发展的市场风险

1.外在表现:市场垄断与侵犯利益

数字市场垄断是数字经济在市场层面最为突出的风险,也是影响数字经济规范健康持续发展的关键。①一方面,数字市场垄断阻碍自由竞争。阻碍市场自由竞争通常发生在具有寡头垄断结构的数字市场当中,是数字市场垄断最为突出的风险。②为强化市场力量,巩固市场优势地位,部分数字平台在扩张过程中通过并购、复制或者算法共谋行为来打压竞争对手,建立其“数字生态圈”。以并购为例,数字经济发展过程中新增了“扼杀式并购”的表现形式,即在该类并购中,大型数字平台的目的在于阻碍潜在竞争者借助创新扩大其市场占有率和市场影响力。通常情况下,在“扼杀式并购”发生后,大型数字平台以关停相关企业、停止相关研发项目的方式阻碍创新,由此严重影响了数字经济的可持续发展。另一方面,数字市场垄断侵犯消费者利益。消费者福利是实行反垄断政策的主要出发点之一,但是在数字市场中,借助于强大的市场势力以及技术优势,数字平台企业的一系列行为对消费者利益造成严重损害。如滥用市场支配地位强制消费者进行“二选一”以及利用大数据“杀熟”等问题,前者阻碍了消费者选择权的行使,后者则自恃消费者对其平台与产品的依赖,以提高产品价格、降低产品服务质量的方式损害消费者利益。

2.内在原理:法律欠缺与价值冲突

第一,数字经济领域垄断标准的法律疏漏。“数字经济产业虽属信息产业,但其功能及效用是跨行业、全覆盖的,其作用是超行业、超产业的。”③这就使得数字经济领域非常容易产生垄断现象,而我国虽然制定了《反垄断法》,但由于对“垄断”标准的界定不明,法律中存在一定的规范漏洞和执行障碍,给数字经济的可持续发展带来了极大的风险。对反垄断标准的确定主要存在于《反垄断法》的第三条中,即“本法规定的垄断行为包括:(一)经营者达成垄断协议;(二)经营者滥用市场支配地位;(三)具有或者可能具有排除、限制竞争效果的经营者集中”。④如果说第一款的规定尚且能够清晰地得到确认,那么第二款及第三款则成为数字经济反垄断不可控因素的主要来源。一是第二款中的“滥用”在实践操作中非常难于判定。如前所述,数字经济具备传播速度快、覆盖范围广的特点,在运行中就要求有便捷化和统一化的流程,因此很容易会对某一地区的行业产生支配性的影响,由于这一。支配性”与其产业本身性质紧密相连,即使发生了“滥用”行为,也是十分隐蔽和不易发现的,这就要求必须有更为严谨和细致的判断标准。二是第三款中“排除、限制竞争效果的经营者集中”,和前款存在同样问题,数字经济要求多方面的密切协作和信息沟通,故而“经营者集中”一项是否能够成为垄断标准,亦是留有疑问的。

第二,数字经济反垄断目标的内在矛盾。与传统的产业垄断不同,“数字平台的强垄断势力和多重危害严重动摇了芝加哥学派以福利权衡为核心的反垄断消费者福利标准,数字经济反垄断目标成为最具争议的基础性问题”。⑤在我国,这一目标中的内在冲突也成为数字经济反垄断的一大阻碍,并对其良性可持续发展形成了负面效应,虽然《反垄断法》在总则部分便规定了“提高经济运行效率,维护消费者利益和社会公共利益”①的目标取向,但由于“效率”“消费者利益”及“公共利益”三者之间本身存在着一定张力,在没有明确三者价值位阶的情况下,很容易带来实践中的冲突,执法者在执法过程中也难以判辨这三种价值该如何取舍,从而导致出现反垄断工作上的困难。

第三,数字经济中“垄断”与“创新”的关系处理困境。我国发展数字经济,就必须“切实推进以企业为主体的、激发企业创新活力、增强企业创新能力、形成全社会协同创新的数字技术创新机制”。②企业推动创新性工作,就必须具有雄厚的资金基础和一定的企业规模,并调动一切可以运用的资源。然而,在反垄断的形势下,如果贸然对大型企业进行审查,并认定存在垄断行为,就可能导致企业规模的削减和资源的流失,而不少地方为了创新发展,会对大型企业放松审查力度,但这反过来又会助长垄断行为的出现,影响数字经济的整体健康运行,因此,未能正确认识数字经济中“创新”与“垄断”的市场效应,严重制约了数字经济的可持续发展。

3.法治因应:法律赋权与制度构建

第一,设立专门的算法监督管理机构。数字平台的合规化建设是一个系统工程,要求政府必须建立一个跨部门、跨层级的综合监管体系。欧盟《算法责任与透明治理框架》规定公共部门建立AIA算法问责机制,并建立履行算法风险评估、提供算法建议的专门算法监管机构等。考虑到算法的专业技术性和跨知识领域等特征,我國同样可以适时在市场监督管理局设置专职部门,并配备算法相关领域的外部专家履行算法监督职责。受制于信息与技术劣势,单一政府职能部门的风险防范意识往往滞后于数字平台,因此我国还应适当加强不同职能部门之间的协同配合,即从单向度管理向多元主体协同治理转型,将不同监管部门的职责来源形式加以合法化,职责予以类型化,并明确在上下级之间和同级之间建立起一套健全的沟通和协调机制。

第二,建立风险监测预警和周期复查制度。数字经济的发展离不开可持续的市场生态,建立配套的监测预警和复查制度就尤为重要。我国应在严格准确记录经营者算法应用过程、算法策略等基础上,进行算法歧视风险监测和预警,并建立相应的周期复查机制,对算法开展周期性的安全测试审查或安全评估,防止算法在运行中将本应受到保护的敏感性数据与其他可合法获得的数据进行编码与关联性应用,建立算法的分级分类管理制度,以免形成“冗余编码”,进而产生算法歧视。此外,为了强化风险监测预警和周期复查制度的功效,还可以参考欧盟对数字经济的监管,设置一套包括算法垄断、算法歧视、算法操纵、算法协同、算法黑箱等在内的负面清单制度,让经营者尤其是大型网络平台、寡头企业等在设计算法时应避开负面清单中所列事项,减少可合理预见的算法垄断风险的出现。

第三,完善政府对合规科技的监管体系。③当前,考虑到技术资本对数字政府的侵蚀,有必要建立完善的数字合规科技监管体系。合规科技监管体系从本质上讲是一个法律监管问题,是通过对相关国家法规之遵守、对相关企业运营风险之规避、对相关监管行为之预判所建立的一套现代科技创新与成果转化体系。④基于此,政府必须强化自身的监管职能,不断优化监管法律,完善科技合规的监管方式与手段,避免因缺乏有效的协调、合作机制而导致的治理失败,并最终影响数字政府的建设进程。①此外,数字市场监管是一个系统工程,必须要注重新型技术,尤其要加强技术监管和信息化管理技术的应用,②积极寻求技术突破,尝试利用人工智能技术来助力企业合规建设就成为最佳的战略选择。③如欧盟就试图通过在算法代码中加入数据保护科技,形成了数字平台的有效监管。同样,俄罗斯反垄断局开发了一套系统(BigDigital Cat),用于跟踪市场上出现的算法合谋。巴西竞争执法部门开发了一套名为Cerebro的筛选系统,用以规范数字平台的市场经营行为,保护消费者权益。④我国应加强高科技技术在数字市场监管领域内的应用,以打破数字市场垄断,使数字市场更加科学规范地发展。

三、微观层面:数字经济可持续发展中的个人风险

在法治国家的场域下,个人权利保障是数字经济可持续发展的目标与归宿所在,因此,无论数字经济采取何种运行形态,最终都要回归个人权利保障这一逻辑起点,否则便会因为失去“人文关怀”而陷入合法性与正当性的价值挑战之中。

1.外在表征:数据安全与伦理忧思

一方面,个人隐私泄露风险。数字经济对隐私权的介入集中表现在三个维度:个人隐私数据化、个人隐私连通化和个人隐私商业化。个人隐私数据化指的是随着数据收集、分析技术的普及和发展,个人数据量越来越多,数据平台的触手进一步延伸至公众日常生活的各个角落,且时常未经当事人同意,大量收集公民各类信息,已然呈现出无孔不入的格局。⑤连通化指的是越来越多的个人和物品与网络连接,如智能手机、智能家具等智能设备,使得数据挖掘技术越来越深入个人生活。商业化指的是网络世界主要是由企业为其经济利益而构建的,网络隐私的收集、处理和披露背后的强大动机是企业了解客户以增加收入的欲望。数据平台与普通公民的个人信息保护关系愈发紧张,个人信息成为数据和算法的表达,数据技术渗透到了公民生活的各个领域。⑥在此情况下,公民个人隐私的公开化程度被大幅提升,与之相关的隐私权保障也愈发迫切。⑦

另一方面,科技算法歧视风险。算法歧视作为一种新型的科技伦理风险,是指人工智能时代下不合理的区别对待,其虽然没有改变歧视的本质,但是却通过人工智能、大数据与科技算法的演变,改变了歧视的衍生形态。事实证明,算法歧视并非人工智能算法的合理形态,更多是数字经济的异化表征,因此,一旦其长期存在,将很容易给国家数字市场以及公民个人权利保障埋下安全隐患。算法歧视不利于形成健康可持续的数字经济秩序。在数字经济市场的运行中,算法歧视已经成为部分数字平台获取市场占有率、开展不正当竞争的重要手段,其间,拥有一定技术资本的数字平台,会凭借算法优势进行肆意的价格歧视,集中表现为对不同消费能力的消费者加以区别对待,这种经营行为从根本上改变了价值规律和竞争秩序,①不利于数字市场的健康发展。除此之外,算法歧视很容易侵犯公民个人的平等权。平等指同等情况予以同等对待,不同等情况予以区别对待,一旦算法对同等情况加以区别对待或者对不同情况予以同等对待,就会引发平等权问题。②当前,算法自动化决策普遍存在于数字政府建设过程中,因此,一旦这种不平等的价值观被引入行政决策领域,那么将很容易破坏社会分配正义,给公民平等权造成严重的负面影响。③

2.内在原理:社会问题与数字放大

第一,社会歧视的数字转化。歧视是指“相同的人(事)被不平等地对待或者不同的人(事)受到同等的对待”,④其作为一种社会现象很难在国家和社会中被完全消除,数字经济时代亦是如此。正如托马斯·克伦普指出,数字关系始终是人类社会关系的具象化,其数字系统运行与其背后的社会文化具有复杂且紧密的逻辑关系。⑤自然科学技术的发展仅仅为人类社会活动提供了一种新的“场域”和“工具”,并不能够改变人类社会固有的不平等。不平等的观念和价值判断依然会通过科学技术渗透到数字经济时代的方方面面。此外,科学技术为间接歧视和隐性岐视提供“庇护”,更加剧了不平等现象。

进一步讲,资本力量意识到数字技术对当今世界的塑造力和创造力,纷纷趋之若鹜。资本的介入虽然促进了数字技术的革新和发展,但也使得数字技术无形之中偏离了“造福于全人类”的初衷和愿景,逐渐沦为资本干预经济社会发展的手段。社会偏见和社会歧视也通过这一过程完成了形态上的转化,成为数字经济时代个人风险产生的根源之一。

第二,算法技术的非中立性。算法自诞生起就以其高效性与便捷性备受青睐,并被广泛应用于金融资产交易、智能投资、信贷市场等各个领域进行自动化决策。人们倾向于认为通过自然科学模式推算出来的算法自动决策是客观中立的,不存在价值判断,更不需要面对伦理问题,能够作出既符合效益又切合情理的判断与决策。⑥但随着算法在数字经济中的发展形态愈发多元,其中立客观的形象也随之被打破。

实质上,算法技术的非中立性是与生俱来的,并非是后天附加的。一是算法系统从输入到输出之间呈现出不公开和不透明的状态(学界将其定义为“算法黑箱”),⑦这种非公开非透明状态成为算法技术最大的不可控因素,也提供了一系列人为操纵的空间。二是数据偏差导致算法技术结果失真。数据在统计和分析过程中有一定的几率会出现偏差和错误,这些偏差和错误必然会继续传递直至导出结果。三是算法设计人员的有限理性和非客观性会导致算法模型不具有中立性。算法技术人员本身带有一定的利益诉求和价值取向,算法设计人员会不可避免地将自己的情感嵌入算法,且算法开发是一个庞大工程,需要众多设计人员的参与,不同参与者将不同价值判断和看法掺入算法开发的过程中,也必然会导致算法模型不具有客观性和中立性。

第三,数字权力挑战传统社会关系。“资源集聚在一定程度上就是权力集聚”,①数字社会使得建基于现代国家理论尤其是民族国家理论逻辑的现代权力机制面临深刻调整,权力来源从狭义的国家力量走向广义的社会。②传统社会内部的社会权力结构已然发生变化——不同于传统视阈下市民社会与政治国家的简单划分,部分以企业和行业为代表的准权力机构迅速变成“庞然大物”。

数字权力机构借助资本与技术优势衍生出类似于国家机关的权力统治模式。在发展数字经济的过程中,数字平台凭借自身在技术、资本、市场等方面的绝对资源优势,通过对散落在平台上的海量数据进行深度挖掘、分析和加工来实现用户信息的精准支配与绝对控制。同时,数据平台不仅具有强有力的资源优势,还具有天然的逐利本能,这种主观逐利与客观主导的结合,会进一步诱发“数据权力”的不断扩张与异化,并体现在个人信息收集、使用、存储、共享、转让、披露等多个环节。当下,互联网企业、大型网络平台等数据权力主体,常常利用技术优势大规模收集公民个人信息,逐渐颠覆传统的社会权力结构,成为异化社会组织关系的主要风险源。

3.法治因应:权利配置与义务设定

第一,明确公民数据权的国家保护义务。从基本权利的双重性质看,国家保护义务的本质是客观法功能的体现,即对于来自“第三人”的侵害,要求国家采取相应措施加以救济,而非针对传统意义上国家对个人可能造成的侵害。也就是说,依照国家保护义务理论,既然国家限制了公民私力救济的权利,那么当不平等的私主体之间发生权利侵害时,国家有义务采取一定的保护机制,从而使弱者的基本权利得到应有的保障。③

当前,我国对公民数据权的保障模式建立在对个人隐私权的保护之上,主要以事后追责、事后监督的方式为主,以法律责任的承担来约束信息处理者并督促其妥善处理个人信息。笔者认为,在国家保护义务场域下,事前审查、事中管控能够全方位监控数据采集流程,有效预防风险的发生,应当将其纳入我国公民数据权的保障体系。同时,在数字经济时代,公民权利保障仍应将平等置于首位,对于公民数据权的保障应当将数字技术限定在数字人权界限内,从根源上防范、化解数字歧视,保障每一个公民平等享有数字技术带来的便利和美好的权利。

第二,推动个人隐私保护立法。数字经济可持续发展离不开对公民权利尤其是个人隐私权的保护。如前文所述,数字时代的个人隐私侵权更具有隐蔽性、匿名化、智能化以及复杂化的特点,需进一步推动个人隐私保护的专门立法和相关立法,打造全方位的立法保护体系,促使公民隐私权保障有法可依。一是需明确个人隐私权的内涵和定位。笔者倾向于王利明教授的观点,将其视为一项独立的人格权,④并在《个人信息保护法》中对隐私权的内涵、外延、侵权主体、权利客体予以明确划分,对其认定进行细致的规定,便于实际操作。二是应当进一步明确侵犯个人隐私的性质和法律后果。在《民法典》“侵權责任编”中增设“隐私侵权”条文,并对表现形式、责任划定、救济途径和赔偿方式加以规定。三是可以将严重侵权行为纳入刑法的保护体系。针对窃取、传播和利用个人信息,对于造成的危害面广、程度深以及影响大的情况,应将其纳入刑法的打击范围,从而更好地维护公民隐私权。

第三,加强数字经济产业的行业监管。数字经济产业的良性发展离不开政府部门的监督和管理。在监督方面,需要构建一套事前预警、事中把控、事后问责的监督体系,明确管理权限,增强处罚力度,综合运用警示、叫停等惩戒措施,对数字平台数据失范行为进行行业规制,从而有力保障公民个人的数据权,①尽可能地将数字技术风险控制在一定范围内。一味地监督也不可取,还需要行之有效的管理举措。当前,市场主体主动形成的行业规范能够有效弥补法律的不足,在法律的刚性制度下能够更好地实现自我管理。事实上,作为市场主体在多方利益妥协与博弈后产生的行业自律规范,相比于国家法律,其在保护个人信息方面发挥了较大的作用。政府应积极推动行业自律公约的建立,根据情况鼓励相关的企业在制定行业自律准则时严于法律标准。同时,注重行业自律公约的惩戒功能,设立取消行业准人资格、限制合作等惩戒措施,对企业和服务商起到约束和震慑作用。

四、结语

在数字时代,数字经济可持续发展是开展国家治理体系和治理能力现代化建设的重要组成部分。数字经济与数字产业革命相伴相生,其虽然在推进经济高质量发展、社会高效治理以及个人便捷生活过程中发挥了正向价值,但也存在一定的风险隐忧。在风险社会视域下,数字经济发展中存在一定的技术风险和制度风险,不仅可能冲击国家数据主权安全,威胁社会治理秩序,还有可能造成个人隐私数据泄露。基于此,片面地对数字经济的风险表现进行分析和把握既不符合马克思主义原理的基本要求,也无法适应数字社会发展变革的正当化需要。因此,应当从宏观、中观、微观三个层面人手,以“国家一市场一个人”为主线,对数字经济的风险隐忧和法治因应进行系统分析,以实现数字经济可持续发展的分层治理。不可否认的是,虽然当前我国的数字经济发展已经取得了一定的成就,但仍然存在碎片化、断层式、单一化的发展困境,需要国家从规范层面和技术层面进行引导和监管,为避免陷入“技术利维坦”的窘境,需要调动“国家一社会一个人”的多元主体力量,将正式制度与非正式制度相结合,在强化法律规制的同时也注意发挥行业自律规则的作用,努力实现工具理性和价值理性的统一。同时,虽然技术是冰冷的,但数字经济的发展应当嵌入人文关怀,融入公平、正义、普惠等价值理念,以目的理性规制技术伦理。虽然能够通过法律等刚性制度有效防范化解数字经济发展风险,然而上述风险并不能被彻底消除。因此,应当推动数字经济发展从绝对安全向相对安全的转化,最大程度降低技术风险和制度风险对数字经济的不当侵蚀。当然,在风险全球化视域下、在经济全球化浪潮中,我国并不能独善其身,还需要着眼于数据跨境流动的视角下思考数字经济发展的安全性和可靠性问题,吸收借鉴美国欧盟等国家和地区关于数字经济的发展经验,加强国际交流与合作,实现数字经济的可持续、共享式发展。

猜你喜欢

数字经济法治化可持续发展
家庭教育法治化的几点思考
OECD国家数字经济战略的经验和启示
从数字经济视角解读欧亚经济联盟与丝绸之路经济带对接
数字经济对CFC规则的冲击探究
中小家族企业可持续发展的对策研究
全球资源治理中的中国角色与愿景
新型农村金融机构的可持续发展
应对数字经济下的BEPS现象
信访法治化中的权利义务配置
国企改革法治化的“知”与“行”