APP下载

社会治理视阈下的金融科技算法风险规制

2021-03-24邓阳立

海南金融 2021年1期
关键词:金融科技金融监管社会治理

摘   要:算法是大数据、人工智能、区块链及云计算等技术的底层运行逻辑,在促进金融科技进一步发展的同时也因其高度专业性、不透明性、人为操纵性、替代效果而存在技术性风险、歧视性风险、安全性风险,破解算法风险的核心要素是透明度规制、道德性约束以及责任追溯机制,有必要引入社会治理理念,通过横向建设以监管部门为核心、各主体参与及纵向对各主体进行规范管理与赋权的包容性监管网络,促进金融市场多主体采取多方式对金融科技算法进行协同监督与管理,共同实现算法风险规制和金融生态健康发展。

关键词:金融科技;金融监管;算法风险;社会治理

DOI:10.3969/j.issn.1003-9031.2021.01.007

中图分类号:D912.28          文献标识码:A           文章编号:1003-9031(2021)01-0061-09

近年来,依托大数据、人工智能、区块链及云计算等技术驱动而产生的金融科技,给传统金融行业带来了颠覆性改变。随着越来越多的科技公司及金融机构涉足金融科技领域,其应用更新换代也愈加迅速,智能投顾、大数据应用、量化交易等技术模式已广泛应用于金融市场,有效促进了金融行业的效率和质量的提升。作为金融科技底层技术的人工智能、大数据等运作的内在本质以算法为核心,换言之,算法是金融科技运用与展开的基础性要素,也是金融科技持续发展的驱动性力量。

Tarleton Gilespie定义算法为基于指定计算将输入数据转换为期望输出的编码过程。由此可知,算法是为了实现某个特定的目的或达成某个结果而采取的一系列的步骤。在金融服务中,通过算法的设置与运行,大数据与人工智能等技术能够广泛地参与市场服务,搜集并分析整理数据,最终呈现符合终端需求的数据结果。如基于人工智能技术的智能投顾,其通过各种手段获取投资者资产状况、理财需求、风险能力及其变化规律等多重信息,通过既设的算法范式,将数据嵌入预设模型之中,为用户构建最优资产投资组合方案,并能够依托平台对方案进行追踪。大数据征信系统亦是如此,通过将用户特定信息置于既定的算法模型之中,最终得出其信用分值结果,大大提升了评估效率和准确性。虽然算法的广泛应用能够给市场各主体带来巨大便利,然而算法自身具有迭代性,加之机器深化学习、多层神经网络技术的逐步完善,使算法内在决策机制变得更加不可预测和难以解释,从而导致算法的不透明度和风险性进一步提升。首先,金融科技的算法所需要的相当的专业性实质上为其设置了近乎“垄断”的门槛,其过高的技术性,使其难以被大众乃至普通投资者所理解;同时由于商业秘密等限制,算法的结果是可见的,但算法操作的过程是不透明的。其次,技术是中性的,而算法本身并非中性,作为金融科技的底层框架,算法的运行表面是自动化、流程化的,但其内嵌程序仍是人为设计,不可避免地會带入设计者的价值取向、道德标准等因素,而这将可能造成歧视性风险。再次,金融科技的算法是用于分析数据并得出解决问题的方案的一种策略,当算法代替自然人得出投资决策时,原先以金融从业人员为义务主体的法律体系实际上被架空,在关涉法律责任时会引发安全性风险,即产生责任人主体不清、义务不明的问题。易言之,算法自身的技术性、人为可操纵性及其运行的替代性效应会产生算法风险,对整个金融生态存在着相当程度的负外部性影响,而算法应用的风险的破解则需要厘清其产生的根源。本文从社会化治理的视角出发,探讨金融科技算法风险产生的原因及破解算法风险的核心要素,以期实现金融科技算法的潜在风险的社会化规制。

一、金融科技算法应用风险

(一)算法高度专业化产生技术性风险

作为金融科技的底层逻辑,算法是其构成要件的核心,属于技术高度集中的产物,具有相当的复杂性与专业性特征,能够为金融科技的有效运行提供基础保障,然而算法在其产生和发展的过程中也伴随着透明度缺乏和自身存在固有缺陷等问题,导致技术性风险的发生。

首先,算法本身的透明度缺乏可从三方面具体理解,一是算法本身的不公开不透明,这是由于金融科技所依托的底层算法往往具有知识产权属性,由相关技术人员掌握,且通常属于商业机密甚至国家秘密的保护范畴。二是由于智能算法的动态化特点,自其研发之初就难以对其有效适用进行测量,从而产生不透明性。三是碍于算法所构筑的技术鸿沟,客户很难窥视算法内部的数据筛选、分析及模型的演算过程,也无法了解其资金投向的具体逻辑,即使算法完全公开,也难以被普通投资者所理解。透明度缺乏意味着算法开发者、控制者的自主性增强,算法难以被公开理解意味着金融科技的使用者如金融机构,以及金融科技的服务对象如投资者处于相对技术弱势地位,而这在某种程度上加剧了金融市场上的信息不平等,使传统的风险与技术性风险相交织,加剧了科技使用者与监管者的信息不对称,监管部门基于以往经验与数据不足难以有效监管,而缺乏监管的金融科技又反过来形成技术壁垒,使风险更加隐蔽。

另外,算法自身固有缺陷会导致内外双重技术性风险。算法缺陷的内部风险是指因编程设计更新错误、信息系统失灵等非客户原因造成而使系统无法按照原有算法原理及程序为客户提供正常、持续服务的计算机漏洞;外部风险则是在技术性因素的影响下针对特定算法缺陷的攻击,主要包括病毒侵入、黑客攻击或网络异常瘫痪等。

(二)算法的人为可操纵性产生歧视性风险

歧视性风险是指对形式上平等的主体进行区别对待,从而导致部分主体正当利益受损。算法本质上是通过输入数据以输出决策结论的一系列预设步骤,是一种分析、预测的技术,也是“掩饰在数学外表下的个人意见”,展示的是要素的相关性而非因果性,从输入数据到步骤设计本身均存在着歧视性风险的可能。

歧视性风险来源之一是算法本身的偏见设置,又称为歧视性操控,由于算法的设计目的、数据运用、结果表征等程序性设置都是基于开发者、设计者的主观价值选择,他们可能会把自己持有的偏见嵌入智能算法之中,算法又可能会把这种歧视倾向进一步放大或固化,从而造成“自我实现的歧视性反馈循环”。智能投顾公司与负责算法设计的科技公司利用后者技术优势在算法中设置不公平规则,使某类金融产品总能获得优势评估而被广泛推荐给不知情消费者,如山西证监局在2017年4月份的投资者风险提示中就点名批评理财魔方、拿铁理财等实际上是在帮助基金做销售的导流。

歧视性风险的另一来源是偏见性数据的输入,无论是自动抓取还是主动提供,只要初始阶段的数据存有歧视性特征且未得以改正,那么训练数据与学习算法都将会进一步放大歧视现象,从而形成永久性难以修正的歧视。《Nature》曾以“BIBO”(Bias In, Bias Out)来描述大数据算法偏见,即明示了数据本身存在的歧视性会输出类似的分析结果。位于洛杉矶的科技金融公司Zest开發的人工智能信用评估平台ZAML使用用户的网络行为而非实际的信用记录来判定用户的信用值,而其根据用户申请中的英文拼写来判断该用户“守规矩”的倾向,这导致部分不能熟练使用英文的群体的信用利益受损。

(三)算法使用的替代效应产生安全性风险

以智能投顾为例,其基于投资者自身需求,根据预设算法搭建数据模型,从而提供理财顾问服务,在这一过程中,算法替代自然人接触投资者并完成咨询业务,改变了传统的投顾业务中不同主体间的法律关系。算法为金融科技掩上表观简单高效的技术面纱,从而把结构复杂的金融中介和法律关系藏匿于其后,因此,法律关系、责任主体都是需要被厘清的对象。

首先,智能投顾往往跨平台整合大量关联数据来作出决策,其决策依据是相关关系,弹性极大,这也导致监管者难以解释具体的影响算法行为的因素并从中找出责任主体。其次,在传统投顾模式下,自然人金融从业者与金融机构作为受托人需要履行并承担相应的许可、注册等合规义务,同时金融机构也受到严格规制,责任划分较清晰;智能投顾的出现使得传统的金融决策的作出变成混合的过程,这其中既有幕后主体的设计和设置,也有台前机器按照算法作出的判断,这使金融机构的服务边界越来越模糊,而金融机构和技术机构之间本身通过技术形成大量连接,从而导致无限中介的现象,如在研发与应用一体化的情景中,机构内部的核心主体包括技术团队和高管团队等。前者掌握关键技术、负责算法研发;后者直接控制公司运营和经营管理,混合形成的金融决策使传统上对于投顾的监管策略难以在此进行主体识别和责任判断。司法实务中,判定被侵权人所受损害与算法决策之间是否存在某种关系,以及确认侵权主体,是判断算法侵权成立与否的前提。在算法研发与使用分离的情形下,直接与投资者签订委托代理合同的主体为智能投顾机构,即算法使用者,此时责任认定能否穿透到作为研发者的外包机构亦不明朗。概言之,监管者面临着难以识别金融行为的本质及其背后的法律关系和责任主体的困境,而这即是安全性风险的直接表现。

二、规制算法风险的核心要素

在金融科技的具体运用中,风险一方面归因于算法的“技术性壁垒”带来的不透明和固有缺陷,另一方面来自算法设计的道德风险,即人为因素的介入使算法决策产生“歧视性效果”,除此之外,传统责任主体存在剥离可能也成为智能算法的风险来源。通过对算法进行透明度规制,责任追溯规制及道德性约束,能够有效控制算法风险的产生,进而避免“多米诺效应”致使宏观金融市场产生系统性震荡。

(一)风险破解之有意义的透明度规制

透明度对于算法技术性风险规制的意义重大。当算法的操作规则、创建、验证过程完全公开时,算法过程是完全透明的,但这一要求通常很难达到。欧美部分学者认为披露计算机源代码并增强算法决策程序透明度是降低算法风险的最佳措施。这种观点亦有待商榷,源代码的知识产权问题暂且不表,算法的高技术性也决定了普通大众并非其源代码披露的适格受众,此种披露存在流于形式的可能。因此,算法的透明度规制应是合理且有意义的。

“有意义的透明度”应允许算法的利益相关者对算法本身、算法使用和算法实现进行干预,保证算法的决策过程是负责任的,这涉及算法可公开的范畴和算法披露的合理性。算法的透明度限制应于知识产权与投资者利益的双重保护性要求之间达成平衡,在限制性范围之外情景下通过自然语言或逻辑符号的形式进行合理披露,尤其在关涉投资者知情权的关键信息上,如数据来源、决策产出规则及模型依据等对决策结果有重大影响的因素上,应要求有关方严格履行披露义务。其次算法的披露应是合理的,利益相关者应能够切实理解算法行为,而这要求算法披露的同时得到合理解释,即算法的基础数据或对其进行的描述应有助于从外部了解其所声称的特征与结果相关性的实际联系。目前在金融科技的运用中,针对具有执行性质的自动化决策程序而言,其主要依据既定的模型得出决策,可解释性相对强;针对具有智能化趋势的算法而言,由于其深度自主学习的特点,可解释性相对弱,但一般化的可解释性规制仍有其效用。

(二)算法伦理的道德性约束

针对算法可产生的“歧视性风险”,理应从算法伦理的角度对其进行约束。作为机构意志的模型,算法的实施初衷、数据运用、程序开发、代码嵌入、结果表征往往与机构掌控者的利益追求紧密相连,换言之,算法无法摆脱人为干预。算法因偏见数据而形成的“产生悖论”和偏见设计而形成的“结果悖论”均会导致算法不道德,有违算法伦理,因此,应该通过数据处理和算法设计进行伦理约束,促进算法公平的实现。

数据之于算法的意义相当于血液之于人,而数据的使用包含数据的采集与数据的分析。其中,数据采集包括客户数据采集与金融市场数据采集两方面。数据采集项目设置的合理性、数据采集来源的范围大小、数据过滤设计的合理性等内容都将直接影响算法结果。同时,数据的量化分析是根据数据重要性程度对各类数据的价值进行赋值,从而将“世俗化”的一条条信息通过量化解析转变为以数字表达的输出结果。因此,金融科技涉及的数据收集、赋值、分析等操作不能因利益驱使而违背正义、公正、诚信、平等的基本道德原则,不仅应限制客户数据画像的不正当使用、信息泄露以及未授权数据抓取,还应避免因数据不当处理而可能导致的“数字鸿沟”和歧视现象。从算法设计的伦理角度,应在算法设置中嵌入“默认技术设计”和“默认伦理设计”。前者是在人工智能技术中默认设置一些符合技术伦理的算法,后者则是将公平、正义等价值观作为模块嵌入算法本身。

(三)刺破算法责任主体“面纱”

就目前的技术发展来看,弱人工智能尚不能成为民事主体,算法的自动化与智能化更不能成为真正责任主体推卸责任的理由。当算法决策代表自然人服务为投资者提供建议时,机器判断的依据是预先设定的模型、金融产品以及计算匹配的关系。在目前现有的法律框架中,与智能金融相似的是电子代理人,以长臂规则为基础的衍生即是由运营者承担电子代理人责任。

在金融科技服务中,运营者虽然没有与投资者面对面进行接触,但其能通过算法运用的长臂接触到投资者,收集信息并做出相应反应。应由运营者承担责任并建立相应的机制来确保算法符合运营者的意图,同时运营者也需要及时识别并纠正有害结果的发生。在侵权责任法的过失责任原则下,设计者的责任仅限于可以控制的算法的输入和输出,即机器的“监督学习”。如果算法自我深化甚至超出设计者预想的模式时,则由运营者来承担责任,这能够更好地促进运营者采取有效的监督模式谨慎经营。

除了运营者之外,在算法的研发与使用分离的情形下,研发者义务的认定也需关注。以智能投顾为例,虽然算法的研发者并未直接给出具体意见,但他们对最终结果的形成有决定性或帮助性作用。因为他们是传统意义上的单纯的技术提供者,所以应将研发者分为算法中金融模型的提供者与算法程序的开发者。程序开发者将金融模型转化为算法程序,在金融科技内部起技术支持的作用,其地位相对中立,除非故意或重大过失,否则并不应担责,而技术开发者亦需要承担算法设计的伦理性要求。金融模型的提供者是算法程序的来源要素,金融模型关涉提供者对金融市场的判断、利益衡量及其他内容,实质上与算法决策有着重大利害关系,换言之,在算法接受现有的金融模型的训练并提供结论的同时,自然人的专业判断、职业伦理和利益衡量上的瑕疵和偏差也可能迁移给机器,因此金融模型的提供者应承担与自然人投顾相一致的信义义务。

三、社会化治理参与算法规制

金融科技是现代新兴技术行业与金融行业高度融合的有力范证,然而其多主体、多方向的发展亦会呈现多维关系特征,未来金融科技的算法会更加复杂,风险更加隐蔽,监管难度不可同日而语,依靠政府一方难以弥补所有监管空白,因此多元主体间的协同化合作尤为必要。

(一)算法风险规制语境下的社会治理理念

社会治理是对传统政府治理结构和权力运行方式进行再造,着力重构政府、社会、市场、民众之间的新型关系,通过协商、合作、互动、共赢的方式,实现资源整合、秩序构建和治理效能提升,是为实现公共目标,在公共、非盈利及私人部门或跨部门之间的进行的权力与自由裁量权的共享。社会监管即社会化共治在金融科技领域的表达,具体可分为社会化的监管主体和社会化的监管方式,监管主体社会化意味着包括政府相关部门、金融机构、技术开发者、投资者及市场中的中立第三方均可参与算法的监管;监管方式的社会化意味着监管方式不局限于政府出台的法律规制,也涵盖金融行业自我纠错、行业协会自律、第三方机构或个人技术监督以及投资者通过行使权利自我保护等其他方式。针对金融科技算法存在的风险,社会化监管应推动算法的透明度规制即披露义务和解释义务,算法的责任追溯规制即责任主体与义务以及算法的道德性约束即算法伦理的实现。社会化监管的参与一方面补充传统的政府单向监管的薄弱环节,形成以政府监管为核心、其他监管主体参与为辅助的框架,另一方面能够让市场其他主体切实参与金融科技的建设与规制,避免“局外人”的产生,多元主体以多元方式参与监管能够有效规制算法的技术性、歧视性及安全性风险,从而激发金融市场的活力。

(二)社会化监管推动算法监管核心要素的实现

1.政府构建算法监管宏观框架与微观约束

政府是社会化监管的核心力量,其在完善现有规制的同时也应为其他主体参与算法监管提供基本框架范围,在宏观层面上构建基本的治理架构与顶层设计,在微观层面上落实相应的具体规范补充。

在宏观层面,应以算法为规制对象制定相关法律法规,约束和规范算法设计及决策等行为,立法机构介入的主要方面应该包括但不限于:一是厘清算法的概念及应用范畴;二是制定对算法的审查规则;三是把部分伦理规范融入法律规则,强化对算法设计者遵循伦理道德的法律约束力。

在微观层面的举措。首先,有关部门针对算法的透明度規制应建立在算法披露义务机制之上,算法监管的内容、流程及金融科技运营者的强制披露义务均为专业性和技术性较强的领域,应设立专业的监管部门进行算法监管,根据算法的功能进行层次不同的信息披露机制的设计。如英国下议院科学技术委员会呼吁成立一个专门委员会,对人工智能当前以及未来发展中的社会、伦理和法律影响进行研究。其次,借鉴美国数据创新研究中心所提出的“两步问责法”进行算法责任审查,即采取事前有效控制与事后及时补正的双重认定标准。具体来说是当投资者的利益受到损害时,第一步,看运营者事前对于该技术运用是否进行了有效的控制;第二步,看损害发生后运营者是否及时采取措施补正损害后果,据此进行责任判定与承担。再次,发展机器伦理和数据伦理是规制歧视性风险的必备手段。一方面将算法设计的基本道德规则上升为强制性要求,促进技术伦理显性化;另一方面以反歧视目标为宗旨,建立健全数据清洁制度和算法歧视影响评估制度,强化对算法模型训练数据的事前清洁处理和对算法模型的潜在歧视风险进行预测评估。

2.算法开发、使用者内部自我治理

算法设计者与运营者内部自我纠错,承担相应的信义义务。算法的设计者与运营者对算法风险的产生有相当的影响,从算法道德的伦理约束要素的实现的角度,在算法本身的设计与数据的应用过程中,都应遵循算法伦理框架下的金融科技专业伦理准则和行业良好实践标准。澳洲的金融科技运营机构中均被要求配备至少一名符合投资顾问资质并负责监督检查的金融人员和进行算法日常维护的专业技术人员,金融人员的作用是补充算法决策的不足,在其出现明显偏见结果时进行介入,使结果满足要求。技术人员的作用是检测算法漏洞并进行维护,防止其产生更大失误。

针对算法的设计者而言,在将智能金融算法投入市场使用前、使用过程中应对其进行验证,将公平原则和平等机会原则纳入技术设计之中,通过设计算法系统来促进公平并增加包容性,从算法运转的第一步防止歧视,以确保在为消费者提供金融服务或作出金融决策时已最大化消除歧视偏见。此外,算法运营者与设计者要树立正确数据使用原则,通过制定包含数据处理方法、数据保护措施、数据质量控制的内部数据管理制度来合理平衡商业利益与伦理道德,并随时根据数据技术发展变化调整数据管理制度,确保其时效性。

3.第三方统一规范并参与管理

通过金融行业内部的行业组织、中立的专门技术机构及包含各个利益主体的算法专门委员会第三方专业机构的监督,实现行业自律。行业组织应通过设置统一的算法行业内部规范和出台具体的行为准则来对行业内机构进行内部约束,促进市场主体的社会诚信体系建设来强化管控,并采取对守信者正向激励、失信者内部从严惩戒的机制推动行业内部互相监督。

技术专门机构则是通过专业技术人才对算法进行专业性检查来持续跟进监督,能够有效规避算法因其专业性而形成的“技术壁垒”,弥补非专业部门在算法审查上的困境,如美国证监会《机器顾问监管指南》中要求聘请熟悉算法的第三方机构对所使用的算法代码或软件模块进行适当监督,并要求任何对其投资组合产生重大影响的算法代码变更都需要向监管者和投资者进行持续披露。

算法委员会则是政府牵头成立的第三方专门机构,组成人员应包括职能部门人员、技术专家、行业内部人士、法律专家、社会团体或公益机构人员等不同利益方,应进行全过程的监管。在事前,算法设计者向专门机构提供算法相关技术及决策依据的说明,并进行备案,不仅可以避免源代码泄漏,也可避免流于表面的算法披露;在事中,专门机构加大对算法与决策的随机抽查力度,从技术上对算法进行审查检验,对错误决策进行纠正;在事后,通过构建算法问责追溯机制,为投资者建立算法决策的申诉渠道,要求算法设计者针对算法进行必要解释和说明。我国目前已有相关规范要求系统、软件等使用者应当要求开发商提供源代码或对源代码实行第三方托管。

4.投资者自我保护

投资者应通过行使相关权利维护自身合法权益,从而实现监管参与。《民法典》对个人信息权做出了相应规定,肯定了个人信息的财产属性在现实应用中值得保护,作为信息权主体,金融投资者亦应具备占有、使用、收益及处分权能,投资者对金融信息数据的控制应贯穿于金融服务的全过程。首先,在投资者对自身信息数据处分行使同意权之后,金融机构获授权才能够对其收集的信息数据进行分析并使用;其次,投资者对金融机构超范围利用其金融信息数据享有拒绝权并可随时撤回授权,在整个流程中享有随时拒绝金融机构进一步进行数据分析的权利。金融市场的投资者亦属于消费者的保护范畴之内,也有相应的知情权,即享有全面、真实、准确获取金融信息数据的权利,作为潜在算法风险直接作用的对象,为实现有效的知情权,投资者也应要求直接责任主体进行主动、充分、有效的解释。通过积极主动的行使个人信息权及知情权,可以保护投资者的合法利益,也对算法进行直接的监督。

(三)社会治理参与监管的路径选择

社会化主体参与金融科技算法风险的规制,能够极大地扩充监管范围与监管手段,有效地降低风险发生的可能性,有利于良好金融生态的发展。各个主体通过多种途径推动核心要素的实现,这实质上是参与管理的权利行使的体现。社会化治理也并非无限度,社会化主体在参与算法治理的同时也应遵守相应的前提与要求。一是在法律法规赋予的权限范围内参与;二是行使权利不能违反相应的规范。换言之,社会主体参与算法风险治理的路径应具有赋权性质与规范性质。

社会化主体的参与是通过表征为义务化的措施的权利行使,即虽然金融机构内部自我监督、行业规范及第三方参与审查算法等都通过履行相关作为“义务”而实现的,如制定行业规范、设置专门人员进行管理及算法伦理建设等,但实质上是属于“自愿性质”的权利行使。因为社会各主体均需要通过参与算法的管理从而推动金融科技有序、健康应用于金融服务,这是各主体为实现自身利益最大化与其他主体共同做出的专业性、平衡性及妥协性的选择。各主体通过行使对金融科技算法进行监督管理的权利维护各主体的利益,该权利的行使必须经过授权。由于金融科技仍属于新生事物,而技术的发展瞬息万变,国内外目前对其监管也尚不成熟,当前无可能也无必要盲目制定严苛的监管规则。对于政府监管者而言,当务之急是在维护市场安全稳定和投资者保护等市场核心原则的前提下,明确监管有限介入的限度,给予社会化治理参与算法监管的空间。这是因为算法的技术性、专业性及应用范围的广泛性使有关部门难以全面监管,强硬的监管手段也会相应的遏制金融创新的进步,尤其是目前我国的金融科技仍处于发展阶段。简而言之,在针对社会化治理理念参与金融科技算法监管的授权范围上,可以借鉴“法无禁止即可为”的模式,通过包容性、灵活性的制度设计鼓励多样化主体采取多样化方式方法参与金融科技算法风险的监管与应对。当然,针对投资者權益与金融市场安全稳定此类强制性保护目标,由于投资者在金融市场上属于相对弱势地位,金融市场的安全性保护与稳定性维护的性质则类比“公地”,必须依靠政府及有关部门制定的具体规范来进行严格保护,任何主体行使权利均不能违反。

四、结语

金融科技的产生、应用及发展的底层框架是算法,算法的发展与完善在提高金融服务效率与质量的同时也因其高度专业性、不透明性、人为操纵性及替代效果而存在技术性风险、歧视性风险及安全性风险,破解算法风险的核心要素是透明度规制、道德性约束及责任追溯机制。在算法监管的语境下,仅依靠监管部门并不足以进行充分、完全的规制,社会治理理念的引入就显得尤为必要。社会化治理即意味着监管主体和监管方式的多样化,从横向的角度,是推动建立以监管部门为核心,以其他主体如金融机构、行业组织、专门算法委员会、其他技术中立组织及投资者为辅助的多角度、包围式监管模块;从纵向的角度,是通过公权力主体设置宏观监管框架,其他社会主体在授权范围内以不违反强制性保护规范的方式参与监督与管理,充分开发社会化治理的积极性与动力,从而推动破解算法风险核心要素的实现,最终实现规制算法风险和促进金融科技健康、持续、创新发展的目的。

(责任编辑:张恩娟)

参考文献:

[1]Johan,Soederberg.Media Technologies:Essays on Communication,Materiality,and Society[J].Canadian Journal of Communication,2014.

[2]Burrell J.How the machine‘thinks:Understanding opacity in machine learning algorithms[J].Social Science Electronic Publishing,2015(3).

[3]Lin T C W.Infinite Financial Intermediation[J].Law & Economy,2016.

[4]Robert B,Goodman E P.Algorithmic Transparency for the Smart City[J].SSRN Electronic Journal,2017.

[5]Bruckner M.The Promise and Perils of Algorithmic Lenders' Use of Big Data[J].Social Science Electronic Publishing,2018.

[6]Merle Temme. Algorithms and Transparency in View of the New General Data Protection Regulation[J].Eur Data Prot L Rev,2017.

[7]Kim,Pauline T.Auditing Algorithms for Discrimination[J].Social Science Electronic Publishing,2017.

[8]Chopra S,White L F.A Legal Theory for Autonomous Artificial Agents[J].2011.

[9]FINRA.Report on Digital Investment Advice[EB/OL].[2016-04-28].https://www.lexology.com/library/detail.aspx?g=8f0ec141-6656-4eda-8832-d8f00238dd2e.

[10]Gash A A.Collaborative Governance in Theory and Practice[J].Journal of Public Administration Research and Theory,2008,18(4):543-571.

[11]杨东.监管科技:金融科技的监管挑战与维度建构[J].中国社会科学,2018(5):69-91.

[12]王利明.人工智能时代对民法学的新挑战[J].东方法学,2018(3):54-66.

[13]唐峰.金融科技应用中金融消费者保护的现实挑战与制度回应[J].西南金融,2020(11):77-97.

[14]高丝敏.智能投资顾问模式中的主体识别和义务设定[J].法学研究,2018(5):88-97.

[15]蒋辉宇.论智能投顾技术性风险的制度防范[J].暨南学报(哲学社会科学版),2019(9):43-56.

[16]袁康,邓阳立.道德风险视域下的金融科技应用及其规制——以证券市场为例[J],证券市场导报,2019(7):63-79.

[17]李晴.智能投顾的风险分析及法律规制路径[J].南方金融,2017(4):43-56.

[18]巴曙松,白海峰.金融科技的发展历程与核心技术应用场景探索[J].清华金融评论,2016(11):25-42.

[19]敬乂嘉.合作治理:历史与现实的路径[J].南京社会科学,2015(5):64-76.

[20]李文莉,杨玥捷.智能投顾的法律风险及监管建议[J].法学,2017(8):15-26.

[21]孫建丽.算法自动化决策风险的法律规制研究[J].法治研究,2019(4):108-117.

猜你喜欢

金融科技金融监管社会治理
百度金融成立国内首家“金融科技”学院
互联网金融监管原则与新模式研究
论金融监管与金融行政执法风险防范
宁夏平罗县城乡居民信用信息服务平台建设的实践与思考
浅谈金融科技与金融创新的关系