APP下载

人工智能“火爆”背景下的金融安全“冷”思考

2023-12-22黄琦赵大伟代会琳黄启燕罗娜

金融发展研究 2023年11期
关键词:金融安全金融监管金融风险

黄琦 赵大伟 代会琳 黄启燕 罗娜

摘   要:当前,人工智能技术在金融领域应用“火爆”,或将引领时代变革、助推金融业务智能化转型。然而,人工智能技术在金融领域的广泛应用也可能引发尾部风险事件,加剧金融风险的隐蔽性、传染性、叠加性和难预测性,放大金融体系的脆弱性,威胁金融安全与稳定。在“人工智能+金融”高速发展的背景下,金融监管机构需要调整对金融创新风险事件的预期,制定新的金融监管策略。本文在梳理人工智能技术在金融领域应用及引发的潜在金融风险的基础上,提出预防性监管建议,旨在将金融风险管理“关口前移”,健全金融稳定长效机制,维护金融安全。

关键词:人工智能;金融风险;金融安全;金融监管

中图分类号:F830  文献标识码:B  文章编号:1674-2265(2023)11-0077-05

DOI:10.19647/j.cnki.37-1462/f.2023.11.009

当前,人工智能技术在金融领域应用“火爆”,生成式人工智能ChatGPT上线不到一周日活用户破百万,仅仅2个月,月活用户突破1亿,并在多个领域实现了应用落地。与互联网连接式特征不同,人工智能技术具有嵌入式特征,且使用成本低、应用范围广泛,既能承担重复性脑力工作,又能释放机械工业系统潜力,这可能会带动生产关系的范式变革,衍生出诸多新型商业模式,甚至改变并重构世界商业秩序。但不可忽视的是,人工智能技术在金融领域的应用也引发了一系列新的金融风险,给金融系统带来了巨大威胁,对金融监管形成了新的挑战,需要金融监管机构采取有效措施,加强風险防范和管理,进而保障金融安全和维护金融稳定。

一、人工智能技术在金融领域的应用

(一)人工智能技术在金融领域的应用场景和案例

1. 人工智能技术在信用评分和风险管理方面的应用。人工智能技术可以利用大数据、机器学习、自然语言处理等方法,对借款人的个人信息、信用历史、社交网络、行为特征等进行综合分析,提高信用评分的准确性和效率,降低信贷成本和风险力。如Enova利用人工智能技术为非主流消费者、企业和银行提供高级分析和技术,其搭建的Colossus平台通过对大量数据的学习和训练,为借款人提供适当的贷款额度和利率,同时降低违约率和损失率①。Scienaptic System搭建了一个信贷平台,该平台可以为银行和信贷机构提供更高的透明度,并利用人工智能技术连接非结构化、结构化数据并转换数据②。

2. 人工智能技术在欺诈检测和预防方面的应用。人工智能技术可以利用计算机视觉、语音识别、生物识别等方法,对用户的身份、交易、行为等进行实时监测和验证,及时发现和阻止欺诈行为,保护用户和金融机构的利益。Socure创建了一个身份验证系统,使用机器学习和人工智能来分析申请人的在线、离线和社交数据,帮助客户满足“了解你的客户”相关条件③。Zest AI是一个人工智能技术驱动的信贷评估平台,可用于评估没有或几乎没有信用信息或历史的借款人,该平台利用数以千计的数据点,帮助贷款机构更好地评估传统上被认为“处于风险中”的人群④。

3. 人工智能技术在个性化推荐和产品营销方面的应用。人工智能技术可以利用自然语言处理、深度学习、强化学习等方法,对用户的需求、偏好、行为等进行智能分析和预测,并根据用户画像和场景推荐最适合的金融产品和服务,提高用户满意度和忠诚度。DataRobot为数据科学家、业务分析师、软件工程师、高管和IT专业人员提供机器学习软件,并帮助金融机构快速建立准确的预测模型,协助围绕欺诈性信用卡交易、数字财富管理、直接营销、区块链、贷款等问题的决策制定。

4. 人工智能技术在智能客服和聊天机器人方面的应用。人工智能技术可以利用自然语言处理、语音识别、情感分析等方法,对用户的语音或文本输入进行智能理解和回复,并根据用户的情绪和需求提供相应的服务和建议,提升用户体验和效率。Kensho Technologies为摩根大通、美国银行和摩根士丹利等领先金融机构提供机器智能和数据分析,为复杂的金融问题提供易于理解的答案,并从表格和文档中快速提取见解⑤。Derivative Path帮助金融机构控制其衍生产品组合,其云平台Derivative Edge具有自动化的任务和流程、可定制的工作流程和销售机会管理等功能,使用该平台进行贷款管理的组织可以期待贷方报告、贷方批准等信息⑥。

(二)人工智能技术对金融业务智能化转型的作用

人工智能技术具有自主性、智能性、学习性和创新性等特征,可以提高效率、降低成本、优化体验并创造价值,助推金融业务智能化转型(廖高可和李庭辉,2023)[1]。一是助推咨询服务和智能投顾服务智能化转型。当前,投资者资产配置需求日益高涨,但普遍缺乏识别、选择、配置金融产品能力,亟需专业投资建议。人工智能技术将依托算法模型帮助金融机构更好地理解客户需求,预测不同交易策略的表现,为客户提供更具针对性的金融服务和投资建议,甚至实现交易方式自动化、智能化转型。二是助推风险管理智能化转型。金融机构传统的风险管理方式是主要运用结构化的风险防控模型分析结构化数据辅以人工判断,进行风险监控、识别和评估。人工智能技术在数据和模型上实现了双突破,拓展了“数据库”“模型库”“参数库”,将推动风险管理由“人控”“机控”向“智控”转变。三是助推客户识别及监测智能化转型。人工智能技术能够突破传统技术的局限性,帮助金融机构实现对客户登录、欺诈识别、洗钱和网络攻击各环节监控的自动化管理。四是助推资产管理服务智能化转型。对于注重基础研究能力的主动管理型资产管理机构,人工智能技术将帮助其扩展量化分析方式,突破结构性数据分析的局限性,如利用社交媒体数据、地理空间数据等进行资产管理研究,提高资产管理机构资产分配和定价的效率,创造新的交易策略,亦可根据历史价格和当前趋势来预测未来资产价格。

二、人工智能技术在金融领域的应用对金融安全带来的冲击和挑战

(一)“幻觉信息”和“算法偏见”将带来信任鸿沟

未来,金融创新或越来越依赖人工智能技术,但除了技术开发人员了解技术的思维过程,金融监管机构、金融机构以及社会公众均无法“查询”人工智能做出投资决策的过程,训练数据和算法的黑匣子问题可能潜藏着“幻觉信息”和“算法偏见”。一是“幻觉信息”或将降低算法决策的可信度。在金融决策的可信度方面,人工智能技术的性能很大程度上取决于训练数据。诸如ChatGPT之类的人工智能技术可借助其速度和规模优势生成训练数据,因此,很难辨别用于训练算法的基础数据是否也是由人工智能技术生成的,这将产生没有事实依据的“幻觉信息”。如果一些人工智能算法通过“幻觉信息”学习如何回答问题,那么,问题答案和帮助其获得答案的数据特征或已被人为预先设定。如果训练可用的数据有限,算法开发者可能会模拟“幻觉信息”,以忽略真实数据中的特性,并专注于构建更一般化的决策规则,导致算法模型做出的决策受到质疑。二是“算法偏见”或将冲击普惠性、公平性原则。如果算法模型缺乏全面数据清理和数据匿名化过程,人工智能技术有可能演化出群体偏见,给出错误的投资建议,尤其可能会冲击普惠性、公平性原则。如当金融市场参与者大量使用非传统数据集(如卫星数据或社交媒体数据)来开发人工智能模型,不能确保所开发的模型不会对某一类人群产生歧视,也不能确保做出的决策是公平和无偏见的。同时,如果人工智能技术给出一个错误方案,将会把风险转嫁给提供方案的金融机构,给金融机构带来声誉风险和信誉损失。

(二)数据问题是基于人工智能决策的内在缺陷

在基于人工智能技術的机器学习的每个阶段,任何错误都会影响风险评估的准确性。在数据收集阶段,机器学习容易受到“垃圾输入,垃圾输出”问题的影响,如果数据有问题,在此基础上训练的算法所做出的决策最终也会存在缺陷。在风险管理实践中,各类数据问题都可能影响机器学习算法评估潜在投资损失风险的准确性。如果算法是在一个足够大的数据集上训练的,外生问题不会对算法的最终效能产生重大影响。但如果存在系统性问题(如在电子表格中使用了一个不正确的方程来程式化某些单元格,那么基于算法做出的决策就存在重大缺陷。此外,当前以文本、视频、图片等形式存在的非结构化数据正在以指数级速度快速增长,且重要性与日俱增,这对基于人工智能技术的机器学习算法来说构成了新的挑战,对于机器学习算法来说,从诸如社交媒体信息中学习非结构化数据要比从Excel数据表中学习更加困难。

(三)人工智能算法的尾部风险事件防控能力不足

尾部金融风险是指由难以预期的事件或小概率事件引发的系统性金融风险。历史上的尾部金融风险爆发均具有难以预测、发生概率极低、造成危害极大等特点。从金融安全的角度来看,人工智能算法的特点和局限性会低估尾部风险,也会使事先评估尾部事件风险的能力受限。一是若数据和算法有问题,那么,经过训练的算法所做出的决策也会有缺陷,但投资者可能会被复杂的人工智能算法所迷惑,盲目听从其给出的投资决策结果和风险评估结果,导致金融市场更严重的“同买同卖、同涨同跌”现象,加剧市场的波动和共振。二是若能反映尾部风险的数据或算法有缺陷,导致尾部风险被低估,当金融市场受到冲击时,尾部风险相依度越高越易引起金融市场的共振,进而增加风险的波动和顺周期性。三是尾部风险事件罕有发生,可供人工智能学习的尾部风险事件历史数据有限,缺少足够的数据对尾部风险事件进行建模(Allen,2022)[2]。

(四)人工智能技术会放大“羊群效应”

基于人工智能技术的机器学习算法的普及很可能会放大个体风险对金融市场的影响,众多个体们“不约而同”做出同样的金融决策是造成金融不稳定的原因之一。当前,几种主流的基于人工智能技术的机器学习算法不仅可能减少决策参与者的数量,还可能使剩余决策者之间的风险评估趋向标准化。用于训练金融风险管理算法的数据是有限的,有限的数据来源不仅会降低算法的准确性,还会使其在应用于类似资产时的操作更加一致、结果更加趋同。如果多个金融机构都依赖于几乎完全相同的预先打包的数据集,或由第三方专业供应商提供的、完全相同的、预先训练好的算法,“羊群效应”将变得更加明显。举例来看,如果一款流行的机器学习算法一直低估与特定类型资产相关的风险,使该类型的资产看起来非常有利可图,大量“同款算法”客户的存在可能会导致该资产类别出现泡沫。如果这些相同的算法在随后的运行中又同时认定该资产的风险已经增加到难以维持的程度,就会引发大规模抛售(Gerding,2009)[3]。

(五)金融体系的脆弱性被放大或将造成社会危机

人工智能技术的广泛应用,将导致传统金融风险的表现形式、传染路径发生变革,金融风险的突发性、隐蔽性和破坏力进一步加强,金融体系的脆弱性或被巨量放大。金融机构间、金融市场间本就存在复杂的风险相依结构,人工智能等新技术在金融领域的广泛应用或带来更多的信息不对称。部分金融产品结构复杂,杠杆水平高、隐藏的金融风险较大,但可能披着“创新”的外衣广泛存在于金融市场中,人工智能技术可能会帮助其“混淆视听、推波助澜”,向投资者推荐由算法计算出的“优质”金融产品,甚至代替投资者做出购买高风险金融产品的决策,这将对金融安全和社会稳定造成冲击。

(六)“监管逃逸”和“监管套利”更易有机可乘

一是技术外包式“监管逃逸”。金融机构将关键职能外包给第三方技术供应商,可通过转移风险管理职责实现“监管逃逸”。由于金融机构选择技术外包的方式进行金融产品和服务创新,不必承担技术衍生风险,金融机构或要求第三方技术供应商增加技术的复杂性,寻求监管逃逸。二是“监管套利”。人工智能技术在金融监管领域的应用存在潜在风险,如金融机构不断提高人工智能技术的复杂性和创新速度,或将使“监管套利”更具复杂性和隐蔽性。三是“监管套利”的区域溢出效应显著。目前,金融科技监管缺乏国际层面的协调机制,如果一个国家采用了严格的金融监管制度,该国金融科技创新者可能会将其业务转移到金融监管宽松的国家。但金融体系是全球性的,金融风险具有区域溢出效应,其产生的风险仍可能损害金融监管严格的国家。

三、預防性监管是人工智能背景下维护金融安全的有效措施

人工智能技术在金融领域的应用仍处于早期阶段,这意味着金融监管机构仍有时间引导人工智能技术在金融行业中规范应用。鉴于此,本文提出预防性金融监管策略,旨在将金融风险管理“关口前移”,健全金融稳定长效机制,维护金融安全。

(一)明确法律责任

人工智能技术将通过算法推进金融交易、资产管理等决策自动化,使金融监管环境越来越复杂。预防性金融监管需要明确,如果算法得出的结果触犯法律,谁将为算法结果承担法律责任。目前,没有关于算法结果违法责任界定的明确要求。因此,预防性金融监管需要事先在法律层面明确,如果金融机构基于有缺陷的人工智能技术得出的结果,应该由开发算法的程序员来承担责任,还是由选择用于训练算法的数据集的专家来承担责任,抑或是应该由第三方技术供应商来承担责任。

(二)构建基于原则的金融监管框架,形成“伞式”监管结构

由于寻找所有技术存在的问题需要投入大量的资源和精力,同时金融监管制度的修订速度也很难跟上新技术更新换代的步伐。例如,当金融机构使用人工智能来管理内部运营流程或投资组合风险时,金融监管机构很难通过制定详细的规则来明确金融机构应如何使用新技术。由此可见,构建基于原则的金融监管框架更具可行性和可操作性,并为金融监管机构提供一个“伞式”监管框架。

(三)非正式与正式引导相结合,动态调整预防性金融监管措施

人工智能技术将广泛用于金融创新,但考虑到其潜在的风险,金融监管机构须对融合该技术的金融产品和服务保持警惕。但如果采取严格的金融监管审查方式或将阻碍金融创新,而如果采取“观望”的金融监管方式,技术将以指数级速度发展,金融监管技术或将“加速倒退”(Barefoot,2020)[4]。此时,金融监管机构可采取动态调整的金融监管方式,前期发布非正式指导,在创新技术成熟后再制定更为正式的规则。例如:金融监管机构通过演讲、声明、新闻稿、警告信、解释性指导和非公开会议等方式,在现有法律法规框架内对人工智能技术在金融领域的应用提出具体要求(Wu,2011)[5]。

(四)探索“沙盒”监管模式,明确准入要求和退出机制

为鼓励金融科技创新,推动人工智能技术广泛应用,应主动探索“沙盒”监管的模式,鼓励中低风险领域先行先试,但要明确准入要求和退出机制,避免潜在风险。其原因是人工智能技术或使金融交易以惊人的速度和规模在金融产品和金融市场之间“高速切换”,放大金融风险的“羊群效应”,准入和退出要求均能有效避免测试期内任何错误影响的放大。“沙盒”监管需明确准入要求:一是如果人工智能技术创新对金融体系产生系统性影响的风险较大,或者创新过于复杂且难以理解,那么应用此类技术的金融机构将不能被纳入“沙盒”监管框架;二是系统重要性金融机构不能仅依赖一家第三方技术公司提供的人工智能技术;三是使用同一算法的金融机构,不能同时测试其创新产品。同时,应建立“沙盒”监管的退出机制:一是在没有充分的证据证明某一项金融创新有继续测试的必要性时,测试一段时间后,测试应自动终止;二是在“沙盒”监管测试过程中一旦发现创新可能威胁金融稳定,则应终止对金融创新的测试。

(五)应用人工智能技术有效解决“监管套利”风险

由于人工智能算法的复杂性和隐蔽性,金融监管机构全面理解金融创新的逻辑面临挑战。金融机构可能会尝试选择性地将忽略尾部风险的数据集代入模型,从而试图寻求“监管套利”。同时,仅用文字规则来解决金融风险问题可能也会为监管套利提供空间。因此,金融监管机构可以开发自己的人工智能应用来检查用于训练算法的数据集,并评估这些训练数据是否充分考虑了可能会影响整个金融系统安全的尾部风险,进而判断金融机构是否存在套利行为。此外,深度嵌入金融科技的金融产品需要可信任的基础。金融监管机构可通过技术手段,设计“刹车”机制,当金融交易发生得太快而来不及人为“干预”时,金融监管机构可实施技术性干预措施,阻断风险蔓延、消除风险共振;也可引导金融机构将信任机制融入金融科技产品开发的每个阶段,如用户体验、关键功能开发、业务分析等。

(六)适度拓展金融监管边界,有效解决“监管逃逸”问题

一方面,随着人工智能在金融领域的广泛应用,金融市场活动将越来越受到算法的驱动,“影子银行”产品等或有更多的机会伪装自己,以期实现监管逃逸。同时,人工智能将促进高频交易快速发展,潜在金融风险的传播速度指数级提高。为维护金融稳定,金融市场参与者须向金融监管机构披露其算法和可供学习的数据源,使金融监管机构可通过模拟运行算法来了解金融产品和服务的创新原理。另一方面,当使用人工智能技术的金融市场参与者未处在当前的金融监管框架下时,适度拓展金融监管边界以解决技术创新滋生的“监管逃逸”问题具有较强的必要性。为解决“监管套利”的区域溢出效应,有必要加强金融监管国际合作,促进技术信息共享,从而充分认识新兴金融科技风险,并形成一系列协调应对措施。

注:

①https://discingdaily.com/innova-colossus-review/.

②https://analyticsindiamag.com/scienaptic-systems-uses-ai-enabled-ether-offer-customer-solutions/.

③https://www.socure.com/.

④https://www.zest.ai/.

⑤https://kensho.com/.

⑥https://derivativepath.com/.

参考文献:

[1]廖高可,李庭辉.人工智能在金融领域的应用研究进展 [J].经济学动态,2023,(03).

[2]Hilary J. Allen. 2022. Driverless Finance:FinTech's Impact on Financial Stability [M].Oxford University Press.

[3]Erik F. Gerding. 2009. Code,Crash,and Open Source:The Outsourcing of Financial Regulation to Risk Models and the Global Financial Crisis [J].Washington Law Review,127.

[4]Joann Barefoot. 2020. A Regtech Manifesto:Redesigning Financial Regulation for the Digital Age[R].Alliance for Innovative Regulation 10,Jul.

[5]Tim Wu. 2011. Agency Threats [J].Duke Law Journal.

猜你喜欢

金融安全金融监管金融风险
金融风险防范宣传教育
构建防控金融风险“防火墙”
大力增强忧患意识 进一步防范金融风险
在校大学生金融安全意识调查
国家审计维护金融安全功能与路径研究
互联网金融监管原则与新模式研究
论金融监管与金融行政执法风险防范
关于我国金融监管体制改革的研究
高校增设金融安全的国防教育课程研究
关于当前互联网金融风险的若干思考