APP下载

人工智能道德算法的问题及出路

2023-08-28朱奕帆丁慧郑文学

陕西行政学院学报 2023年3期
关键词:人工智能

朱奕帆 丁慧 郑文学

摘 要:随着人工智能对人类社会影响的普遍化,其伦理问题已成为政界、业界、学界和公众共同关注的话题。决策算法是人工智能相关技术的核心,如何保证智能程序所作出的决策符合人类社会的道德标准,是值得深入思考的问题。探讨这一哲学论题,应在对柏拉图悖论内涵进行梳理的基础上,从法哲学的角度探寻对人类社会道德评判标准所具有的意义,进而通过类比机器思维与人类思维的映射关系,找出柏拉图悖论这一哲学问题与人工智能道德算法在利益衡量问题上出现的困境,对其成因进行深入分析,找出解决困境的方法。

关键词:人工智能;道德算法;柏拉图悖论;问题及出路

中图分类号:D90;TP18

文献标识码:ADOI:10.13411/j.cnki.sxsx.2023.03.012

The Problems and Solutions of Artificial Intelligence Moral Algorithms

——Starting from Platos Paradox

ZHU Yi-fan1a, DING Hui2, ZHENG Wen-xue1b

(1.Dongbei University of Finance and Economics,a.College of Marxism; b.College of Humanities and Communication, Dalian 116025, China; 2.School of Law, Liaoning Normal University, Dalian 116029, China)

Abstract:With the universalization of AIs impact on human society, its ethical issues have become a topic of common concern among the politicians, industry, academia and the public. As the core of artificial intelligence- related technologies, how to ensure that the decisions made by intelligent programs meet the moral standards of human society is a problem worthy of in-depth consideration. On the basis of sorting out the connotation of Platos paradox, we should explore the significance of moral evaluation standards in human society from the perspective of legal philosophy. Then, by analogizing the mapping relationship between machine thinking and human thinking, we can identify the philosophical problems of Platos paradox and the dilemma of artificial intelligence moral algorithms in weighing interests, analyze its causes in depth, and find ways to solve the dilemma.

Key words:artificial intelligence; moral algorithms; Platos paradox; problems and solutions

柏拉圖悖论是起源于法学方法论的一个法哲学问题,自19世纪开始发展法哲学研究以来,历经许多阶段,从早期的萨维尼方法论抑或是以耶林、普赫塔为代表的19世纪“概念法学”,到20世纪以新康德主义为代表的法哲学均对其进行了探索。对于研究人类社会道德评判标准而言,进行法学方法论的研究的最终目的是解决“法学思想中确定性之丧失”①的问题,哈弗尔卡特认为,法学方法的选择是具有任意性的,人们对于法学方法的选择仅仅是要满足于“可辩护的(vertretbaren)”或“能够达成合意(consensus able)”的答案,而不是寻求一个在认识上精确妥当的答案,某些法学家们甚至将社会科学视为唯一的、可以期待从中得到对自身而言具有重要知识的科学。这便导致了在法律评判的过程中,存在着不同的法学理论与方法论,并且遵循不同的法学理论与方法论进行评判所得出的结论也大相径庭。正如“利益法学利益法学派是现代资产阶级法学派别之一,属于社会学法学派的一个支派,该学派20世纪初在德国兴起。利益法学派主要代表人是德国的赫克(1858-1943)、施托尔 (1891-1937)和埃尔茨巴赫(1874-1959)。该派主要观点是反对传统的概念论和形式主义法学观点,即假定现行法律制度是没有漏洞的,法官只要通过适当的逻辑推论,就可以从现行的实在法演绎出正确的判决。利益法学派强调法官应注意平衡各种相互冲突的利益。”与“价值评判法学价值评判法学认为司法判决“究其本质而言,应该适用法律的价值判断,而不能根据法官自己的价值判断来作出”。这也是韦斯特曼(H.WESTERMANN)与吉尔曼(GERMANN)所秉持的观点,两者分别在著述《民法中法官判决的本质及界限》《法发现中的问题与方法》表述了这一观点。持相同观点的还有莱因哈德、科英以及科龙施泰因。”之争,价值标准的不同导致了虽然评判结果可能是对立的,但两种结论都是符合法学方法论内涵的“正确结论”。事实上,任何对于道德评判的探索都是基于对人类已有的标准的研究,“法”即是这样一种极为复杂的对象,不仅不同的单一学科研究它,哲学也研究它,在科技创新日益快速发展的今天,人工智能领域也要研究它。

通常意义上来讲,每一种科学都使用某些方法和研究范式,以获得它所提出的那些问题的答案。那么,对于法科学(Rechtswissenschaft)来讲,这种在特定历史形成的法律秩序框架中运行的并以这种法律秩序为基础来致力于解决法律问题的科学,我们将其称为法学(Jurisprudenz)。源自于德国法学家卡尔·拉伦茨在其著作《法学方法论》中对“法学”一词所作的定义。然而,这一内涵仅仅能够解释广义上的法学是一种怎样的科学,却无法对于更为狭义上的法科学(或法学)作出解释。因此,我们可以进一步地认为,没有法哲学,法学方法论则根本无法立足,没有对于法学方法论的研究,则一切对于人类道德评判标准的研究也不会显得根基稳固。对于智能算法而言,是适用既定规则作出“正确(correct)”的决定?或者是应该努力做出一项“正当(proper)”的决定?我们又从何判定一项人工智能算法所作出的决定“正当”与否呢?

回顾法学方法论这门学科近180年的历史,回顾萨维尼(SAVIGNY)、耶林(JHERING)、赫克(HECK)以及凯尔森(KELSEN),虽然这些人的思想之间差异极大,但却有一个相同的问题贯穿其间,简而言之即法的效力“法的效力”即法的约束力,指人们应当以法律规定的行为模式来行为,是一种必须予以服从之力。概念与法的实证性概念;法的规范性与法的实然关联性(Seinsbezogenheit);立法、司法以及学说在法的形成中的作用;以及法的科学性的概念关于这种连续性,在后自然法时代的法学理论和方法论被认可得更深入的探讨乃是由拉斐尔·迪·吉奥尔吉在其专著《法中的真理与合法性》(1980)中呈现。他相信,这种连续性的回溯只有在下述前提中才是可能的,即从萨维尼时代到当代。这种连续性是以法律实证主义为前提的,并因此具有内在的矛盾之处。。法学家们尝试遵循不同的法学理论与方法论进行探索,正如“利益法学”与“价值评判法学”之争,对于同一事件所适用的价值标准的不同导致了虽然评判结果可能是对立的,但两种结论都是符合法学方法论内涵的“正确结论”。因此,“人工智能算法的道德问题应该基于何种标准进行评判”这一论题,是急需我们进行深入研究的。

一、柏拉图悖论与人工智能道德算法之关联

在对数据伦理的研究过程中,法学方法论中广泛存在的“柏拉图悖论” (Platos Paradox)也是一个始终不能够被忽视的存在,类似于元伦理和规范伦理中经常使用的思想实验——电车难题,法哲学中的柏拉图悖论(Platos Paradox)具有如下内涵:“朋友借我一支枪,约定今晚归还,但今晚他明显疯癫,扬言说要枪杀他的妻子,在这种情况下我应当归还枪支,但我又不应当归还枪支。”这一悖论的核心在于,如果按照合同法的理论来对此事件进行分析,那么归还枪支这一行为在法律上具有相当的合理性,这种基于合同的行为本身就是符合法律规范的行为。因为如果从“价值评判法学”的内涵出发,显然,法律只是确定了一般框架,法官所进行价值评判的对象不可能仅由法律或者仅凭借从法律规定中认识到的立法者的价值判断与行径得到判决,如果想要得到符合实际情况的判决,法官就一定不得不对个案中的框架进行修补以加入额外的价值判断按照帕罗夫斯基的观点,人们可以说这是一种“形式的价值评判法学”,这种法学对于无疑马上会困扰自身的若干问题并未有任何说明,这些问题诸如法律是否以特定的“客观的”法律价值为基础、宪法是否包含一种价值秩序、价值(或者说是“有价值的事物”)该如何认识等等。。然而,一个不能够被忽视的矛盾就在于,如果法官要以合同法的具体内涵对此事件进行评判而得出具体判决,那么他就不应该引入合同法以外的内容来支撑他的价值判断;而如果法官想要综合考虑各种情况来对“是否应当归还枪支”这一具体行为进行符合常理认知的评判,那么他就不应该仅从合同法的内涵入手来进行评判。这两个看似矛盾的裁判过程究其原因是在于法学方法论自身的局限性,换言之,对于不同的方法论内涵而言,并没有一个完美的理论基础来覆盖所有类型下的事件,法学方法论所做的工作并非要找出普适性的理论依据。

我们已经看到,在对特定事件进行伦理判定时,如果没有可供参照的“一般性社会经验法则”,则参与评判的主体必须在许多事实之间(其判定权重很有可能是相互并列的)进行所谓的“事实权衡”,即必须引入规则视角来对这些事实意义进行评价。若只将这一部分事件的现实属性归属于法律的构成要件之中,就必须先将这些判断依据进行统一标准的转化,这即是所谓的“价值判断”这类需要价值判断的标准存在于各类成文法之中,例如:“善良风俗”(《德国民法典》S-138/S-826、《不正当竞争防止法》S-1)、“诚信原则”(《德国民法典》S-157/S-242)、交易上“必要的谨慎”(《德国民法典》S-276-1-2)以及无需事先通知即可即时终止持续性债关系之前提的“重大事由”。。

对于柏拉图悖论而言,其争议焦点并不是应该适用哪一种法则来解释具体事例,而是这些能够解释具体事例的法则之间存在着不可调和的矛盾。如果将衡量决策后果的“适当性”问题看作是价值判断在逻辑学上或语义学上的体现,那么则必须将“价值”与“评价”理解为确立内在立场的一种行动。不仅要判斷被评价的对象值不值得赞同,也需要判断一个对象相较于另一个对象是应当优先考虑或者是应当靠后考虑。正如某行为如果是有利于“善“善”即是所有或者任意人都会认为值得追求的东西,例如和平、健康、独立自主、免于被强迫或者脱离贫困等。”的我们就应予以赞同、某行为有悖于“善”的我们就不应予以赞同一样,这种表现在价值判断中的反映既可以是伦理性的,也可以是法律性的。

因此,我们可以说,如果价值判断是某种立场的表达,那么这种立场首先是判断者的立场,但这并不意味着价值判断只是判断者内心执行的评价行为的表达溯伊勒:《法律适用》,P111/P162,溯伊勒认为判断行为中的评价行为本身是一种情感行为,以人的欲求为基础,但绝非认知行为。在他看来,价值判断是判断者就其“本身的心理事实”所为的陈述。。因此,我们可以得出这样一个结论:形成这种两难境地的最主要原因就在于我认为我的朋友明显疯癫,并且他扬言要用枪杀死他的妻子。我们先不去讨论这一情形是否一定是一个即将要发生且一定会发生的客观事实,单就归还枪支而言,法律层面的价值判断是显而易见的,即基于约定(合同)的条件,我履行归还的义务是能够被一般人所认同的、符合普遍价值判断的。而如果我不归还枪支,则我就明显具有侵占的故意——这也是违背一般人价值判断的做法。这便是在法秩序、宪法以及被接受的法律原则中存在的有约束力的价值评判标准,即便法律人在“适用”他们之前需要做进一步的“修缮”。

那么,我们是否就应该不去考虑朋友妻子即将面临的生命危险,而依然要运用单一的价值评判来对事件进行处理呢?答案亦是否定的。莱棱在他的《类型与发现》中提到,这种思想过程不是单向进行的,而是相向而行的,即一方面是从普遍的法律思想趋近,应根据他来作出判断的案件,另一方面则是从这些案件,经由典型的被广泛认可案例和更为特定的法律思想再回到普遍的原则。虽然没有一个案件会在所有方面与另一个案件完全相同,但还是有许多事例在某些特征上而且在一定程度上是相通的。因此,我们可以说,如果法官坚持要以合同法的规定要求我及时归还枪支,那么他就将自身陷入违背价值判断的漩涡之中,那他又如何能够声称自己是基于“价值判断”而作出裁决的呢?

面对诸如此类的道德判断情景,就是让机器人首先能够意识到这是一个道德判断情境,接着按照建立好的策略进行决策美国计算机科学家Mattias Scheutz举例说:“理解道德判断情景,可解决道德冲突的恰当道德推理能力,以及判断适合的行动路线等。要赋予机器人道德能力,就是让机器人在一个道德判断情境中,模仿人类的决策过程,而首先机器人要能意识到一个道德判断情境,接着依循所布建的推理策略──包括道德原则、基准与价值等。。这呼应了美国达特茅斯学院(Dartmouth College)教授James H.Moor提出的第三种道德主体(ethical agent)──明确(explicit)的道德主体。参见中国机器人网转载《电子工程专辑》的编辑专访,“赋予机器人以道德算法” https://www.robot-china.com/news/201407/24/12485.html,2014年7月24日。[1为强化人工智能研究,国内学者将人工智能伦理研究概括为四个方面,即人工智能道德哲学、人工智能道德算法、人工智能设计伦理和人工智能社会伦理。当我们回到数据伦理的轨道上来便能够很明显地发现,虽然哲学家很少对于“什么是对的”这一行为达成共识,但是,对于机器而言,算法之所以能被称为算法,其最重要的特征之一就是规则必须是明确的,答案必须是可判定的。因此,所谓的“功利算法”便应运而生,其主要内核是加入一个“权衡”( Trade-off judgement)逻辑门,即对于决策所导致的利益后果进行衡量,以功利主义的衡量标准来对无法确定的决策进行统一化选择。对于“功利算法”的决策依据虽然并不要必须具备像物理或者数学证据那样严密的逻辑性,但并不代表可以任意而为之,正如人脑对于语言的处理完全是基于语义理解而不是基于外在的语法和符号一样,机器算法在进行利益权衡的时候,也需要一整套符合大多数人类价值观的逻辑内核。因此,当人工智能能像人类一样理性地做出道德决策的同时,人类的伦理分歧与世界观的差异、道德标准的争议也会同时折射在人工智能体上。

二、人工智能道德算法的问题反思

面对柏拉图悖论的案例,就利益衡量而言,首先,我们需要考虑基本法中所包含的“价值秩序”,也就是说个案中所涉及的一种法益“法益”即“法律所保护的利益”。相对于其他法益是否具有明显的价值優先性,毫无疑问,人们可以声称与其他法益相比,尤其是与物质利益相比,人的生命与人性的尊严处于更高的位阶。然而,在大多数的案件当中,要么是位阶相同的权利存在冲突、要么是被牵扯的法益之间判若云泥,完全无法做抽象的比较,如个人自由权与共同体法益间的冲突,一方面我们需要考虑被影响的法益所受到的影响程度,另一方面我们需要考虑如果一种法益即将做出让步,那么它将要受到多大的影响。最后,还要适用比例原则,采取最能爱护他人权利的手段之原则或者尽可能对即将要进行限制的法益进行轻微限制的原则。由此,如果我们为了保护某种更为紧迫且优先的法律价值而必须侵害另一种法益之时,必须以“不能够超过此事件所必须的限度”,或者说至少这一侵害的行为及其程度是公认合理的。

这一内涵表现为:如果想要保护人的生命安全不受侵害,则必须要对其他处于“次位阶”( Second order)的因素作出限制,这一限制则必须侵害一些权益(法益,legal interest)。然而,对于除了生命安全而言,其他法益之间是否存在必然属于较小法益的情形呢?在利益衡量这一背景下的举动是不是当然合理的?如果对于某一法益必须要做出让步,那么相较于算法所要维护的法益,被侵害的法益会对当事人(或其他主体)产生多少影响?又或者说对于这一让渡权利的举动,作为一种侵害法益的行为,这种行为会持续多久我们一般认为,在柏拉图悖论的例证故事背景下,如果仅仅是等到我的朋友恢复理智后将枪支归还于他,那么他的法益被侵害的时间是短暂的,并且并不需要利用司法手段对我进行惩戒。?事实上,我们能够清晰地得出结论,即如果暂时性地进行权利的侵害,但事后权利能够进行回溯或重新赋权,则并不会产生过多的不利影响,相反,如果权利并不能被回溯或重新赋予,则有很大概率会对相对人的法益产生较大或者说是毁灭性的影响。作为赋予人工智能伦理价值评判逻辑的程序编写者而言,困难的并非通过前置利益分析来对可能存在的困境进行防控,而是当两个相同规模的法益冲突之时,如何再通过利益分析来规范和解决冲突,以及最终落实到算法层面,创建一种自动化的利益衡量逻辑。

“个案中的利益衡量”是法续造法律续造首先是一种司法过程,发生于案件审理之中。根据拉伦茨的观点,法律续造有两种:一种是法律内的法的续造,另一种是超越法律的法的续造。一般说来,如果法律将社会生活中的某一领域纳入法律规整的法内空间,总会提供一定的规范与之对应。但事实上,法内空间确实存在两种无规范与之对应的特殊情形,第一种是根据某一法律总体的规整计划和目的,一定的社会生活内容应当被纳入其中却没有纳入,从而形成法律的漏洞,法官为填补这种漏洞而为的法律续造就是法律内的法的续造;第二种是从某一法律总体的规整计划和目的来看,某种类型的社会生活并未被纳入该法律,但从国家法秩序的整体意义来看却应当受法律的规整,在此种情形下,法官鉴于社会生活的强烈需要,或者在一些新兴的法律原则的冲击下,有可能在司法过程中构造出一些新的规则来裁决案件,这些新的规则有时甚至与既有法律的某些要求相悖,这就是超越法律的法的续造。的一种方法,因为它服务于解决那些制定法未明确决定其解决规则的利益冲突,对范围重叠的规范进行适用空间上的划分,并创造一种尽可能开放的具体化评判标准。综合各种内涵,在人工智能伦理中加入利益衡量的个案裁判更加符合海因里希·亨克尔对于正义的认知他认为,正义理念的特征在于它是“具有规范性准则内涵的开放原则”。[2。在人类享受人工智能所带来的便利之时,也要面对人工智能所引发的风险。当人类完全将决策交给人工智能时需要秉承两个基本的伦理原则:其一,凡是涉及对人的问题,要秉承人类为主,机器为辅的原则。其二,凡是涉及否定的判断,要以人为主,机器为辅。否则这种对于基本道德伦理的责任就会陷入人类无法掌控的情形。即便现有法律法规、政策和社会伦理能够约束算法造成的不良后果,但科技发展的速度远快于政策和法规制定的速度,这便引起人类对智能主体机器的道德主体地位的思考,社会安全和公平正义的思考以及新伦理问题的思考。比如当无人驾驶汽车遇到无法避免交通事故的情形下,是应该优先保护乘车人员还是路上的行人,抑或是选择侵害多个个体的利益还是只侵害单个个体的利益?对于“电车难题”中的无奈,依然广泛存在于人工智能伦理的研究当中。

对于算法来讲,因为其包含着人类的主观认知,因此造成算法困境的一个很重要的原因来自人类思维的局限性。不同背景的人工智能算法专家不可避免地对算法偏好有不同的理解。算法开发人员在认知上的偏差以及不同背景不可避免地影响算法设定,从而深刻影响着人工智能的价值判断并随着数据的积累和算法的迭代而被强化和放大[3。人工智能的学习能力赋予了算法一定程度的自主性,虽然有可能在程序框架中对于基本法中所包含的“价值秩序”进行了较为完善的定义,但随着机器学习的深入,代码的复杂性会进一步增加,并会陷入“技术黑箱(Technical black box)”的困境中,海量化的数据和数兆亿的神经网络学习的结果是否会悄然产生有悖法律法规、社会道德伦理的算法逻辑,以及如何区分潜在的算法逻辑问题,机器执行任务的后果更加难以预测。

正如人脑对于语言的处理完全是基于语义理解而不是基于外在的语法和符号一样,机器算法在进行决策时,需要一整套符合大多数人类价值观的逻辑内核。以人工智能翻译为例,人和饭之间的关系只能是人吃饭,而不能是饭吃人,这个关系就是语义,一个语义可能通过多种方式来表达,如:饭我不吃了;我不吃饭了等,只要明白了这一语义,怎么表达都不会引起误会。但在人工智能翻译过程中却大相径庭,其中一个案例是,“The box was in the pen”(箱子在围栏里),box 是盒子,pen 有两个意思:一个是钢笔,一个是围栏。翻译这句话对人来说非常容易,对算法却较难。由此可见,人类的翻译是基于语义理解的翻译,而对于算法而言,语义理解存在大量的不确定性和变化性(很多时候不同地区、不同宗教信仰、不同生活习惯的群体存在完全截然不同的语意理解体系)。所以,在面对不同价值倾向的群体中,算法的语意理解行为(甚至是价值判断)就会出现错误的映射。我们只能要求算法通过易于理解的权衡和现有资源进行正当化的解释,同时利用以深度学习为核心框架进行算法完善,但这样的做法很容易使得算法基于虚假的相关性做出有瑕疵的道德判断,从而做出错误的决策。

三、人工智能道德算法的出路

对于人工智能伦理的研究而言,其意义不仅是寻找出一种完全解决“利益衡量”的完美算法,更重要的是在对不同的现实情况进行甄别与探究的过程中对每一个不同的具体案例寻求尽可能符合社会“普世价值”的解决方案。其中存在两种颇具代表性的技术路径,即“权衡逻辑前置(Pre screening)”和“人机共同决策(Collaboration)”,分别代表了一种将“价值衡量”嵌入机器人算法体系中的方法和另一种要求人作为最终价值判断主宰的方法。

“权衡逻辑前置”这一路径的一个代表性例子是以个性化算法所导致的“信息茧房”效应,造成人们对世界的感知出现偏差,导致社会在公共问题上无法形成共识的严重后果4。对于“权衡逻辑前置”这一路径而言,虽然在算法完整性以及自动化决策上占有优势,但却明显地减弱了人对于算法输出结果的控制力,当我们将价值衡量内置于算法逻辑链条中的同时,即相当于承认了一个显而易见却又存在致命缺陷的命题——一个一生都受到良好教育的孩子在成长的任何阶段都不会出现道德上的问题正如人类的教育也存在后天的不确定性一样,现如今普遍存在的具有机器学习能力的智能程序虽然能够基于人类所提供的“素材”进行学习,但并不代表学习后的结果完全能够预测并可控。。对于复杂的实际环境而言,特别是当实际权重相当的两个价值判断要求出现的时候,虽然在人工智能伦理的视角下并没有很大区别(主要是程序代码方面),但这并不意味着优秀的算法不会产生误判,如果两个法益权重在数据赋值上没有差别却在现实的人的道德上具有較大差距,那么,如果坚持算法运算的结论则必然会反噬现实中的道德体系。

对于“权衡逻辑前置”较大局限性的思考使得人们提出了对问题场景进行进一步优化的“人机共同决策”处理方式,其目的是提高两难伦理难题发生的门槛。我们知道,在现实生活场景中人们设计了高速铁路和高速公路等封闭或半封闭的运行场景,驾驶员只需要按照既定路线、结合统一调度驾驶列车和汽车,就可以大大提高火车和汽车的运行安全性。当前面所提及的伦理难题的最终决定权回归到实实在在的人类之后,就会在人的即时性道德判断下减少绝大部分的误判,与此同时,对于决策所带来的责任后果也有了明确的承担主体。表面看来“人机共同决策”的处理方式好像是减轻了算法工程师的工作量和程序的复杂程度,但事实上如何进行数据的“预处理”以及将哪些选项提交到使用者面前,是更加考验程序严谨性的,人工智能其本质上是设计者意志的体现,在技术的加持下,人性被放大的情况作用比现实中来得更加强烈。“人机共同决策”的处理方式并不是让人完全脱离道德困境,反而是将技术产品中的最终裁判权还给人类,最终为人类社会的发展服务。

结语

人工智能在我们的工作和生活中扮演着越来越重要的角色,当我们从伦理本身来论证人工智能的同时,也陷入更多的哲学难题当中,这些哲学问题已经在人类社会争论了上千年,不会因为参与对象和视角的改变就消失。一切的算法都是基于工程实践,其基础依然是依托于人类社会的运行规则、逻辑规律以及道德标准,是将以人类大脑为载体的“生物算法”转码为以计算机系统为载体的“电子算法”。

从柏拉图悖论的角度,在使用“一般经验法则”对社会事件进行判定的过程中,个体必须从规则的视角来进行意义评价。结合人与机器各自的优势特点,让人工智能背景下的伦理算法最大限度地减少全局社会代价,在面临稀缺资源和高权重法益之时,具有着重要且积极的意义。

参考文献:

[1]JY.赋予机器人以道德算法[EB/OL].中国机器人网,(2014-07-24)[2023-05-15]. https://www.robot-china.com/news/201407/24/12485.html.

[2]〔德〕海因里希·亨克尔.法哲学导论[M].北京:商务印书馆,1977:391.

[3]李晓华.数字时代的算法困境与治理路径[J].人民论坛,2022(Z1):64-67.

[4]张卫.算法中的道德物化及问题反思[J].大连理工大学学报(社会科学版),2020(1):117-121.

[责任编辑、校对:杨栓保]

猜你喜欢

人工智能
我校新增“人工智能”本科专业
用“小AI”解决人工智能的“大”烦恼
当人工智能遇见再制造
2019:人工智能
AI人工智能解疑答问
人工智能与就业
基于人工智能的电力系统自动化控制
人工智能,来了
数读人工智能
人工智能来了