APP下载

人工智能的三重伦理困境

2021-03-24崔志根

中国应急管理科学 2021年2期
关键词:人工智能

崔志根

摘 要:人工智能的研发与应用是为了给人类与人类社会带来福利,促进人的自由全面发展的同时,也给个人、社会乃至国家层面带来已经显现或隐性的伦理困境,笔者将从人权困境、安全困境、责任困境三个方面对困境分别进行梳理和阐述,为探寻困境的根源和解决方案提供前提,以避免技术鸿沟,共享技术红利,实现包容、普惠和可持续发展。

关键词:人工智能;人权困境;安全困境;责任困境

分类号:B82-057;TP18

一、人权困境

人权这一问题是在近代才提出来,其普遍意义的概念得以确认也是在联合国成立之后的事情。《联合国宪章》和《世界人权宣言》等国际文书的通过,标志着人权观念成为世界公认的意识形态。对人权的解释也有法理学、政治学、哲学等多个维度,在哲学层面可理解为人之为人的权利,强调的人区别于动物的尊严与价值。人是有思想的人,与动物的不同,追求自我价值实现,人的最高级需求便是自我实现,成为一个完善人格、全面发展具有价值的人。

1.个人自由全面发展与片面化发展之间的矛盾

人工智能技术在两者之间的矛盾体现在生产和生活两方面。生产方面人工智能替代人类劳动可能导致人类身体机能与智力的蜕化。首先,科学技术发展导致人的被剥削程度加重;其次,社会分工的细化、行业门槛的提高导致的人的日常工作、学习更加专注于某一方面的提升,缺失了全面发展的条件与意愿,甚至丧失了基本自理能力;最后,科学技术的精细分工,专业化程度加深,对现代人造成强大的工作压力和精神压力造成大面积的生存焦虑,也正是科学技术发展对人的异化体现。

生活方面造成精神的肤浅与思想的匮乏。科学技术发展导致人的消费和需要畸形,人们的消费观念被消费主义思想占据,科技产品引发人的符号消费与攀比消费,求新、求异的消费观念被喧嚣尘上的产品所引导、控制,使人失去自我,失去自主选择权。人失去了对日常生活的正确认识并被裹挟其中而不自知,丧失了合理批判社会现实的能力,失去了自由、创造力和超越性,成为马尔库塞笔下“单向度的人”。

2.主体性问题

所谓的主体性只是近代历史和近代哲学发展的产物,由于科学技术的发展,人类得以从自然、愚昧中解放出来,成为独立、自主、有意识的能动性的人。独立性、自主性、能动性和创造性作为主体性的四个基本表征,是人在具体实践中所展现出来的:人的自我意识、自我决策、自我认同、自我超越,通过改造客观世界与主观世界实现自我的价值与尊严,实现人的主体性存在。但是,人工智能在生产、生活中的普及,会削弱人在自然界、人类社会中的主体地位,出现主体性危机。

一方面,人类丧失决策权力使我们的主体地位受到前所未有的挑战。人工智能所具有的高效信息收集、分析、推理、决策能力是人类所难以企及的,通过人工智能对数据进行分析,得出“最优解”是专家系统、金融投资分析等人工智能产品的目的,人们利用“最优解”来做出决策,便是丧失了完全的自主决策权的先验条件。另一方面,人工智能渗透的生产、生活的方方面面,而其技术准入门槛高,创新难度大,而日常被人工智能辅助下的大部分人类丧失能动性与创造性而成为无用的阶层,正如尤瓦尔·赫拉利在《人类简史》中提到的“人工智能技术的快速发展必然导致无用的阶层的兴起”。

3.人际关系的扩大化与人际孤岛之间的矛盾

人工智能技术实现了人际关系的扩大化,互联网把世界连起来,即使身在大洋彼岸也可以通过邮箱、聊天软件接收到对方的文字、声音、图像。与此同时,人际孤岛的问题也逐渐显现:越来越多的人信奉“孤独是人生的归宿”,选择独身、独居,甚至与虚拟人物结婚,“宅文化”盛行,个体与外界的隔离、小圈子与外界隔离,人活成一个孤岛。

首先,人际关系扩大化分散了与身边人建立亲密关系的精力。人工智能时代下万物互联,新媒体的运用使人际网络广度拓展,社交范围的扩大,人们更容易跨越距离,找到与自己志趣相投的群体,然而由此造成的信息茧房、自我封闭,同质化强化也伴随着风险:走向狭隘与偏激,甚至影响人的思维模式、扭曲認知。其次,虚拟社群降低了人际交往的欲望,反而更愿意接受机器。人工智能机器人的设计充分利用大数据的算法推荐及深度学习,能够比人更加“善解人意”,从而更好的满足人的需求,继而降低现实人际交往的欲望和必要性。最后,远程虚拟沟通技术会进一步拉大了人与人交往的鸿沟,强化人际孤岛效应。虚拟现实和远程交往技术的发展使交往行为的真实性、正确性蒙上了迷雾,真诚性也难以得到确证,而面对面交流可能趋于日渐式微。人与人之间的信任被消磨,建立亲密关系的难度增大,进一步强化人际孤岛。

二、安全困境

人工智能的安全问题是业界最关注的问题之一,安全是人类最基本的生理需求,只有在保证人身、心理安全的前提下,一切便利、效率才有意义。本章将从个人安全、社会稳定、国家安全三个层面就隐私安全、分配公平、军事运用为切入点展开,对人工智能可能带来的安全隐患进行分析与探讨。

1.大数据信息收集与个人隐私泄露之间的矛盾

人工智能的应用与推广需要海量的个人信息数据作为前提与支撑。可以说,正是由于近几年互联网、大数据的迅速发展,才促成了人工智能技术第三次浪潮的兴起。大数据的使用、算力的提高和算法的突破,可谓是驱动人工智能技术发展的“三驾马车”,人工智能才得以快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。人工智能越是“智能”,就越需要获取、存储、分析更多的信息数据,进而通过学习、模拟以提高自身在某个领域的能力。大数据要求对相关数据进行收集,医疗护理需要被服务对象的医疗数据,教育需要教育数据,必然会对个人的隐私造成侵犯,而获取和处理海量的个人信息数据,不可避免会涉及个人隐私保护这一重要伦理问题。

2.科技成果创造与公平合理共享之间的矛盾

公正作为一种评价社会制度的道德标准, 始终有着不容忽视的重要价值。对于公平,罗尔斯强调机会公平,应该给予弱势群体足够的重视与帮助。习近平总书记强调让发展红利惠及人民群众,共享发展成果。但由于市场机制的作用,社会资源分配存在马太效应,从而导致了社会不平等现象的加剧。

可能导致人工智能成果公平惠及人类的影响因素贯穿了AI产品从研发设计到运营的全过程,每个环节都有偏离公平的杠杆,“失之毫厘,差之千里”,对技术红利的公平分配和使用产生负面影响。如设计与应用过程中的算法偏见问题:性别歧视、种族歧视、行业歧视等等,AI产品与服务设计阶段、分配过程中将受众标签化、圈层化;分配结果上贫富差距拉大成难以逾越的鸿沟,如拥有财富和权利的阶层利用人机融合、芯片植入等技术实现体能强化、智力增强,而社会底层的普通人别无选择反而被人工智能替代成为“无用的阶层”。

3.人工智能军事方面的运用导致国家间的安全困境

人工智能时代下,智能科技的快速发展加快了新一轮军事革命的进程,新时代的国防和军队建设,面临全方位深层次的改革创新与重塑。军事领域的竞争正加速走向智权时代,战争的制胜机理将完全改变,战争形态、作战方式、作战能力等都会发生巨大变革。中国兵器科学研究院科技委副主任吴明曦预见:“未来,虽然大型有人作战平台会一直存在,但大多处于后台和防区外,而在作战前沿,战场上有生力量的直接对抗将显著减少,精确制导弹药、蜂群武器、仿生机器人、机器人部队作战,将成为常态。”[1]

机器人作战在大大降低伤亡率的同时,伦理问题也成为深思的话题。智能化降低伤亡成本的同时是否会增加军备竞赛的风险?自动化武器或自主武器是否有权利决定杀死谁?如何确保不会杀死平民、伤及无辜?机器如何正确判断士兵投降还是诈降?如何解决程序算法的潜在安全风险?给用来杀戮的武器限定人道主义原则,本身就是对程度进行把控的难题。因此对于军事领域人工智能化的变革应该慎之又慎,以维护国际安全与长治久安。

三、责任困境

由于人工智能本身具有安全风险,当其出现事故、对人造成伤害时,其具有的自主性、不可预测性等特征可能给责任承担提出挑战,使得受害人的损害无法获得弥补。该如何定责也人工智能伦理研究的重要议题,欧盟、英国等开始考虑出台新的责任规则,如通过保险、赔偿基金等方式来分担事故的损害,但对于责任困境的解决任重道远。

1.责任主体地位的探讨与确定

关于人工智能地位各方学者、专家众说纷纭、各持己见:新工具主义者的代表人物布赖森(J.J.Bryson)认为其不具备承担责任的能力,应该将机器人设计成奴隶,人类避免同情心泛滥,浪费不必要的人力、时间、资源成本,不具有主体地位;而持有机器伦理观点的代表人物瓦拉赫和艾伦在其合著的《道德机器》一书中主张将伦理规则植入到机器之中,设计生产有伦理道德观念的智能体。甘克尔也认同,如果智能机器人达到布鲁克斯所形容的状态,却仍然把它们当做机器看待就是不道德的表现。

在探讨是否认同赋予人工智能主体地位方面,首先要将人工智能体的设计为人类所接受,人具有排他性,在伦理道德方面对其他物种更明显,如机器人的“人形化”是机器人外形设计的必然趋势,尤其是以与人沟通交流为目的的具有人格的机器人,他们不仅需要与人类有肢体交流还需要面部表情的交流。其次,人之所以是人,能作为一个道德主体被对待,正是因为人具有自我意识、欲望、情感,而之所以能有这些情感,与人产生共情心理,能够体会到客体的情绪;如果说情感是心灵的表达,那么理性就是大脑的外部展现。人工智能体应该具备伦理决策与理性思维,需要其行为表现符合伦理道德规范,在遇到伦理问题时能够做出合理的判断。这需要在提高智能机器人思维能力的同时,完善其所遵循的伦理算法。

2.法律责任问题

2017年国务院发布的《新一代人工智能发展规划》中要求“要建立保障人工智能健康发展的法律法规,开展与人工智能应用相关的法律问题研究,明确人工智能法律主体以及相关权利、义务和责任等,为新技术的快速应用奠定基础。”因此,首先对人工智能法律主体地位进行界定成为學界的重点研究课题。

从法律的进化变迁方面来看,法律文本与规定是随着社会现实不断变化和修正的,具备自主意识的强人工智能担任一定社会角色融入人类生产尤其是日常生活中时,法律应当与时俱进,保持开放、灵活的态度,接纳人工智能,在不同的场域对人工智能施行不同的法律规范,优化对人工智能时代下的人工智能体运用与人机关系,不仅利于促进人工智能产业健康发展,更有利于保障人类社会的平稳运行,增加便利性,提高人类的生活质量和水平。

3.道德责任问题

关于道德责任问题,亚里士多德在《尼各马可伦理学》第三卷中,至少提出了以下几个论点:(1)承担责任的行为必须在我们的能力范围之内;(2)该行为必须出于行为者本身的意愿,而不能是被迫的;(3)承担责任行为的起始因不能是出于无知。[2]从这三个责任主体应当承担责任的条件来对人工智能体能否承担责任进行分析,人工智能体即使在被承认道德主体的前提下仍旧不能确定能否承担道德责任。

所谓承担道德责任更多是对道德主体主观内心上的惩罚,有来自内在的羞愧之感,也有来自外界的道德审判。道德高尚的人往往以严格的道德准则要求自己,如果做了自己认为不道德的事情,会有自责、羞愧等情绪,无法原谅自己的行为,也就是内在的自我惩罚。而外在道德审判是通过谩骂谴责、甚至侮辱等方式,对其造成心理、精神方面的惩罚;或刺激唤醒其羞耻心,使其形成愧疚、自责等情感反馈。无论是内在还是外在,都需要以具有情感、良知、良善为前提。因此人工智能能否“通情理”对于人的处境“感同身受”具有了情感,是其承担道德责任的前提要件。

参考文献

[1]吴明曦.现代战争正在加速从信息化向智能化时代迈进[J].科技中国,2020(05):9-14.

[2][古希腊]亚里士多德.尼各马可伦理学[M].廖申白,译注.北京:商务印书馆,2009:71-77.

(北京邮电大学 马克思主义学院 北京 100876)

猜你喜欢

人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!