APP下载

人工智能:风险分析和伦理问题

2022-06-10李沂修

中国新通信 2022年9期
关键词:伦理问题透明性风险规避

摘要:科技进步是推动社会变革的动力源,人工智能作为计算机领域的新兴产物伴随着深入的研究和发展,其逐步应用渗入到生活中的各个领域并发挥着重要作用,但同时也受到社会各界的关注和探讨。不可否认的是人工智能为我们的生活提供了极大的便利,但科技永远是一把双刃剑,我们在享受人工智能带来改变的同时也应该着眼于其本身存在的诸多风险,考虑其将会引发的新风险以及社会伦理问题。本文将对人工智能技术进行简要概述并将对其风险进行分析,也会对其引发的伦理问题进行阐述,提出可行性建议。

关键词:人工智能;风险规避;伦理问题;透明性

一、引言

自20世纪50年代图灵提出“图灵测试”以来,人工智能技术相关研究取得了不菲的成果。随着人工智能和相关产业的发展,其产品正与日俱增迅速地融入人们日常的生产生活中,并推动着社会逐渐智能化的变革。毋庸置疑的是我们充分享受了其带来的便利,但更无法忽略的是人工智能技术带来的风险和伦理问题。只有进一步了解人工智能技术的风险和可能出现的伦理问题,才能促进其健康发展,最终达到“科技向善”的目的。

二、人工智能的相关概述

(一)概念

人工智能(Artificial Intelligence)是计算机科学的一个分支,其核心是利用计算机系列理论和相关技术,引导计算机可以模仿人类智慧,从思维模式到行为对外界作出反应,并完成一系列的机器人性化操作。而人工智能作为一门极具挑战性的综合性学科覆盖了计算机科学与技术、心理学、哲学等人类重要学科,研究领域拓展极其广阔包含机器人、图像识别、语言识别、机器学习等等。学界通常将其分类为弱人工智能、强人工智能与超人工智能。弱人工智能是指只是通过系统能够完成一定的指令,智能产品本身不具备自我意识。强人工智能是指具有自我意志、情感,能够拥有像人类一样的学习能力、价值观体系,能够自主进行决策。超人工智能是指在智力、学习能力和行动能力都超越人类,这多出现在科幻片中,但也引起人们一定程度上的担忧[1]。

(二)特点

人工智能需要通过严密的实验进行研究,其最鲜明的特点在于能够充分融到人们的生产生活中。人工智能的优势首先在于高效率,通过大数据和云计算等高新技术的加持,它能够从检索、收集到运算、分析,高效地处理数据得出结论。另一方面还体现在能够快速利用数据产生的结果,模仿人类思维后行动,这种先进的仿生计算成果能够有效地解决相应的问题。其次人工智能具有极高的便捷性,它的运行不受时间空间的限制和环境的影响,其主要原因在于能够模仿人类,实现低级别的感知和行动能力。最后,人工智能具有双面性的特点,一方面人工智能正引领着人们向智能社会迈进,另一方面人工智能技术的发展还未成熟,而当前开发的弱人工智能并不能完全代表人工智能的尽头,而强人工智能的开发所承担的风险只会更大。

三、人工智能的风险分析

(一)风险思考的现实性

现阶段人们更多的是在享受人工智能给我们生活带来的便利,而对于负面影响的了解少之又少。如研发不透明的黑箱操作,从“虚拟化”到研发过程中的“黑箱效应”环境使得其在一定程度上易脱离监管从而引发失控。其次算法的主观性和部分偏差也是人工智能诱发风险的主要来源,如谷歌公司推出的智能曾识别黑人为大猩猩,微软推出的智能聊天机器人模仿少女行为后出现了种族主义等偏见现象。而行业的失业问题成为人们风口浪尖上的话题,工厂的自动化流水线生产,无人超市和无人酒店的出现,餐饮行业的机器人送菜服务等对于劳动力的需求量正在减少,而面临着失业的工作者又应该何去何从?从现实意义上来看,我们应该思考潜在的风险,分析社会所承担的相关责任,提出切合实际的应对措施,更好地促进人工智能产业绿色发展。

(二)具体风险状况

1.透明性

透明性是现代社会成功的关键要素,无论是在政治、商业和职业领域,还是在社会、文化与宗教生活中均是如此[2]。现今弱人工智能尚未能完全独立,而人工智能涉及技术的专业性、复杂性使得人工智能具有不透明性的特点,其通常被称为“黑匣子”,主要体现在消费者对于人工智能的决策和行为的背后命令不甚了解。对于使用者来讲,它们对于充满未知性产品的信任程度较低,用户并不知道在使用过程中收集了多少数据又传输到了哪里,是否发挥了人工智能应该能达到的作用。也正因为如此,当人工智能产品的一些行为出现严重问题时,其责任的归属已然成为严重问题,无论是人为还是错误指令,对产品不了解的使用者来讲都将处于十分弱势的位置,而这样的问题逐渐演化为伦理问题。

2.技术失控

人们对人工智能发生技术失控的担忧远超于人类的其他技术。虽然人工智能的发展曾经历过低谷,但随着云计算、大数据等技术的飞速发展,人工智能的研究实现了突破。1997 年 ,IBM 的“深蓝”在国际象棋比赛中,战胜了人类象棋冠军加里·卡斯帕罗夫,再到后来Alphago的不断进化,人工智能闯入大众视野,冲击着人们的认知。人工智能的发展建立在不断地模仿再到对抗上最后逐渐形成自我学习模式。而以强力法和训练法为代表的智能成果其不断进步的思维发展到一定程度可能会跟上人类的脚步,而敏捷的对抗性思维也可能不会及时被控制,造成严重系统事故,导致难以控制的场面出现,而智能意志也有可能演化成一个与人类相冲突的意志,甚至会出现所谓的奇点。

3.监管约束

人工智能逐渐融入人们的日常生活,但在如何监管和约束中存在着极大的风险隐患。从开发到使用,似乎还未出现明确的规章制度去监管产业的发展,也没有法明确律条文约束人工智能。直到现在人们很难去给人工智能产品下一个明确的定义,也无法让人工智能作为承擔责任的主体。且公众监督作为社会治理的有效办法在机器人身上似乎很难实现,而在现实中对于人工智能行为的规范显然并没有很大的突破,因此监管约束风险仍然是发展过程中还未逾越的鸿沟。

4.依赖性

长期以来,人们的目标是将人工智能发展到等同于人类的程度,能够自我学习和思考,而如今人工智能的新功能不断增加,使得人们对其的依赖感越来越强。小到智能音箱、扫地机器人、智能空调,大到餐馆的上菜机器人、工厂的自动化生产流水线、智能识别系统都能看到人工智能的影子,而有些产品已经成为生活中不可或缺的一部分,如智能支付几乎已经遍布到社会中的各行各业。再而人类的许多发明创造来自一些意想不到的启发、各种机缘巧合、以及对生活的观察,而人们对于智能的依赖在一定程度上会影响思考,甚至人工智能的自我学习和思考能力发展到一定程度,在一些领域的趋势预测能力要胜过人类的预测。而对于空口无凭,人们更容易去相信精确的数据计算和汇总分析,人类如果想与智能形成共生关系,首先要解决依赖性问题,更要让自己的认知达到更高水平,保证物种的独特性。

四、人工智能面临的伦理问题

對于人类而言,智慧是存在的核心,目前的人类文明,皆是人类智慧的产物。人工智能研究的初衷是使机器胜任一些通常需要人类智慧才能完成的复杂工作,但新技术应用产生了系列严重的负面效应。首先是人工智能技术的非正当使用违背了社会公认的伦理道德,由于透明性的问题,人们无从得知技术是不是误用还是滥用,尤其使涉及用户隐私、数据安全等问题引起了较大反响。同时人工智能面临着人机交互失败的问题,决策者对于系统反馈的认知能力不同,人工智能对于紧急情况下规则和道德之间的取舍,使得面临突发事件的处理并未能够像人类一样灵活。其次人们更担心的是,人工智能冲击了传统产业对于劳动力和生产力的要求,工作岗位总体上的大量减少,人类现有对于发展趋势的分析预测不仅严重不足,而且预测方法也不适应新形势的需要[3],这些问题都将会对社会发展产生深远影响。而具有人思维的机器出现的伦理和道德上的问题,从责任主体角度来讲,是机器的开发者负责还是操作者负责,其次人工智能是否具有道德地位又该如何去界定,这些都将成为新的伦理风险。

五、应对风险和问题的措施

虽然人工智能的发展面临着诸多风险与伦理问题,但现如今其发展并未完全成熟,而人工智能对人类思维的模拟只会走向更精密化,对于人类社会的发展来说既是机遇也是挑战。应对风险和问题首先要以人类为中心,人工智能的研发、使用更应该致力于提高人类幸福生活指数。虽然人工智能地出现在一定程度上冲击了人类的自我权力意识,但人工智能的使用不能够侵害基本人权,人类应该自我判断如何使用人工智能并对其带来的后果和责任进行明确的规定。更要聚焦责任主体,建立健全对人工智能的追溯和问责制度,从根源上解决人与人、人与机器人之间产生的各种矛盾冲突。其次发展人工智能需要有正确的价值观和设计原则,目前发展中出现的各种问题造成了人类对于人工智能的不信任最直接的原因是源于对价值观上的道德衡量和透明性原则的坚持,而为了能更好处理两者之间的关系就需要秉持正确的科技观引领人工智能技术向“善”发展,通过深度学习使其能够形成一定的社会道德观念和判断力,从而更好地促进人类社会对人工智能的接纳。最后要控制应用场景,现在的弱人工智能局限性很大,能够掌握的技能很单一,但也不能够把尚未成熟的智能技术投入生产生活中,要通过反复的模拟和测试 ,最大限度地填补漏洞,避免出现大面积的技术失控。最后要加强交流沟通,人工智能研发过程中的保密性极易诱发垄断现象,要想减少类似事件发生的概率就应该坚持公平正义原则,抓住机遇合作共赢,更应该制定相关法律法规抵制各种层面上的垄断,防止数字鸿沟等恶劣现象的发生。

六、结束语

虽然在科技发展的道路上会有着大大小小的绊脚石,但智能社会正逐步地向我们走来,而先决条件在于人类能够对人工智能系统建立信任。人类应该对自己创造的科技产物有着理性的认知,不仅要承认其存在的必要性,也不能夸大其词似的盲目发展。对于大众媒体而言,需要引导公众全方面认识到人工智能的两面性,要更多地关注人工智能的安全可靠性,同时也要维护公众的知情权等合法权利。而负责相关产业的科技工作者也有义务向公众普及人工智能的相关知识,也要对于可透明和不可透明的部分进行相关解释,既能够消除公众对于智能技术产生的疑虑,也能够促进公众对智能技术的接受程度,逐渐将智能趋势这种社会文化慢慢浸入到人们的心里。最重要的是,要想实现人工智能技术的绿色发展,就要在技术层面上强化开发者的理论学习和职业素养尽可能地解决实际问题,在源头上降低和规避风险;在道德层面上要提升公民的整体伦理道德素养,不断强化人的权力意识,保证人的主体地位。在社会层面上,要以宽广的胸襟和包容的态度接纳新事物的产生,要以辩证的目光去看待新技术的发展。人工智能是人类智慧的一部分,是为人类而服务的,但人类作为人工智能的源头也应该以一名良师的角度出发引导智能的有序发展,促使人工智能与人类社会深度融合,从而更好地造福人类。

作者单位:李沂修    贵州师范大学国际教育学院

参  考  文  献

[1]蔡思欣.人工智能发展带来的伦理困境及对策探究[J].机器人产业,2021(05):86-93.

[2]杜严勇.论人工智能系统的透明性[J/OL].科学学研究:1-11[2022-02-06].

[3]陈小平.人工智能:技术条件、风险分析和创新模式升级[J].科学与社会,2021,11(02):1-14.

猜你喜欢

伦理问题透明性风险规避
日本建筑师蛇形画廊展馆的透明性特征探析
透明性理论与其在建筑设计中的体现
网络安全审查中的透明性研究*
民事司法的伦理问题思考
风险和公平偏好下二级供应链协调机制研究
安顺煤矿煤炭销售内部控制与风险管理
现代生物技术发展带来的伦理问题
冠心病治疗过程中的伦理问题
基于离散小波变换和奇异值分解的版权保护视频水印算法研究