APP下载

人工智能的法律风险和规制

2021-09-10刘媛奕

科学与生活 2021年13期
关键词:规制法律人工智能

刘媛奕

摘要:技术创新不仅仅是工具和技术的创新,它还可能涉及经济、社会和法律关系的创新。随着我们的世界充满机器人和人工智能技术,我们的生活和社会、政治和经济权力关系也将发生变化,给法律带来新的和意想不到的挑战。当今人工智能的技术水平是智能地识别图像和智能地玩游戏。它不亚于一种超人的智慧,而出现的问题是,如果我们没有一个法律框架来防止恶意使用这种智慧,那么它可能会使整个人类也处于毁灭的边缘。目前,对人工智能发展的法律规制仍然存在诸多不足,法律法规急需完善。

关键词:人工智能;法律;规制

随着人工智能技术的迅速发展及应用领域的不断拓展,人工智能发展的社会影响在日益显现,诸多现实的社会问题对人工智能业态的发展提出了新的要求,越来越多的学者展开在人工智能伦理和法律层面的探索。

一、人工智能概述

了解人工智能到底是什么很重要。根据牛津词典对人工智能的定义,人工智能是机器所展现的智能。在计算机科学中,理想的“智能”机器是一个灵活的理性代理,它感知自己的環境,并采取行动,最大限度地提高其在某个目标上的成功机会。因此,当机器模仿类似人类的行为时,例如学习、计划、推理、解决问题、环境感知、自然语言处理等,那么它就属于人工智能的范畴。大多数人没有意识到人工智能已经以一种自然的方式在日常生活中存在了很长时间。人工智能是一个全球性的抽象概念,包含许多不同的模式和表现形式。即使用科学术语也很难界定共同核心。

达特茅斯会议的发起人麦卡锡起草的倡议书中使用了 “人工智能”一词,这被认为是人工智能诞生的标志,一些研究认为,人工智能本质上是数据管理问题,算法是人工智能的基本要素,算法是将输入数据转化为确定的输出的编码过程。当具有自主意识的人工智能出现时,现有的人类法律领域将受到挑战。法律在调整人工智能时代的社会关系的同时,人工智能也更加广泛的应用于法律领域。

人工智能将经历三个发展阶段,在第一个阶段即弱人工智能阶段,人工智能仅能够推理和解决问题。在第二个阶段即强人工智能阶段,人工智能拥有了自主意识,不仅仅能推理和解决问题,还可以思考,理解复杂理念,具有快速学习和从经验中学习的能力。在第三个阶段即超人工智能阶段,人工智能将达到一个“奇点”,一旦这个“奇点”被跨越,人工智能将具有比人类更丰富的智慧,人类需重新审视自己和社会的关系。

二、人工智能引发的法律问题

不同于人类开发的任何其他技术,人工智能的独特之处在于其自主行动的能力。这种变化不仅很快开始显示出它对社会的积极影响,而且也产生了严重的消极影响。随着人工智能的不断成熟,自主机器人可能成为地球上除男人和女人之外有意识的“第三类人”,这对传统刑事责任追究制度提出了挑战。具有自主意识的智能机器人是否可以成为刑事责任的承担主体,是否具有刑事责任能力都是值得深究的问题。在人工智能产品的实际应用中,最普遍的问题是侵权,比如说自动驾驶、智能识别等问题。人工智能体不仅可能侵害人类生命、身体和健康,还可能造成个人人身、人格和财产权利侵害。人工智能体的法律定位困境和风险责任承担争议便日益凸显。

人类在享受技术福利的同时,也面临着“裸奔”于社会的风险,个人喜好、经历、亲友关系等个人信息一览无余。数据是人工智能时代工业生产的主要生产资料,数据的使用引发了一系列隐私保护问题。消费者也面临着在获得有用服务和放弃个人信息之间的平衡。在人工智能的实际应用中,例如无人驾驶车辆的运行,可轻松实现乘客的个性化的需求,但是车辆的软件系统会记录乘客的驾驶偏好、行驶路线、车内温度等具体细节方面的数据,给乘客提供便捷服务的同时也使乘客的个人信息完全暴露在无人驾驶车辆的数据库中。上述个人信息可能会被企业收集并转卖或泄露,第二天可能就收到诈骗电话,引发社会风险。隐私权的概念也一直被解构并被重新定义,到底哪一些信息是我们不能公之于众拿来利用的,这都需要法律专家们进行深刻的思考,并作出理性的判断。

三、法律如何规制人工智能

尽管人工智能的进一步发展对于人类社会存在一定的威胁,但我们有充分的理由相信,通过法律进行规制可以有效降低人工智能潜在风险向现实转化的可能性,即便人工智能会造成一定的损害,但是也可以通过合理的制度设计进行风险分摊,从而降低人工智能的损害程度。伦理原则可以为人工智能的积极使用提供方向,但它们没有能力防止、抑制和制裁消极使用,这就体现出法律规制的必要性。

通过法律设置相应的原则加强对人工智能的监管很有必要,虽然规则和原则相比可以更清晰精准的进行监管,但是人工智能蕴含的风险属性,难以预知未来发生的风险,况且法律本身具有严重的滞后性,过于细化的规则在操作中不具有现实性,行政机关在面临突发的风险时难免措手不及。

探讨人工智能时代的法律问题,首先考虑能否将人工智能规制纳入到现有法律体系下,

目前主流观点是改良当前法律制度,就人工智能问题先适用现有规范并根据其具有的特殊属性进行有针对性的规制。首先要在法律上给人工智能体以主体认定,其次法律应进一步应明确具体风险的责任分配问题,即谁来承担责任和如何承担责任。现有法律主体和人工智能体共同承担责任。人工智能体可以通过删除数据、修改程序和永久销毁等方式承担责任。现在仍处于若人工智能时代,人工智能体的设计者、制造者、销售者和使用者等仍需要承担责任。

利用法律保护人工智能相关的利害关系人的隐私和数据安全尤其重要,例如无人驾驶汽车会安装一个类似于黑匣子的装置,以便在事故发生后查询车辆行驶过程中的行为数据,上述信息极易被违法整合,进而侵犯公民的个人隐私。立法在规范无人驾驶车辆的安全行驶的同时需要制定具体规则限制对个人信息的使用,授权使用的基本原则,并对研发、设计、销售人工智能体的主体设定严格的法律责任。 有必要从法律上对商业机构获取信息进行规制,开发商在获取用户的个人信息前必须征得用户的同意,可获取用户个人信息的范围以及获取信息后的用途都需要加以明确,以降低个人隐私权被侵犯的风险。

结语

基于人工智能的特有属性和大数据背景,目前人工智能在中国已经提升到国家战略并受到广泛重视。《民法典》设专章规定隐私权和个人信息保护,人工智能立法列入研究项目,为人工智能创新发展提供有力的法制保障。最终我们需要一个法律政策框架,以确保减轻与人工智能相关的挑战,并在出现致命错误时及时进行补救。

参考文献

[1]王璐,韩璞庚.论人工智能发展风险的认知与规避[J].理论月刊,2020(12):148-153.

[2]夏玉明,石英村.人工智能发展与数据安全挑战[J].信息安全与通信保密,2020(12):70-78.

[3]王杰.法律人工智能规制路径探析[J].东北农业大学学报(社会科学版),2020,18(05):36-41.

[4]莫超. 论自动驾驶汽车的法律规制[D].广州大学,2019.

[5]张力,陈鹏.机器人“人格”理论批判与人工智能物的法律规制[J].学术界,2018(12):53-75.

[6]吴汉东.人工智能时代的制度安排与法律规制[J].社会科学文摘,2017(12):76-78.

猜你喜欢

规制法律人工智能
职业道德与法律 教案
涉及网络募捐的现有法律规定
中国社会组织自我规制的原因浅析
2019:人工智能
人工智能与就业
新常态经济规制及其制约机制完善
浅析我国行政规制的法制完善
数读人工智能
法治环境下规制政策的影响因素研究
下一幕,人工智能!