APP下载

人工智能不应作为刑事责任主体

2019-03-29赵运锋

检察风云 2019年6期
关键词:行政法刑法犯罪

赵运锋

2017年7月8日,国务院《新一代人工智能发展规划》将发展人工智能作为我国抢抓战略机遇、构筑先发优势、加快建设创新型国家和世界科技强国的重要国家战略。党的十九大报告指出,要加快建设制造强国,加快发展先进制造业,推动互联网、大数据、人工智能和实体经济深度融合。随着人工智能置于国家战略的地位,并日益成为社会各界关注的重要话题,对人工智能的讨论也开始从哲学领域向包括法学的社科领域渗透。

人工智能的社会风险分析

人工智能带给社会的好处和利益不言而喻。无人机、工业机器人、无人驾驶汽车、智能手机、智能手环、智能司法等带给社会的福利已经充实到社会各个领域,交通、金融、教育、医疗、司法等领域都能看到人工智能的印记,将来智能家政人员、智能军事专家、智能教育业者等,也会逐渐出现在我们的生活中,并对社会发展起到重要的推动作用。

从美国好莱坞大片《人工智能》《终结者》《2036来历不明》等影片中,我们都可以看到人工智能在人类社会中的作用和影响,包括积极的社会价值和消极的社会影响。对人工智能潜藏的社会风险,霍金、比尔·盖茨等人曾发出其可能危害人类的警醒。比如,霍金在2014年接受BBC采访时就断言,人工智能可能意味着“人类的末日”。在人工智能发展进程中,人类也能清晰看到其在人类社会中不可忽视的作用,美国未来学家库兹韦尔笔下的奇点似乎也日益临近。不过,我们还应该看到,与其他科学技术一样,人工智能也在将消极因素和负面影响带给人类,对此,需要我们认真且严肃地面对,并做深刻的分析和探讨。

看到人工智能带来的机遇和优势,也应关注人工智能暗含的危机与风险。当我们享受人工智能带来的福利时,人工智能孕育的风险也在威胁着人类,对此,需要给予认真关注,并努力构建妥当对策予以应对,以最大程度弱化因人工智能内在危机带来的社会风险。总的来看,人工智能风险主要分技术风险和制度风险。

人工智能发展依托风险社会大环境,给人类带来的震撼不亚于任何一项科学技术,同时,也将危机和风险一并带给人类。从风险系统看,技术风险是人工智能需要面对的基本风险,属于内生性风险,与生俱来,即当人工智能出现时,技术风险也应运而生。人工智能的技术风险主要包括内生性风险和外来性风险:前者是指人工智能抓取信息错误、运算错误、执行错误等,这种风险源于人工智能本身;后者是指人工智能程序被人为破坏或被黑客侵入,从而破坏或者修改人工智能运行程序,导致出现危害人类的后果,这种风险源于人工智能外部。

人工智能法律责任能力批判分析

无论是西方社会的法学理论,还是国内的法学研究,当前主要集中在人工智能的民事能力是否存在的問题上,即人工智能是否具有民事权利能力和民事责任能力。在中国知网上搜索人工智能论文并分析可知,与人工智能相关的法律话题主要集中在民商法、诉讼法与司法实务、法理法史等领域,专门从行政法、刑法角度探讨人工智能问题的论文则屈指可数。

民法学界不断有学者坚持,鉴于人工智能发展迅速,且在法律问题上出现诸多争议,应仿照法人的拟制主体地位,赋予人工智能独立的法律主体资格,以应对因人工智能带来及潜在的法律问题。反对的声音也很有力,认为法人是自然人的集合体,具有自然人的特征,可以参照自然人的主体资格赋予其民事责任能力。人工智能本质是机器,体现的只是人工智能开发者、使用者的意图,即使人工智能借助规范的逻辑运算和强大的数据计算,获得相对独立的结果或产品,这种产品依然是人工智能形式逻辑运算的结果,没有任何社会性与情感要素,与人类智慧成果有着本质区别。

据美国NarrativeScience(《叙事科学》)预测,未来15年将有90%的新闻稿件由机器人完成,大量的美术、音乐等艺术作品也将出自人工智能创作。据此,在知识产权领域,对人工智能的产品能否拥有著作权的争论逐渐热烈,比如:人工智能对通过计算产生的绘画、小说、诗歌等作品是否享有著作权。当下有力的主张是,鉴于人工智能作品只是数据逻辑运算的结果,没有感情描述和表达,与蕴含情感、理想和思想的人类作品有本质区别,将其与人类作品同等对待且赋予著作权并不合适。

从行政法研究看,至今未有学者从行政法角度论证研究人工智能的法律主体问题,也鲜有学者探讨人工智能的行政责任问题。易言之,在行政法领域,人工智能还不是行政相对人,不需要承担行政责任。质言之,随着人工智能的迅速发展并带来的社会问题,民法、知识产权法等部门法理论开始密切关注人工智能的法律问题,并对人工智能能否具有责任能力有较多争论,但行政法学者还对人工智能的行政责任问题依然保持沉默,也即,在刑法的前置法领域,人工智能能否承担法律责任,远没有达成统一的意见。易言之,是否赋予人工智能民事责任能力,在民商法领域依然没有形成一致建议,行政法也未对人工智能能否处以行政处罚进行明确。从刑法与其他部门法的关系看,刑法是前置法,是其他部门法的保障法,只有在部门法不能达到规制危害行为之目的时才能做出适当反应。如果部门法对某种危害行为是否需要承担责任还没有达致合意时,刑法就应该保持缄默。

人工智能刑事责任主体否定论证

人工智能推动社会发展的作用不言而喻,因人工智能带来的社会问题也一直为社会关注,如人工智能的刑事责任主体、刑罚结构体系、刑事责任能力等问题。根据上文,鉴于人工智能没有刑事责任能力,与人工智能相关的犯罪应如何处理需进行进一步研究。

首先,人工智能不是刑事责任主体。自然人与法人是刑事责任主体,具有刑事责任能力。刑法理论也是围绕自然人进行建构的,随着人工智能概念的提出,有学者提出,需将人工智能纳入刑事责任主体范畴,以达到合理规制人工智能行为之目的。刘宪权教授在《人工智能时代机器人行为道德伦理与刑法规制》中提出,“机器人主体地位的趋势已经形成,我们应当正视这一社会伦理现象,考虑赋予其适当的法律资格与地位,制定并完善相关的法律制度”。不过,鉴于刑法理论与刑法结构与人工智能的属性、特点相差甚远,如果将人工智能纳入刑事主体范畴,则会面临刑法理论及刑法结构如何兼容的问题,也即,在当前的刑法理论框架下,还不能有效解决人工智能的刑事责任主体问题。

其次,刑法能处理与人工智能相关的犯罪问题。当前,人工智能并不具备独立的犯罪主体资格,应充分运用现有犯罪理论与刑法条文协调和解决人工智能犯罪问题。一段时间内,刑法依然能有效处理与人工智能有关的犯罪问题,不需要单独为人工智能设计刑法处罚措施、建构新的刑罚体系。

如果因为人工智能技术缺陷或计算错误,导致侵害他人人身或财产权利的,易言之,如果因为人工智能的内部原因导致人身伤害或财产损害的,应根据刑法上因果关系理论、原因自由行为理论、监督过失理论等进行责任认定,追究人工智能开发者、销售者、使用者的过失犯罪的刑事责任;如果因为人工智能程序被恶意侵入,致使其实施犯罪行为的,如果恶意侵入者明知修改人工智能程序后会实施犯罪行为,依然实施修改程序的,属于间接故意,应对犯罪行为承担刑事责任;如果恶意侵入者对人工智能是否会实施犯罪没有明确的认知,则可能会根据危害后果承担过失的刑事责任;如果行为人在研发、制造、使用人工智能时,就是基于某种犯罪动机,比如,利用人工智能实施危害金融安全、公共安全等恐怖主义行为,达到威胁社会或政府的目的,或者利用人工智能,实施盗窃财产、实施爆炸、实施故意杀人等具体犯罪行为。那么,对于故意利用研发或使用人工智能技术实施严重危害社会犯罪的,应当将人工智能产品看作行为人实施犯罪的“智能工具”,所有刑事责任应当由人工智能产品的研发者或使用者承担。

编辑:黄灵  yeshzhwu@foxmail.com

猜你喜欢

行政法刑法犯罪
行政法上之不利类推禁止*——以一起登记收费案为例
过度刑法化的倾向及其纠正
Televisions
行政法上的双重尊重
《行政法论丛》稿约
巴西行政法500年
刑法适用与刑法教义学的向度
什么是犯罪?
论刑法总则
重新检视犯罪中止