APP下载

用户权益保护视角下人工智能侵权问题研究
——商用主体担责伦理探讨

2023-11-13李思启

法制博览 2023年29期
关键词:商用伦理人工智能

李思启

新疆警察学院,新疆 克拉玛依 830000

基于深度学习算法所搭建的人工智能之应用已成为现实,有别于以往,这一次的发展速度非常快,大型语言模型使开放式理解与生成连贯文本成为可能,理论算法开始走向实际应用,推动了聊天机器人系统的迭代升级,2023 年ChatGPT(Chat Generative Pre-trained Transformer,是美国OpenAI 公司研发的聊天机器人程序)的诞生,标志着人工智能算法科技进入了新的阶段。[1]算法发展的惊人速度,使得人们亟需重新审视人工智能的伦理及其所带来的法律风险。

一、人工智能高速发展

人工智能问世60 多年,其应用范围早已拓展至多个领域,影响着人类的思维方式和行为模式。回顾人工智能发展的历史,人工智能经历了几次大起大落。在其发展的过程中遇到过巨大瓶颈,又在新的理论和新的技术推动下,奋而前行。

目前,我们正在进入人工智能的“inside”时代,即人工智能并非简单的赋能,而是在创造着新的经济结构和社会形态。[2]人工智能技术,除了在搜索引擎、推荐系统、计算广告、人脸识别、图像识别、语音识别、机器翻译、游戏博弈等领域已大规模熟练运用外,还在蛋白质结构预测、新药发现、国防军工等领域有了突破性的进展。

人工智能的发展速度已然超越预期,进入了一个新的历史发展阶段——第三次认知革命,探索人类通过自我认知而形成的主观世界机制,把这样的智能赋予机器并改造客观世界,推动人类智能的外化延伸。

二、人工智能的应用必然带来风险与问题

根据研究,人工智能在新生命科学、类脑神经系统、智能医疗等多个前沿领域取得突破性进展,可预见其对人类社会劳动力市场分工、经济产业结构等产生重大的影响和连锁反应。[3]同时,随着人类能力被机械化和程式化的机器取代以及技术异化等问题的产生,人工智能的运用必然会带来一系列技术风险与伦理问题。本文将人工智能的风险分为:技术风险、伦理风险及法律风险三类。

(一)技术本身的风险

复杂网络是涵盖多领域的交叉性学科,随着人工智能的发展,其运用愈发广泛,但复杂网络仍然面临多变的环境、人为破坏以及自然灾害等诱发故障的因素。如果复杂网络系统出现故障,则可能会造成严重损害。

人类很难甚至不可能跟踪人工智能系统的工作原理并“预测”它们将如何发生故障。对于许多较老类型的自动化系统,工程师使用详尽的测试或数学分析来“验证”系统是否在合理的范围内运行。但现代人工智能系统比老一代自动化系统复杂得多,它们不能像旧系统那样进行详尽的测试,因为要测试的可能性路径实在太多。

换言之,人类可以通过设计一套高效、性能优越的优化方案及一套稳定的系统来保证其面临异常情况时的正常运作,但本身并无法规避风险所发生的可能。

(二)人工智能的伦理风险

人工智能在伦理方面逐渐浮现出了诸多负面问题。首先,人工智能算法存在性别、种族等歧视;其次,人工智能存在着弱化人类主体性的特征,开始具备人类语言能力、共情意识和自觉意识,同时冲击人类就业市场,由此或将引发群体性的恐慌和社会动荡;最后,算法滥用会挑战学术规范,加剧学术不端现象,造成教育困境,引发深层次的教育不公。

从不同视角看,人工智能带来的问题不尽相同。这时要先从道德与伦理角度去思考其涉及的问题,例如人工智能的设计不能摆脱“人是目的”。[4]人工智能发展如此迅速,极有可能产生一批游离于法律之外的“不道德的人”和“不道德的机器”。谨防出现基于“技术野蛮”的“寡头恐怖主义”,应当尽快出台人工智能相关预防性的、有效的、缜密的伦理应对机制和路径。[4]

(三)特定知识领域的风险

就以本文所站的法律角度为例,人工智能的发展还会对法律职业、法律思维造成巨大的挑战。从法律职业方面来说,人工智能的出现可以提高法律行业的办公效率,使律师可以更高效地处理专业的法律问题。但同时,律师作为一门需要具备正确价值观的职业,是人工智能无法取代的。人工智能只能作为辅助,法律工作者需要有意识地筛选和审核。

人类特有的无法用机器生成的法律思维和语言有:伦理、文义和技术。人工智能可以替代通过语言的法律方法,但是仍然无法替代负责任的判断或具体情境下的判断。基于此,人类仍然可以加强对于人工智能的监管,控制其内在风险,完善相关法律,掌握法律解释权,防范人工智能时代出现的法律风险。

三、人工智能商用主体作为被告主体的合理性与必然性

人工智能侵权现象的发生不可避免,但人工智能侵权行为的侵权程度不同,是否达到“犯罪”的程度,显然公权力对此进行的救济之必要性与急迫性截然不同。

本文立意要点为,需要明确当基于人工智能算法搭建的软件对个体造成严重侵权时,应当允许将商用主体直接作为被告,且举证责任倒置。

(一)方便诉讼的进行

根据《中华人民共和国民事诉讼法》第一百二十二条:“起诉必须符合下列条件:……(二)有明确的被告;(三)有具体的诉讼请求和事实、理由;(四)属于人民法院受理民事诉讼的范围和受诉人民法院管辖。”起诉必须有明确的被告,以及确定准确的利害关系。又依据《最高人民法院关于人民法院登记立案若干问题的规定》第四条:“民事起诉状应当记明以下事项:……(二)被告的姓名、性别、工作单位、住所等信息,法人或者其他组织的名称、住所等信息;(三)诉讼请求和所根据的事实与理由;(四)证据和证据来源……”

实践中,无论是举证证明程序与损害之间存在因果关系,还是寻找适格被告主体信息,对于普通个体,皆会存在困难,使得法律关系长期处于不稳定的状态。故而根据法益衡量原理,有必要通过立法手段对这种“缺失”予以弥补。[5]例如可以模仿诸如《中华人民共和国消费者权益保护法》中关于经营者与生产者的相关追责理论,允许受侵害的主体直接向商用主体(媒介机构)起诉,且规定举证责任倒置。由商用主体对造成的损害进行赔付,同时赋予商用主体对算法提供者追责的权利,这将最大程度上维护社会的整体稳定性。

(二)不破坏现行法律体系的选择

从伦理角度思考同样支持应由商用主体进行赔付。计算机代码本身只是将逻辑通过算法进行转化后所编写成的文字,其本身并不具有善恶之分,按照法秩序统一性,即不具有可罚性。[6]正如自动手枪可以杀人,但杀人的却不是枪,而是扣动扳机者。使用计算机代码进行恶意操作,其可罚性来源并不是“编程”这一行为本身,而是使用代码时的动机,以及程序编写好后运行时的目的与造成的结果。对于人工智能算法所造成的违法行为,对其代码编写的本身进行审查显然过于困难且不切实际,将负责主体从编写者转移为商业使用者,显然让法律对行为进行评价的过程更为方便可行。

基于大陆法系的特点,法需要保持稳定性。故而选择将保护法益的天平向普通用户倾斜,允许受侵害个体直接向算法的商用主体主张权利。又或者说,如希望在传统大陆法学框架下对人工智能所引发的法律问题予以规制,应当通过赋予受侵害主体直接向人工智能算法的商用主体告诉的权利。

(三)经济效率最大化的选择

从效率角度思考,选择人工智能商用主体作为被告的优点主要有两个方面:

一方面,根据《中华人民共和国民法典》关于商事主体登记的相关规定,受侵害者寻求救济时,寻找商用主体的信息显然更为简单。这使得面对人工智能侵权行为的维权成本不至于过高,有利于社会稳定。另一方面,随着对人工智能的使用越来越频繁、范围越来越广,显然相同算法所形成的人工智能程序侵权案件会越来越多。且由于电脑编程本身的可复制性,人工智能相关的违法犯罪行为会日渐猖獗。由法院法官逐一确认并追责,即便理论上可行,实际中也会因工作量过大而不切实际。

从效率角度来讲,将犯罪主体确定在不当使用人工智能算法的商用主体,显然更符合效率最大化的原则。同时,站在司法者的角度,也方便法院的审理与追责,以及审判后的执行,有助于节省司法资源。

四、立法视野下的思考

人工智能技术的改进和来自消费者的自下而上的市场压力有助于使人工智能更安全、更不容易发生事故,但仅靠这种调控力度并不足够。健全立法应发挥至关重要的作用。有前瞻性的立法有助于减少有侵权可能的人工智能算法研究,本文结合相关的研究,提出以下几点立法建议:

(一)建立风险事故信息共享机制

为了使人工智能更安全,需要知道它何时以及如何失败。在许多近似技术领域,共享事件报告有助于建立共同的知识基础,帮助行业和政府跟踪风险并了解其原因。政策制定者应该探索不同的方法来鼓励经营者或生产商积极披露人工智能事故的细节。如政府可以制定事件报告的共同标准,甚至强制要求经营者或生产商披露某些类型的事故。

(二)政府背书的信息安全机制

对人工智能安全进行审查与测试至关重要,旨在解决上述提到的问题,以及将人工智能工程塑造为一类更严格的学科领域。如美国2021 年制定的《国防授权法案》(NDAA),要求美国国家科学基金会和能源部投资于“值得信赖的AI”研究。

我国亦应当注重人工智能标准,制定出人工智能系统事故风险的标准。并委托更专业的监管机构,创建一个国家背书的人工智能测试体系。进而构建一个包含标准化数据集、代码和测试环境的数字平台,公共和私人人工智能系统可以在其上对安全性和可靠性进行测试。

(三)强制责任保险制度与侵权救济基金制度的构建

作为一种科学趋势及事物的发展规律,我国的人工智能研究与应用不可能等到立法健全时再开始。正如前述,法的滞后性也决定了问题的出现一定早于立法。正基于这种特性,有学者提出了我国应当构建强制责任保险制度与侵权救济基金制度。[7]该制度广泛应用于欧洲国家,即通过强制要求人工智能应用主体缴交责任保险,或者设立侵权救济基金,来为未来可能发生的侵权行为提前提供赔偿保证。同时,资金的要求无形之中也为人工智能公司的设立提供了门槛,有利于将风险限缩在一定的程度以内。

五、研究意义与局限性

笔者认为,距离真正意义上的人工智能时代到来还有一定的年头,且基于法律本身的滞后性,仍有许多未知的问题现在无法预测。同时大陆法系的逻辑所决定,法学研究始终无法脱离于滞后因素,但学者必须尽可能在问题发生之前去思考,这样才能在问题出现之时第一时间提供理论依据,且将风险造成的破坏限缩在一定程度,进而提供现实意义上的作用。确保即使侵害发生,也能找到最适格的被告主体进而进行司法救济,维护社会稳定。

猜你喜欢

商用伦理人工智能
《心之死》的趣味与伦理焦虑
兵学商用人物
——徐小林
2022 年《商用汽车》回顾
2021年《商用汽车》回顾
护生眼中的伦理修养
人工智能与就业
商用WiFi蓄势待发BAT360谨慎布局前景存疑
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展