APP下载

基于AI治理的图书馆智慧服务内在路径解析
——以欧盟《人工智能伦理准则》为例

2021-02-24任贝贝

图书馆理论与实践 2021年6期
关键词:准则伦理人工智能

陆 康,刘 慧,张 婧,任贝贝

(1.南京晓庄学院a.图书馆,b.幼儿师范学院;2.上海市网络技术综合应用研究所)

1 引言

人工智能(Artificial Intelligence,AI)技术在工业领域被誉为“第四次工业革命”[1],AI等新技术已广泛应用于多个领域,并受到全世界的广泛关注,各国都在积极探索AI的多元化治理措施,以规避AI等技术创新应用所带来的涉及安全隐私的风险。欧盟委员会为了有效应对这些挑战并充分利用AI带来的新机遇,于2019年4月8日以“建立对以人为本AI的信任”为题,发布了欧洲版的《人工智能伦理准则》,期望建立“以人为本、值得信任”的AI伦理标准,促进社会公众接受并应用AI技术,本伦理准则确立了AI应当符合法律规定、AI应当满足伦理原则、AI应当具有可靠性等三项基本原则[2]。同时提出“可信任的AI”应当满足的七项关键要求,包括:人的自主和监督,可靠性和安全性,隐私和数据治理,透明度,多样性、非歧视性和公平性、社会和环境福祉、可追责性[2]。与此同时,国家互联网信息办公室发布的《网络信息内容生态治理规定》,在强调政府、企业、社会、网民等主体共同治理网络信息内容的同时,也及时回应了算法推荐、深度伪造、流量造假、网络暴力等热点问题[3]。

AI技术的发展为图书馆的智慧化服务提供了契机。AI技术在图书馆的应用包括专家系统、自然语言的处理、模式的识别、机器学习与机器人参考咨询服务、编目、分类、资源购置、叙词表构建、自动索引、信息检索、流通服务以及图书馆自动化服务等方面[4]。2003年5月,中国图书馆学会正式发布了《中国图书馆员职业道德准则(试行)》,以维护事业持续与健康发展[5]。虽然目前AI技术在智慧图书馆的应用处于初级阶段,对“智慧图书馆”也提出了一系列的期望、愿景[6],但是AI技术的应用仍然需要顾及伦理、道德以及图书馆的传统服务理念,在图书馆技术创新与服务创新中需要对AI等新技术应用加以规范约束,从而促进智慧图书馆的健康发展。

2 《人工智能伦理准则》的内涵与核心要素

2019年,国际图联大会(International Federation of library Associations and Institutions,IFLA)组织举办的世界图书馆和信息大会会前卫星会议信息技术分会就“机器人在图书馆:挑战或机遇”进行了探讨[7]。随着AI技术在文献资源智能化的组织与标识、互联网门户平台咨询的智能化问答等方面日益深入,其与传统伦理道德的冲突也不可回避,《人工智能伦理准则》为智慧图书馆服务创新提供了伦理规范的参考依据。

2.1 《人工智能伦理准则》的内涵

《欧盟人工智能战略》指出,AI应当坚持“以人为本”的价值观,认为AI本身并不是目的,仅作为服务人类的工具。因此,《人工智能伦理准则》的内涵包括以人为本的价值观以及工具论等方面。“可信任”是确保AI“以人为本”价值观的关键所在,AI应尊重人的基本权利,作为工具帮助人类,而不是奴役人类甚至取代人类。为了加强对AI的监管,欧盟先后制定了《一般数据保护条例》(General DataProtection Regulation,GDPR)以及《非个人数据自由流动条例》,前者确立个人数据的安全保护制度,后者则消除了数据共享的障碍等。AI最大的特点就是机器的自主学习,在无人工干预的情况下自主判断与执行。以数据、算法与算力(计算能力)为支撑的AI基础也存在着不可信任因素,其数据的不完整性,会导致人们的偏见和质疑。因此,为了实现“可信任AI”,该伦理准则确立了三项基本原则[2]:AI应当符合法律规定;AI应当满足伦理原则;AI应当具有可靠性。AI应用效果或者引发危机的影响随着场景的不同也存在着差异性,例如AI产品推荐服务比AI医疗诊断服务产生影响要小得多。

2.2 《人工智能伦理准则》的核心要素

AI技术带来的挑战无处不在,其中引发的伦理和道德危机也是学界探讨的热点。“可信任”“可控性”等一直让AI研究者们纠结,一方面,技术创新支持者热衷于利用新技术、新方法对现有的社会服务体制与方法加以拓展、升华,进一步解放生产力,从而促进社会的发展;另一方面,传统的捍卫者则更多地从“以人为中心”角度对技术创新可能带来的伦理和道德危机,尤其是替代人类思考、决断等行为表示担忧。人的能动与监督,可靠性和安全性,隐私与数据治理,透明度,多样性、非歧视性和公平性,社会和环境福祉,可追责性等七项要求,成为《人工智能伦理准则》得以落实的关键所在,也是AI获得社会普遍认可的重要因素。

图书馆信息服务同样存在着伦理道德问题,其中图书馆信息伦理包括隐私权的侵犯、知识产权的侵犯以及对读者的歧视等,行业自律与职业伦理教育成为解决伦理道德问题的主要对策[8]。图书馆对伦理道德的研究由来已久,并制定了相应的对策机制,如建立信息伦理原则体系、制度规范保障、加强用户信息伦理建设以及馆员职业道德与职业伦理建设、建立审查机制、利用技术方法和推进信息立法等[9]。图书馆智慧服务发展不仅是技术的迭代升级,也涉及传统服务模式的转变,届时人工干预的服务将逐渐减少,以数据决策为基础的智慧服务逐渐取代传统服务成为主要的服务模式,而这些都需要数据规范、隐私规范等制度加以约束。AI作为数据分析的执行工具,也需要进一步制度化、规范化,《人工智能伦理准则》则可以为图书馆AI治理提供参考依据。

3 智慧图书馆AI伦理治理依据与机制

3.1 智慧图书馆AI伦理治理依据

互联网信息技术的普及与发展使传统的伦理问题陷入困境,并且变得越来越复杂。图书馆的文献资源服务依靠信息技术开展,因此图书馆迫切需要适用于图书馆技术创新的伦理准则与规范的制度保障。Judd提出了信息时代提高伦理道德的三个准则:责任、预见、正义原则指导公平[10]。Severson则探讨了信息伦理四原则:知识产权的尊重、隐私的尊重、公平参与以及无害[11]。图书馆领域的专家和学者也不断从信息伦理准则研究视角提出加强图书馆读者信息伦理及馆员职业道德建设等措施,对规范图书馆行为以及提高读者信息伦理意识起到了一定的作用。当图书馆进入“智慧”时代,复杂的技术创新环境给各种伦理规范的制定带来新的挑战,因此,欧盟颁布的《人工智能伦理准则》对AI发展政策具有重要的参考价值。“可信任”是AI是否适应社会发展的基本要求,虽然该伦理准则不具备法律约束力,但是在安全问题、个人数据保护、隐私保护以及环境保护等方面已经在其他的相关法律中做了一些规定。

3.2 智慧图书馆AI伦理治理机制

国务院发布的《新一代人工智能发展规划》明确提出了到2030年我国人工智能发展的“三步走”目标,在发展的每一个阶段,人工智能法律法规、伦理道德规范和政策体系的逐步建立与完善都是必不可少的重要内容。面对AI时代崛起的治理挑战,如何重构治理体系、创新治理机制、发展治理工具,是摆在决策者面前的重要难题[12]。西方社会的传统道德理论“义务论、功利论、权利论”为智慧图书馆伦理研究提供了重要思想。Anderson对信息人员的系统设计、交易与使用过程涉及的伦理问题进行了大量的研究,并围绕伦理理论对信息人员作出基于伦理准则的限定[13]。Johnson对信息伦理、信息系统与信息技术三者之间的关系进行了阐述与研究[14]。《人工智能伦理准则》的“可信任”价值观为智慧图书馆AI伦理治理机制框架的建立以及治理路径选择提供了参考依据(见图1)。

图1 智慧图书馆AI伦理治理机制框架

4 智慧图书馆AI伦理治理路径

4.1 馆员与用户共同参与的监督机制构建

人的主观能动性是“以人为本”价值观的具体表现,而图书馆长期以来坚持“以读者为中心”的服务理念,也是秉承此价值观,无论是数字图书馆时代还是未来的智慧图书馆时代,这个理念将会继续延续。智慧图书馆是复杂的有机体,既包括技术创新引发的业务变革,也需要相应的制度完善来约束过度创新造成的伦理和道德危机。AI时代,智慧图书馆需要保持人的主体性,同时AI技术的应用也要增强人的自主性,保障人的基本权利,帮助图书馆馆员基于业务需要及用户需求等目标作出便捷、人性化的选择,从而提升图书馆智慧服务效率。无论是馆员对AI的全面监督,还是用户对AI实施过程和结果的监督,这些都是为了确保AI不会降低人的自主性,或者因此带来的其他负面影响。虽然AI最终的目标是降低或消除人类对系统的干预,但是从伦理角度来考虑,实施适当控制措施还是有必要的。AI技术在应用推广前需要经过测试与管理,但是在复杂的互联网环境,任何组织和个人都无法保证其可控性。图书馆对AI的监督可以通过治理机制来实现,如人机(控)回环等方式。此外,行业内部、公共管理部门等执法机构根据相关法律法规拥有对整个AI项目的监管权。

4.2 技术可靠性验证与环境的安全性保障

“可信任”的技术才能促进创新发展。AI技术要求其内部所使用的算法要具备可靠性与安全性,这就要求在设计的“算力”范围内完全能够应对、处理整个生命周期的数据以及自身引起的各类错误结果。AI技术的可靠性与安全性也同样要求其具有防御来自外部攻击与干扰的能力,包括外部网络攻击的公开行为以及数据控制争夺权算法等隐蔽行为。AI技术的可信任取决于分析结果的准确,或者能够正确反映其准确率,其结果具备科学性、可重复性等。在设计、测试过程中,AI也应该遵循每项运行步骤所具备的可验证安全性,即AI在正式运行过程中,意外和错误出现的处理方式也必须是及时的、最小化的、可逆的。AI技术在图书馆智慧服务中的应用涉及用户数据安全与隐私保护问题,需要技术可靠性验证以及环境安全性的保障。AI在智慧图书馆中应用的可靠性与安全性需要馆员和用户对系统运行的异常行为进行分析,并根据事先建立的评估程序进行潜在风险的规避,从而进一步完善AI应用效能。

4.3 构建隐私保护与数据治理协同机制

当前AI伦理主要讨论技术设计者和使用者等主体的道德责任问题[15]。由于利益驱动是造成伦理问题出现的重要因素,因此图书馆在引入AI技术进行技术创新和服务提升的同时,应当主动承担相应的道德责任。AI不仅可以帮助图书馆掌握用户的需求和偏好,还可以通过特定的分析模型,推断出其他信息,如宗教信仰、政治观点等。推荐算法的治理已经逐步开始实践,如GDPR通过赋予用户选择与控制权力来解决用户画像与自动化决策过程中所涉及的隐私问题。图书馆应该占据AI技术在图书馆使用过程中的主导地位,从宏观、微观等多方面对AI的实施过程予以有效管理,如在数据处理过程中必须确保数据主体(用户)对涉及自身的数据拥有完整的控制权,并且保证用户不会因为这些数据造成伤害或者歧视。除了保护个人隐私数据外,AI应用效果的提升还需要一些外部条件的支持。对于指定的数据集,在使用特定的分析模型进行训练时,一些不能全面反映问题的数据集合需要予以调整,如拥有理工科背景的读者其阅读偏好并非理工类文献资源等。另外,AI应用存在数据的完整性挑战,其使用方法以及数据集在计划、训练、测试与应用过程中必须进行如实记录,并需要严格执行数据访问控制权限的划分。

4.4 实现业务流程与数据使用的透明性

AI与其他技术创新不同,其发展最终可能创造出与人类相同甚至超越人类智慧的自主性智慧体。因此,AI伦理问题也不同于其他伦理问题。错误是几乎可以让所有技术造成伤害的潜在威胁,对于AI来说,错误也许就是技术的本身[16]。技术设计与应用等传统伦理问题不再是AI关注的重点,实施整个业务流程体系的伦理自主性逐渐成为AI伦理所关注的焦点。所以,图书馆作为使用AI技术的主体,其业务流程以及数据使用的透明性也成为AI伦理问题的关键。AI时代,智慧图书馆服务应该要具有全流程的可追溯性机制,即图书馆要规范、如实记录系统中所做以及产生决定的全过程,如收集数据过程、数据标记过程以及选取的算法描述等。AI技术的应用必须为图书馆业务提供决策思路以及系统方案设计选择理由,这样才可以全面地保证数据与业务系统的透明性。AI技术在图书馆中的应用多数以商业领域成熟的实践案例为基础,进而拓展到相关业务的迭代与升级。使用场景的不一致容易导致AI能力存在不足,因此AI只有与业务进行有效融合,才能提升业务效能,这就需要图书馆不断进行完善,其中业务流程、数据使用的透明性是关键因素。总之,AI在图书馆的应用必须是可识别的,以保证使用者知道AI在与哪个系统进行交互操作,从而落实相应的责任。

4.5 确保数据多样性、非歧视性与公平性

AI需要大量的数据集进行训练,而训练数据与应用数据应该存在着相似性或者特征一致性,否则会影响应用效果。在复杂的大数据环境,数据集的选取方式至关重要。虽然AI的“能力警惕”概念一直存在争论,并且“我们应该避免关于未来AI上限过高的假设,但这些并未达成共识”[17],数据集(无论是训练“数据集”还是应用“数据集”)仍然存在着无意识的偏见,数据完整性和模型治理不准确等问题的存在会影响图书馆AI的应用效果。当然,图书馆作为AI应用的主体,始终需要保持中立,不能故意利用偏见或者从事一些容易造成不公平的行为,这些问题需要在AI设计、开发之初就应解决。因此,AI技术的应用需要图书馆进行统筹规划,做好技术团队建设,形成技术保障,这样才会尽可能避免上述问题的出现。图书馆还需要对AI生命周期内可能涉及的利益相关者不断进行咨询,如用户,传统服务商等。这些措施也有助于在公平性基础上实施AI的应用普及。AI在图书馆的应用开发也应考虑不同用户的能力与需求,以提升AI的易用性,如视障人士的阅读需求等。

4.6 增进图书馆社会与环境的福祉

AI安全与隐私保护问题主要是从个人角度进行考虑的。虽然AI伦理问题反复强调技术为人服务、“可信”于人,但是就促进社会发展而言,全局观也是我们要考虑的。对于图书馆而言,智慧服务可以提升整个图书馆的运行效率,也能够通过精准服务提升用户的满意度与忠诚度[18]。图书馆在AI行业标准缺失的情况下,需要借鉴《一般数据保护条例》(GDPR)以及《信息安全技术个人信息安全规范》等标准,同时运用自律与其他法律规范相结合的方式促进图书馆数据的规范化使用,以满足图书馆服务于社会需求。图书馆员、用户也应认真考虑AI应用对整个社会公共治理相关活动的影响,特别涉及数据决策和生态文明建设方面。此外AI在帮助图书馆提升服务水平的同时,也可能导致图书馆员某些技能的退化,如文献编目技能。因此,图书馆要对AI应用在馆员、用户所具有的专业技能的影响方面进行充分考虑。图书馆行业的自律管理机制在不断完善,图书馆用户获得最大的选择与控制权限,避免、限制虚假信息的传播,这都是未来图书馆技术创新过程中首要考虑的内容。

4.7 构建基于数据溯源的可追责机制

为了便于监督与管理AI在图书馆中的应用,应该制定数据溯源的规则,使AI成为具有可追责性的AI,这样才能够提升用户对图书馆的信任。因此,图书馆应当建立分级责任机制,确保行业监管、执法监管机构能够对AI应用及其结果进行追责。图书馆也需要由内部审核人员、外部审核人员组成评估小组对AI项目开展评估并出具相应的评估报告,这是保障用户以及相关人员能够对AI项目进行追责的关键因素。政府也应参与到对AI行业规范的制定中,政府的直接参与可以让图书馆AI可追责机制进一步规范化。当前,AI在赋能智慧图书馆的同时,也存在着一定的负面影响。因此,在AI项目实施之前,图书馆应该建立事前识别与评估机制,并在训练过程中及时优化模型,以降低风险系数。对于涉及用户隐私、个人权利的AI应用,应该确保其具有外部第三方审计的可行性,以保障用户、图书馆基本的权益不受侵害。

虽然目前AI在图书馆领域的应用仅限于智能问答系统、文献资源自动标引等具体业务,并未支撑起以大数据作为分析对象的全面的智慧服务系统,但是图书馆应该从设计层面加以考虑,并从制度层面、伦理角度以及技术层面等方面与业务实现有效融合,以规避可能存在的伦理“空场”、个人主义、自由与尊严、隐私与安全等问题,做到逐一排查并制定相应的预警方案,降低AI可能产生伦理危机的风险。在这些方面,《人工智能伦理准则》的七项要求为智慧图书馆伦理规范制度框架的制定提供了参考依据。

5 结论与展望

图书馆是一个公共服务机构,“以读者为中心”的服务理念与AI“以人为本”的伦理准则存在着相似性。引入“可信任”的AI应用,是实现智慧服务的重要途径之一。图书馆AI应用无论是从训练数据的选取,还是模型的设计,都要考虑伦理规范,并与利益相关者(如用户、馆员、开发者)以及公共监管机构联合开展评估与反馈。图书馆需要通过群体协商的方式加强认识,完善技术方案,弥补可能存在伦理失范的漏洞,并且要与时俱进,对于新技术、新方法的引入与传统业务产生的冲突进行不断调和,通过完善制度体系来约束新技术、新方法所引发的伦理道德问题。

猜你喜欢

准则伦理人工智能
《心之死》的趣味与伦理焦虑
灵长类生物医学前沿探索中的伦理思考
IAASB针对较不复杂实体审计新准则文本公开征求意见
护生眼中的伦理修养
2019:人工智能
人工智能与就业
伦理批评与文学伦理学
内部审计增加组织价值——基于《中国内部审计准则》的修订分析
数读人工智能
下一幕,人工智能!