APP下载

人工智能医学伦理问题及对策研究*

2020-02-16

医学与哲学 2020年13期
关键词:伦理医学人工智能

张 荣 徐 飞

1 医学伦理问题刍议

医学智能体是集基础医学、临床医学、基因学、计算机科学、信号分析、控制论、心理学、伦理学于一体的综合性交叉学科。作为医生智慧在机器上的延伸,医学智能体通过研究智能的实质并模拟医生的思维与行为,让机器具备识别、归纳推理、决策分析的高层次功能[1]。本质上,医学智能体是人工智能的一个分支,其研究的主要目标是使机器能够代替医生完成复杂而繁琐的工作,如医学影像分析、医学诊断、疾病预测、图像分析(放射学、组织学)、健康管理等[2]。

自1956年提出人工智能一词开始,人工智能已经逐渐浸入到医学领域的方方面面,并为人类的健康管理与疾病诊断带来极大的便利。创业公司Enlitic研制基于深度学习的癌症检测系统,在胸部CT影像上的肺癌检出率超过医生;同时,该系统从数十亿个既往临床案例中提取医学界专家的治疗方案,通过深度学习网络检查数百万幅医学影像,以达到自动识别疾病并作出诊断的效果[3];IBM设计的Watson系统则通过学习大量数据和经验,从而分析病人的医学信息,帮助医生制定可靠的医疗方案;国内视见医疗推出的人工智能放射辅助诊断系统、人工智能放疗辅助勾勒系统和人工智能病理辅助诊断系统,可以自动对病灶进行标注,并自动完成病灶定性诊断、定量分析及三维建模,以及提供治疗策略、病情发展预测等,从而帮助医生更加高效、准确地完成病症诊断和治疗方案设计。医疗领域深度学习公司Airdoc目前已经掌握了世界领先的影像识别能力,结合数学、医学知识和深度学习算法后,在人类医学专家的帮助下,在心血管、肿瘤、神经、五官等领域建立了多个精准深度学习医学辅助诊断模型,取得了良好的进展[4]。可以看出,经过近两年的发展,基于深度学习的医学影像辅助诊断技术在某些特定病症上已经达到和多年临床医生相当的水平,而且处理速度要快很多。以深度学习为代表的人工智能技术在大数据和高性能处理器的驱动下,能够从复杂环境中选择最合理的行为,获得最优的结果。另一方面,大数据的建立有利于构建智能算法训练、学习与测试的基础。大数据平台以智能算法为核心,通过实时获取临床与非临床数据,并通过大数据建模分析,对人类的器官组织进行全方位建模,对目标器官建立深度感知,有利于帮助医生建立智能辅助诊断和精准需求数据库,实现真正的智能医学诊治。

人工智能是客观物质世界发展到一定阶段的产物,本质上也是一种生产力,在造福人类的同时,也产生了危及人类的各种不良后果。在智慧医疗领域,医疗大数据在辅助诊断、精准医疗和疾病风险评估与预测等方面发挥了巨大作用,但同时也引发了数据安全、隐私窥视、数据独裁、数据主体自主权不足和社会不公平加剧等伦理风险和社会问题[5]。

医学大数据的最大贡献之一是促进了智能医学的发展。国内外科研机构已经针对不同的疾病建立了大量的数据集,并随着5G网络的普及,更多更大的数据集将建立起来。例如,与肺癌相关的大数据包括临床数据、CT/MRI/PET影像数据、基因数据、病理数据、电子病历等。根据最近的系统文献回顾分析可知,大多数肺癌大数据来自临床,其余数据则是由基因学和放射影像组成[5]。这些数据来源、类别、形式多种多样,呈现信息互补、多模态及深层次的特征,且数据的收集、处理和存储过程中也存在隐私泄露的伦理风险。尤其是在涉及诸如健康信息之类的敏感数据时,患者会担心信息的泄露可能导致保险公司或雇主获得歧视信息。实际上,这也是医疗大数据伦理领域面对的主要问题[6]。也就是说,智能医学的应用必须基于基本的道德价值观,例如自治、人性、尊严和尊重。

保护隐私必须是智能医学领域各个层面设计的一部分,它包括信息的可靠性、完整性和可用性。侵犯隐私权包括在数据获取、发布和使用过程中的侵权行为,以及未能保护数据泄露的行为[7]。传统意义上理解的隐私权表示能够单独或者与其他信息结合识别特定自然人的各种信息,适用于与可识别的自然人相关联的数据。如果无法从某些数据中识别出相应的个人,则该信息不再被视为个人信息,大多数隐私条款也不再不适用。因此,数据伦理的一个普遍规则是,在共享数据之前,必须删除任何标识信息,以防止身份泄露。然而,智能医学研究过程中匿名化数据阻碍了算法仿真与工程应用的发展。因此,在大数据分析中,必须确保知情同意。信息大数据是为了揭示以前没有发现的规律,找到最本质的特征。医疗大数据智能分析在未来疾病诊断方面具有较高的价值,但是数据伦理要求从特定目的的协议转向透明和有效的数据治理。

总的来说,人工智能的发展不仅改变了人类的生活方式,而且改变了其生产方式,对社会结构、经济生产和科技伦理产生不可忽视的困难与挑战。然而,由于现有的科技伦理理论仍然需要进行大量的测试,因此目前集中研究这个问题也绝非易事。本文将根据现有的科学研究成果,分析如何将科技实践与伦理实践进行整合,并采取相应措施以防止智能系统超出人类控制。在此基础上,进一步探讨了人工智能技术发展和设计中的伦理考虑,为研究人员在人工智能设计中提供了伦理性考虑的指导标准。

2 基于机器学习的智能医学及其伦理问题

目前,人工智能算法的智力水平与医生智力水平相当,甚至更高,但其算法也仅限于某一个领域。例如:台大医院开发的“骨髓抹片AI自动分类计数系统”是一款针对骨髓抹片分析的智能影像分析系统,其计算时间比人工减少50%,准确率增加12%,其上线以来大大提高了检验科效率。然而,该系统仅仅用于骨髓抹片,不能直接用于血液检验。先进的认知技能可以使人工智能比人类更好地执行任务。人工智能在新领域的应用可以为医疗诊断、疾病筛查及信息化建设带来有效的、更安全甚至是令人惊讶的成就,同时也可以大规模地提高生产力。然而,当人工智能的认知操作在医疗领域里实现时,新的挑战也会随机产生。

尽管智能医学的应用前景广阔,但在操作过程中仍然出现了伦理问题。正如之前描述的那样,伦理规范是一项艰难的工作,大数据分析和人工智能处理的发展使之更加复杂。许多智能算法都是一个“黑匣子”;也就是说,模型受各种参数和海量输入数据驱动,但用户并不清楚如何获得输出。在很多情况下,这并不是因为缺乏专业知识,而是因为医学智能体执行过程很难用人类的语言描述和解释,并且智能分析的输出能够获得意想不到的结论。因此,如果不能向患者充分解释机器的使用方法,很难获得患者的同意。此外,如果患者不信任医学智能体的诊断过程,他们可能希望展示算法是如何做出某个决定的,这在某些情况下可能被证明是不可能的。

电气和电子工程师协会(IEEE)全球伦理倡议声明[6],“最近在机器学习和感知方面的突破将使研究人员能够探索到自下而上的智能体设计方法,而在这个过程中,人工智能系统学习其环境和人类价值观,和一个孩子慢慢学会某些行为相类似,而这一过程是安全和可以接受的”。机器学习算法已被证实在识别和分析大数据模型方面很有效。利用大数据训练认知算法,可提高其识别能力和性能。众所周知,传统的计算机算法可以分析大量数据,并根据程序员创建的特定指令和规则执行相应的信息处理和服务。机器学习通常是一组规则和指令,以算法的形式编写,使机器按照特定的模式逐步执行任务;然而,通过使用新获得的数据并优化出新的指令和步骤来执行非特定任务,计算机逐渐获得更灵活的能力,并可以相应地在不同的情况下工作[3]。目前,机器学习已经在许多领域和产品中得到了应用,因此在对数据收集及数据处理上产生了更多需求,同时增加了以牺牲用户隐私和过度分享个人或公众信息的风险。对于人工智能使用过程中,提供特定领域下的透明数据用以评估性能是很必要的,因此数据训练与测试过程中伦理价值观和应用规范之间的冲突不可避免。若系统的算法是用大数据训练和选择优化来实现,当数据质量低,垃圾数据多时,再科学的算法也不能得到科学的决策。因此,如何在人工智能视域下将伦理实践与科技实践进行有效融合,是科学实践下哲学路径的重要研究方向。接下来,本文将对人工智能的发展对医学领域的影响以及应用中的潜在伦理问题进行分析。

2.1 人工智能的发展对医学伦理的影响

1950年,艾伦·图灵编写并出版了《曼彻斯特电子计算机程序员手册》,为人工智能的出现奠定了基础[7]。近70年的发展,人工智能已经根植于医学领域,给患者、医生与医院都带来了极大的便利。人工智能与医学的结合,极大地提高诊断效率,减少人为失误。然而,人工智能的飞速发展与伦理研究滞后的矛盾,使得人工智能产生很多伦理问题,既影响人工智能的发展,也给人类带来危害。同时,由于人工智能存在于人类社会各个领域,在某些方面它们的智力和解决问题的能力甚至超过了人类,因此,不断增长和进化的人工智能也对人类社会引发了许多伦理争议。本文着重讨论了与人工智能相关的伦理问题,包括现存及潜在的伦理问题。

创新和发展提高了人类认识世界与改造世界能力,并加快了科技的进步。因此,伦理学家有理由对人工智能的未来表示担忧,同时他们也担心任由人工智能技术不加约束地发展可能产生种种灾难性后果。图灵测试给我们提供了一些关键线索,我们可以利用这些关键点为基础对“机器会思考吗?”这一概念进行定义。试验发现被测试者可以提问、与测试者交谈、回答测试者问题。为使计算机通过图灵测试, 测试人员只有在不能分辨答案是否是由机器或人类给出时才算机器通过测试,因此,物理特性的缺乏和机器如何模仿人类这些问题就更让人迷惑。图灵测试的结果说明一个复杂的人工智能可能拥有意识。这与我们对人性的定义相矛盾,因为我们只认为人类自己是一种有思想的生物,是遵循着来自于我们的经验和大脑组织的道德准则、价值观和自由意识进行生活的生物。

在人工智能中设计一个特定的行为规范很重要,若某个行为可能伤害到人类,该系统是绝对不允许上线的。人工智能的可预测性特征对达芬奇手术机器人的使用维护与操作流程很重要,因为智能手术系统设计的理念是通过使用微创的方法,实施复杂的外科手术,其主要目的是提供给医院与患者一个支持性的环境,让患者能够享受平等的治疗与高效率的服务。另一个重要的方面则是人工智能需要建立强大的防御特征以对抗误操作和恶意编程。例如,手术导航系统在自动定位识别病灶过程中,系统执行的每一条指令都必须多方审查,避免模糊逻辑导致误操作。智能体是一种模仿人类操作行为的实体,具有独立自主的行为逻辑。仅仅靠代码审查,只能是代码角度满足编码规范,很难确定代码背后系统的行为模式。现有的智能设备都存在一个中央控制器来感知行为趋势,通过推断行为的未知后果来响应操作流程。这种模式构建的人工智能可应用在诸多需要特定行为的领域,且这些行为所带来的后果均是安全的。也就是说,若特定场景设计的智能体满足行为规范,其自主行为模式趋势可控、准确与有效,该智能体完全可以替换人类从事特定的工作。一旦智能体从事着核心任务,人类智能辅助智能体完成相应辅助工作,最终将演变成智能体与人类的主体争论问题。例如,在医学领域,若智能体的行为模式满足诊治要求,这就存在智能体与医护的主体争论问题。另一方面,人工智能算法在设计上可能会出现错误,导致基于种族和社会经济阶层方面不公正的结果。因此,可供人类信赖的人工智能系统应该遵循以下准则:(1)透明度 (用户可见性操作);(2)可信度 (结果的可接受);(3)可审核性 (效率的易测量);(4)可靠性 (对抗性攻击的稳定性);(5)可恢复性 (系统逆向兼容)。

针对人工智能的所有应用,确保人工智能在规范和伦理下研究的兼容性则非常有必要。来自不同领域的科学家和研究人员,如,生物医学领域、心理学、伦理学、经济学、法律和政策领域人员,均需参与到人工智能的开发中来,确定公平、公正和平等规范的概念,确定人工智能在特定领域使用的可接受性和安全性,从而确保社会对人工智能行为的可预见性与可理解性[8]。

2.2 智能医学的潜在伦理问题

尽管人工智能医学实践过程中伦理实践需求也在增强,各学术机构也在积极制定伦理准则,到目前为止仍然没有一个广泛共识的伦理实践指导规范。虽然各地政府制定了许多科技伦理风险评估和伦理审查机制,但多数监管流于形式,并没有将抽象的伦理原则和规范体系落实到伦理实践和技术细节中。技术专家在科技实践过程中遇到的伦理问题大都靠自身的伦理底线和价值尺度进行把控,但若不对技术伦理规范进行约束,任其发展,其后果可能摧毁人类的生存与社会秩序。伦理实践是科技实践必须遵循的价值准则。只有让伦理实践具备可操作性,才能引导科学实践活动始终向善。

人工智能伦理实践操作需要全人类各界人士进行充分讨论、凝聚共识。只有将技术实践与伦理实践有效地融合,才能为全人类带来福祉。伦理实践和科技实践并不是零和博弈,也不是某种阻碍关系,而是一种相互制约,彼此影响的关系。伦理实践为科技实践保驾护航,科技实践为伦理实践提供数据支撑。当科技实践展示出造福人类的特点时,伦理实践就会做出让步,调整部分规则,例如仿生手臂、人工义眼;当科技实践涉及到人类根本利益时,伦理则就会有绝不让步的地方,比如说克隆人。

众所周知,大数据是人工智能的土壤,而算法是产生人工智能的直接工具。人工智能的发展离不开大数据的驱动。目前,智能医学的算法正在以前所未有的速度收集与健康相关的临床与非临床数据。患者生成的海量临床数据有助于疾病诊断算法模型的训练与学习,医疗设备的广泛使用使得数据获取的门槛大大降低;尤其是5G网络的普及,以可穿戴设备为代表的边缘网络采集了大量的人体非临床数据,进一步促进了医学智能体全面测试与性能提升。大数据和智能信号处理在医学领域的广泛应用,特别是医学智能体的出现,为实现精准医疗国家战略奠定了基础。尽管智能医学存在着巨大潜力,但通过大数据驱动的智能算法仍然受到若干挑战的阻碍。智能医学除了克服性能、操作上的障碍,还必须形成广泛的伦理共识和监管规范。由于智能医学本质上是跨学科领域,在没有监督的情况下将大数据引入智能医学可能会导致数据主体和患者的伤害和利用。随着技术的进步,医学智能体的性能也将逐渐提升,同时引发伦理风险和社会问题,因此智能医学的道德反思是非常必要的。这也是确保新兴技术在伦理冲突中以有益的人类的方式运行,也是确保新兴技术实现为所有人,特别是穷人带来更好诊治与健康管理方法。

随着越来越详细的多模态数据不断积累,算法性能也在不断改进。虽然智能化与数字化的疾病诊治加速了精确治疗的落地,其结果也令人兴奋,但医生在医疗互动中所做的远不止简单地应用医疗知识,给患者进行诊治。智能医疗改变了医患关系的伦理价值,将智能算法引入临床诊治意味着临床环境中的中心关系从患者-医生到患者-医学智能体之间转换。因此,诚信、责任、义务的概念变得不确定,这种医患关系转移可能会对医疗服务产生负面影响。

在医学研究方面,大数据驱动的医学智能体能够对疾病的不同方面进行大规模测试与评价。对患者本身来说,他们提供的实时医学数据作为直接激励,能直接促进智能算法的发展。然而,患者自身的数据超出了现有隐私规定的范围,也超出了数据获取的规定范围,这可能会使人们对信息的质量和可用性产生怀疑。

与大数据相关的伦理问题已经被广泛讨论过,但在智能医学方面讨论较少。随着人工智能技术的蓬勃发展,国内外学者对其引发的伦理问题进行了梳理,大致可以分为五个方面:(1)人工智能技术会影响经济发展与社会就业[9];(2)智能体的主体资格[10];(3)人工智能对人权和隐私的侵犯及人类能力的侵蚀;(4)人权、道德、责任、环境等伦理问题;(5)人工智能的技术奇点不可控问题[11]。由于目前人工智能应用遇到的伦理问题大都是在实践过程中产生,而不是技术本身具备的伦理问题。其伦理实践过程与非技术领域专家遇到的伦理问题类似,也就是说目前人工智能领域遇到的伦理实践是能够以现有的伦理理论为指导。但目前技术领域没有满足实际应用的伦理实践操作规范,主要归咎于技术专家对伦理、法务、哲学、心理学等领域了解不够,且没有形成统一的框架。只有将技术专家与多学科研究人员一起形成制导性框架,然后以自律的形式实施,才是目前解决人工智能伦理问题的关键。

3 智能医学现实伦理冲突案例分析

人工智能领域出现的伦理问题可以归结为科技实践与伦理实践的不匹配问题,只有两者有效融合才能助力人工智能发展朝着服务全人类前进。荷兰特温特大学哲学系Verbeek教授在《将技术道德化—理解与设计物的道德》[12]一书中对技术人工物和伦理道德关系进行了分析,提出了著名的技术道德化的论断。任何产品的开发都是注入了开发者的设计思想,具有明显的意向性,反应了某种需求目的。例如,腹部CT影像智能辅助肿瘤检测分析助手只能对占位性肿瘤进行检测,对明显的血管内皮细胞瘤却视而不见。虽然医疗智能体并不是全能的,只能对特定领域的任务进行处理。一旦其出现漏检导致患者病情加重或死亡,其主体并不会因为漏检而伤心。在关乎生与死的问题上,患者仍然希望由医生来做决定,而不是依赖于智能体的诊断。在实际应用过程中,设计者是将人类的伦理道德思想物化到智能体中,也就是说对于人类进行约束的伦理实践准则就可以转变成对智能体的伦理嵌入。

智能体通过大数据驱动下才能逐渐逼近人类的操作效果,但其功能有限。然而,由于智能体具有识别、分析与推理能力, 其行为模式必定与人类伦理存在冲突。因此,在设计之初就应该评估其能引发的伦理道德风险,从设计源头进行规范。技术实践就是通过智能技术把伦理规范与道德准则物化为智能体,促进伦理重构。只有在技术实践中融合伦理实践,才能有效防范智能体所引发的伦理风险意识。智能体是一种具有自主独立思想,可与环境交互的实体,由数据库、代码、硬件平台、机械结构等组成,通过下载不同的可执行程序实现各种功能,其技术实践与使用场景密切相关[13]。只有梳理智能体的使用场景,对其在使用过程中的伦理风险进行深入分析,才能在技术实践中将价值观、道德规范、伦理准则等注入到智能体中。同时,智能体的设计体现了设计者的个人意志,其对智能体的设计原理、算法模型和操作流程具有主导权。然而,在用户端,设计者很难掌控用户的使用行为,其所引发的伦理风险不易掌握。例如,基因组学领域的突变基因筛查系统,可以对患者的DNA采样进行连续检测,以找到与癌症相关的典型突变,并将这些突变与数据库中已知的实例进行比对,提升癌症诊断治疗的效率。然而,一旦将此技术用于基因改造,人类无形中扮演了上帝的角色。可以看出,智能体与环境交互过程中出现的伦理风险是无法掌控的。用户并不清楚智能体是否存在不可控的伦理风险;设计者也不清楚用户是否会将智能体置于伦理风险当中。两者的隔离导致智能产品不敢轻易落地。用户不敢轻易尝试具备伦理道德风险的智能产品,而设计者不敢轻易将智能产品推向市场[13]。若能将技术实践与伦理实践进行融合,对设计端的技术思路与伦理规范进行约束,做到全程可追溯;对用户端的使用场景进行监控,同时智能产品由足够的自监督能力防止其置于伦理风险中[14]。用户在使用智能体的过程可以看做是伦理实践的过程,一旦使用者具备的伦理道德素养与设计者注入到智能体的伦理思想不匹配,智能体应当具备不执行相应指令的能力。

智能体的设计主要来自设计者的科技实践,其正常使用过程中出现的任何伦理风险,其责任归于设计者。设计者对其产品的注入的伦理思想,需要经各方同意的伦理规范下进行,具备可操作性、追溯性与可控性。设计者不仅需要具备精湛的技术水平,还应充分认识到智能体使用过程中出现的伦理风险,并将相应的伦理思想注入到产品中。用户操作智能体时需严格按照用户手册,并在合理合规场景下使用。用户的使用过程也是其伦理实践的过程,用户知晓任何超出使用范围出现的伦理风险,其用户需承担主要责任。

4 科技实践下的智能医学伦理规范刍议

人工智能是一把双刃剑,科技实践与伦理实践的有效结合与匹配,是平衡创新与风险,充分发挥正效应,有效规避负效应,促进人工智能健康发展的关键。如何在设计端或用户端建立健全可操作的理论规范显得尤为重要。

4.1 以人为本原则

医学智能技术的发展应当以增强公众福祉,赋能国家发展和造福人类社会为目的[15]。医疗智能技术的应用和推广可以提升医疗卫生单位诊断流程的自动化、智能化程度,增强医疗卫生单位的可视化和智能化诊断水平,降低病患的就诊成本,提高就诊速度,实现就诊过程的信息全记录和可追溯,避免医闹事件的发生,从而为医疗设备企业带来显著的经济效益提升,为医疗单位带来业务水平的全面升级。智能产品促进了技术的变革与生产力的提高,并把医生从繁重的低效率的工作中解放出来,提高医疗诊断效率,但也可能带来不可预测的消极影响。无论是设计端的设计者,还是用户端的消费者,在科技实践与伦理实践过程中都必须以人为本,坚持符合科技与伦理实践的发展观,设计者将以人为本的思想注入到设计中,用户采用以人为本的思想操作智能设备,最大化地保护人类的生命安全与道德底线,不应破坏社会公正与和谐。

4.2 人机和谐原则

随着科技的发展与技术的进步,人工智能技术不断迭代升级,其性能指标与用户体验也在逐渐提升[16]。由于人工智能算法是一种大数据驱动的自学习优化算法,其本身也存在不确定性与不可靠性,虽然一定程度上促进了技术的进步,但也将影响用户体验。因此,科技实践过程中,科技人员应当以严谨的态度、高度的责任心参与设计,使得设计的产品与人类和谐共生。人工智能系统开发过程必须考虑与人类价值观的兼容性,并遵循特定的行为准则。在使用医疗智能体时,必须认识到信任的重要性,并认识到安全指导和伦理发展实践的重要性,及人工智能管理的重要性,如确保数据、算法和系统完整性以及对隐私和个人信息保护的重要性。

4.3 公开透明原则

科技实践过程的设计智能产品,其灵魂是算法模型。由于算法的不可及性、不可理解性以及价值负载性容易使人们对算法产生信任危机,进行影响智能产品的体验[17]。科技实践全程受控且可追溯,是实现公开透明原则的基础。该原则要求设计者在科技实践中对其数据来源、算法模型与处理机制进行合法、公正和客观的公开;用户在使用过程中也需要全程记录日志,必要时将数据上报到服务器供大数据分析,具备处理历史数据、行为追踪等功能[15]。透明的医疗诊断技术应用也会使得就诊患者受益良多。比如就诊过程的即时跟踪可以让病患对整个就诊过程全透明的可追溯,一旦发生医疗纠纷可迅速排查责任方并确定赔偿事宜;辅助诊断系统的应用,全面提升了初诊的正确率,提高了患者的满意度。这些有利因素都将进一步促进辅助诊断医疗市场的良性发展,最终对我国卫生医疗事业产生积极作用。

4.4 强化伦理责任原则

科技的发展离不开设计者对技术的调控,设计者是产品开发的责任主体,管理与掌握着技术实践过程中的伦理方向,只有将伦理意识内化于心,外化于行,才能为产品注入符合规范要求的伦理意识。科技的双刃性取决于人,而不取决于工具。科技实践过程中设计者必须树立强烈的责任感与使命感。一旦设计者的责任感缺失容易导致技术不受控,造成较大的伦理风险。具体而言,用户与设计者需要自觉遵守伦理道德规范,自觉在合理权限范围内设计或者使用智能产品。对于用户而言,由于公众普遍存在保护意识淡薄、对风险感知不足、伦理道德修养缺失等问题,只有强化伦理责任意识,自觉提高科技素养和道德修养,才能获得最佳伦理实践。因此,提高设计师和用户双方的责任意识,对于解决智能应用中的社会伦理问题具有重大意义。

4.5 有效监管原则

智能医学算法的性能已经大大地提升,但由于缺乏算法理解和可解释机制,很难在临床环境中评估其诊治风险和优势,不利于临床医生进行辅助诊治或监管机构批准。即便监管机构批准医学智能体应用于临床,如何实现问责仍然是应用的关键。如果一台医学智能体在诊治过程中对患者造成了伤害,那么谁应该对此负责,如何赔偿损失等?一般来说,使用智能设备进行辅助诊断的医护人员不应完全脱离责任,但如果医疗系统确实依赖于技术,而不受外界干扰,最终责任程度可能是相对的。也就是说,事故责任可以分配给医生、开发人员和医疗机构。

另外, 数据可访问性是公平分配医疗资源的基础,这并不意味着数据由患者进行绝对控制。如果没有专业人员的指导,对原始数据不受限制地访问可能会造成算法的误解。相反,数据的可访问性必须有一定的限制。通过让患者积极参与成为决策过程的利益相关者,在伦理委员会与医学专家的专业知识辅助下,在数据主体与道德责任之间找到平衡,可以实现公正。大多数数据保护立法都隐含地将重点放在单独的数据主体上,使群体容易受到伤害[5]。即使是完全匿名的数据也有可能被区别对待,因为对一个群体的预测会影响到所有成员对个人身份的认知,这是因为该组的成员具有共享的标识符。群体层面的医学智能体和医学数据的相互依赖性表明,数据应该由患者群体而不是单个患者来控制,这与经典生物伦理学中规定的独立和自主决策原则背道而驰。

人工智能的研发、传播和应用过程中,构建和谐稳定的伦理标准与道德规范是实现以人为本、人机和谐的关键。对于开发者和设计者来说,需要关注的问题应是如何通过人工智能系统来预防意外和不可预见的行为发生。为了确保安全,设立委员会来审查资源和评估项目至关重要[18]。只有将公众利益摆在首位,构建监管机构,对涉及人工智能技术的单位与项目进行严格监督审查,确保其不会对社会发展造成影响,防止因技术滥用对人类造成伤害。由于科技实践与伦理实践能做到高度统一,一旦出现伦理社会问题,可以立即启动法律程序层层追责。

人工智能的发展,需要多方位多角度的监管机制进行约束,通过将抽象的伦理原则和规范体系转换伦理实践,引导科学实践活动始终向善,有效避免对人类社会造成伤害。国家间达成一致的“客观性”道德准则也许永远不可能实现,但其可以通过创造一个以常识为基础的伦理框架来解决,它可以识别需求从而运行某种道德价值,并且使其尽可能与我们人类社会兼容,进而减少国家间的疏远。但只有通过持续的道德评价和监测技术的不断发展,才有可能提供安全的措施来防止任何可能出现的直接或间接的威胁。

5 结语

随着人工智能系统逐渐应用到医学的各个领域,如何在避免潜在危险的同时最大化为医疗卫生服务是当前医学智能体发展不可避免的关键问题。人工智能系统开发过程必须考虑与人类价值观的兼容性,并遵循特定的行为准则,确保人工智能技术在伦理原则和道德价值观方面可与人类兼容。在使用人工智能时,必须认识到信任的重要性,以及安全指导和伦理发展实践的重要性。本文对目前人工智能场景进行了梳理,提出了可供人类信赖的人工智能系统应该遵循的准则。在此基础上,进一步探讨了医学智能体发展和设计中的伦理考虑,为研究人员在人工智能设计中提供了伦理性考虑的指导标准。

猜你喜欢

伦理医学人工智能
《心之死》的趣味与伦理焦虑
本刊可直接使用的医学缩略语(二)
医学的进步
预防新型冠状病毒, 你必须知道的事
护生眼中的伦理修养
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
医学、生命科学类