APP下载

人脸识别医学诊断的道德责任研究*

2023-01-03孙妍娇焦艳玲

中国医学伦理学 2022年2期
关键词:人脸识别机器医学

孙妍娇,焦艳玲

(天津医科大学医学人文学院,天津 300070,285282339@qq.com)

0 前言

随着生物识别技术的快速发展,人脸识别的应用越来越广泛。近十年来人脸识别更是进入医疗领域,为监测患者身体变化以及进行医学诊断提供辅助。通过获取患者面部某些标志点的具体数据,解析患者的面部表情,然后与疾病数据库里的信息进行比对,人脸识别医学诊断机器就可以确定患者的疾病类型。未来人脸识别在医学诊断上的应用能够有效缓解医疗资源不足和疾病诊断延迟等问题,并且它在一些疾病研究中的诊断正确率甚至比相应领域的专家还要高。因此,日后该技术有望大幅度提高疾病的早期筛查以及临床诊断的效率[1]。不过,人脸识别给医学诊断带来高效性与便利性的同时也附带了许多伦理风险,以至于不少学者认为,将人脸识别用于医学诊断是对现有的道德伦理体系发起的挑战。

1 人脸识别医学诊断的应用

疾病不仅会引起人体内在结构和生理功能的异常,还可能导致外貌上的改变,例如四肢躯干及面部特征发生较大改变。医学上早已发现,许多的疾病都会在患者脸部留下印记,这些独特的“脸部症状”为诊断疾病提供了重要的线索。医生可通过对患者面部特征的辨识,对特定疾病作出初步判断。在致使面部特征发生改变或畸形的疾病中,极具代表性的疾病有两种。第一种是内分泌疾病:患者受身体激素分泌异常的影响,面部特征的变化可能比较明显。例如,库欣综合征的患者会出现满月脸(即特征性面部肥胖,即脸似满月);肢端肥大症的患者变得前额斜长、鼻大唇厚;还有呆小症的患者鼻梁变塌扁、眼距增宽等。第二种是遗传病:不少遗传病患者具有先天性颅面部与全身畸形,例如特纳综合征、唐氏综合征、黏多糖贮积症和德朗热综合征等[2]。然而,由于医务人员经验不足,对繁杂疾病引起的面部变化辨识力不够,加上部分患者在疾病早期时的症状及面部特征变化不突出,导致医生诊断经常出现较长的延误期。人脸识别医学诊断的妙用,就在于将患者的人脸照片与已被确认患病的患者照片进行比对,根据患病的可能性,从高到低给出一系列潜在的诊断。

研究表明,随着人脸数据越来越完善,面部特征所对应的疾病关联会变得越来越明显,尤其是在遗传综合征(如德朗热综合征和唐氏综合征)和内分泌疾病(如库欣综合征和肢端肥大症)方面,人脸识别已经可以完成疾病筛查任务[3]。目前,科学家们正积极研究通过面部表情来进行自闭症的诊断。未来这项技术还可以扩大应用于更多的疾病,从而使疾病诊断的周期大幅缩短,为患者争取宝贵的治疗时间。

2 人脸识别医学诊断的道德风险

2.1 个人信息安全泄露风险

如今正处于人工智能辅助医疗技术飞速发展的阶段,医疗数据迎来了指数型增长。对于医疗大数据的广泛应用,一方面,它为现代智能医学的发展和进步创造了新的机遇和渠道,为临床精准诊断等医疗决策提供了有力的支撑;另一方面,人工智能时代下患者的信息安全遭遇重大泄露风险,尤其是人脸识别医学诊断过程中个人人脸信息的泄露风险较大。从AI换脸软件、通过盗取他人人脸信息来帮助无法完成账号实名认证的人完成实名认证的黑暗产业链等可以看出,个人人脸信息泄露问题逐渐加重,人脸识别技术的广泛与非理性应用严重侵扰了人们的信息安全。并且人脸信息亦可能捆绑着其他个人信息,比如个人姓名、家庭住址、身份证号码、行踪轨迹、通信方式、财产信息、健康生理信息等个人敏感信息。网络信息时代,个人隐私信息可能会经过上万次甚至千万次的泄露与传播。另外,个人信息的泄露不仅对自身有影响,还可能对群体的信息安全带来严重威胁。2019年有一起备受关注的安防领域的人工智能企业大规模信息泄露事件。该企业因内部数据库的安全防护缺失导致了250余万公民个人信息数据被不受限制访问。而一种基于 DNA 的新型人脸识别方法可以将探针 DNA 图谱与已知的面部图谱数据库相匹配,从已知身份的人脸信息中预测DNA信息,在验证模式下其实质性正确(83%,80%)超过错误(17%,20%)匹配[4]。倘若某个在群体中的核心或关键人物的DNA信息通过人脸信息被预测得知,其后果的严重性不言而喻。

2.2 对人类未来的挑战

人工智能在象棋比赛、医学诊断等方面表现突出,它甚至能够创造艺术作品、写稿件、产生论著等。人们不免会有这种疑问:未来人工智能是否能取代人类?比如进行医学诊断的智能医生,它可以被内置海量的医学知识,诊断过程快速高效,对疾病的诊断或预测精准度高。在诊断中,它甚至可以被设计得更加“礼貌”“耐心”。那么在未来智能医疗广泛应用的环境下,人们去医院就诊是否更乐意选择智能医生?面对便捷高效的人工智能诊断方式,人类医生是否会降低自身医学技术水平的要求而依赖于智能医生?久而久之,人类医生能力减弱、数量减少似乎是不可避免的。这不免引发了很多的伦理担忧:人类的自由、自主性和尊严等都会因此受到极大影响。这个问题激发了哲学界和科学界的热烈讨论。

不少学者面对人工智能的迅猛发展发出了“取代警告”。著名物理学家霍金曾发出警示:“人类自身由于缓慢的生物进化限制,很难与机器竞争,未来可能会被取代,全人工智能的发展可能导致人类的终结。”[5]埃隆·马斯克也认为人工智能是人类“最大的生存威胁”,并将发展人工智能说成是“召唤恶魔”[6]。学界对此展开热议,形成“取代论”和“否取代论”,而“取代论”依据强人工智能理论和AI技术奇点理论为自己立论,认为机器人比人脑有更多的优越性,通过全脑仿真或人脑复制,可以制造出仿人脑的智能机器。人工智能学家马文·明斯基曾说:“如果我们能制造一个和人一样聪明的机器人,那制造一个比人更聪明的机器人也没有什么不可能。”照此推论的话,人工智能发展的尽头似乎就是超过人类并有可能取代人类。因此,很多学者发声,在涉及人类尊严的领域和岗位,要减少或禁止人工智能踏入,谨防人工智能对人类主体地位的侵害。

2.3 道德责任划分问题

人工智能既可以由控制人员远程控制操作,也可以由具有自我学习能力的内置程序控制。马提亚提出,如果人工智能在自动控制下发生意外,该由谁负责?根据马提亚的分析,远程控制人员不应为此负责,因为他并未操作机器进行这次意外活动;而系统程序员也不应被指派为责任者,因为程序员编写的程序没有问题,并合乎规范地置于人工智能当中。也就是说,面对人工智能出现故障或对人类造成伤害时,现有的责任体系还无法指引我们找寻到责任方。

目前,学界仍然将人工智能作为人类的辅助医疗工具,对于人工智能引发的医疗损害责任承担问题上还未有明确规定。在人脸识别医学诊断的应用中,机器取代了先前由医生执行的某些任务,这无疑会极大地改变医生与患者之间的关系,意味着临床环境里的中心关系从患者与医生到患者与医学人工智能之间转换。诚信、责任、义务等概念变得模糊,从而也会改变医生与患者之间的道德责任划定。如果在人脸识别医学诊断过程中出现错误,那就不能像以前那样简单地归责于医生,而需要把更多的责任相关者带入进来,比如人脸识别医学诊断机器的生产商、算法的设计者、测试数据的提供者,乃至该技术的监管者等。然而,如何在这些责任相关者之间进行责任划分? 是否会面临无人负责的状况?再者,在道德责任的归属问题中,对患者进行医学诊断的人工智能可以成为承担道德责任的道德主体吗?它更多地需要在伦理道德层面探究道德责任的归属,道德责任划分问题是人脸识别医学诊断技术中最重要的伦理问题。

3 人脸识别医学诊断的道德责任归属

3.1 人脸识别医学诊断中道德责任的承担

人脸识别的医学诊断常常借助人工智能的机器进行,这引发了人工智能是否承担道德责任的论争。然而,人工智能承担道德责任根本不具有合理性。

康德认为,道德主体具有自主性、自律性、自决性和创造性。自主性使基于纯粹理性的人具有理论理性和实践理性;自律性是纯粹实践理性颁布的道德律令的体现;自决性是指道德主体具有自己为自己立法的自由意志,并且要求对己对人的行为负有责任。康德强调自决与自律的关系,认为自决是自律的前提,自律是自决的必然结果。同时他也认为,自由与自律密不可分,即人作为理性存在者只能以自由为前提去思考意志的因果。人工智能机器既然不具有自由意志和自觉的主体能动性,那么当然就不具有承担道德责任的能力[7]。

正如斯塔尔所言,“计算机没有道德推理的能力,因为他们无法理解处理信息的意义。”人工智能是不能作为道德主体的,因为它既不能承担责任,也不会受到惩罚。机器伦理学家阿萨罗也认为,人工智能成为道德主体必须同时满足两个前提:第一是它需要具有道德身份;第二是它需要具有自主意识[8]。由此来进行道德判断、作出道德选择、承担自身行为的后果。但是,就目前的发展来看,人工智能尚未具有道德主体地位,它只是具有道德调节的作用而已。上述学者都认定,可以理性思考的人类才是唯一的道德主体,因为只有人类才能利用自主意识进行道德判断,作出道德选择并承担相应的责任。而当前没有任何证据表明,未来的人工智能可以拥有与人类相同的理性思维,从而使其具有承担道德责任的可能性。

既然人工智能不能担当道德责任的主体,那么在出现误诊和漏诊时就不能简单地归责于人工智能,而是应当寻找理性人去承担。

通常认为,一个人对自己的行为负担道德责任取决于三个条件:①因果条件。人的行为与结果之间应该有因果联系。②知识条件。只有当一个人不仅知道与他行动有关的某些特殊事实,而且也怀着某种适当的意向和信念行动时,他才对自己的行为负责[9]。③控制条件。只有一个人可以在某种适当意义上控制他的行为时,他才需要为此负担道德上的责任。倘若人的行为与结果之间的因果链过长,导致事情结果超出了人的认知与控制,那么相关人员就无须对此负责。也就是说,道德责任意味着相关人员只需对不正义负责,而无需对不幸负责。

3.2 人脸识别医学诊断中道德责任的划分

较手术机器人等其他医疗人工智能而言,人脸识别医学诊断技术的辅助性较强,仅仅是用于疾病的诊断阶段,它对人类的危害性较小,可推广度高。因此,对其应用进行严格管控,限定为辅助类角色,合理分配责任,未来人脸识别医学诊断的发展前景会很好。在人脸识别的医学诊断中,不论是医学诊断机器的生产商、算法的设计者、测试数据的提供者还是技术的监管者,借助对“因果条件”“知识条件”和“控制条件”的把握,以及对其他医疗人工智能研究的参考,可以清晰地划定这些主体的责任承担,形成一种“共同责任”模式,各尽其职,共同承担责任。

第一,设计者的责任。首先,设计者不仅要具备专业技术知识,提高技术的稳健性和安全性;还要具备抵御网络攻击和盗取数据的能力,因为人脸识别医学诊断技术是通过识别患者人脸信息与庞大的数据库作比对来获得诊断结果的,更要提高系统的安全性;其次,设计者应该要有一定的道德伦理知识,做到在最初就控制好医疗人工智能机器的伦理问题。需要注意的一点,算法设计者不应在设计过程中带有自己的偏见,或在学习训练中所采用的数据是带有偏见的,从而使疾病的识别结果有偏见,产生了不公正的问题。如果将带有歧视性的观点隐藏于算法中,要比藏在数据中更不容易被察觉。进行医学诊断的机器在给患者诊断时必须保证能够放心使用。

第二,生产商的责任。生产商应严格把控进行医学诊断的机器是安全可靠的,不可为了谋取一己私利而去制造不受人类控制的产品。对人类进行医学诊断的机器就应当是仅仅用于疾病诊断,收集到的个人信息仅仅是用于疾病的比对。人脸识别医学诊断是为了促进医疗科技发展而生的,不可带有其他可能对人类带来伤害的功能。如若由于机器自身结构缺陷等质量问题导致的机器故障,应该由生产商承担责任。生产商应对生产环节负责,它与设计者一样,在人脸识别医学诊断中承担源头责任。

第三,监管部门的责任。在人脸识别医学诊断中,不论是诊断机器的质量问题,还是其引发的个人信息泄露等问题,原因都是我国目前对医疗人工智能技术尚无专门性的法律、法规。因此需要设立一个专门把控医学人工智能的部门,来监督行业的发展状况以及对相关人员进行严格管理。监管部门要熟络医疗人工智能技术的相关知识,也要能够预防诊断机器可能产生的问题,有基本的应急风险方案,发生重大事件后可以作出正确的决断。制定严格的监管机制来防止医疗技术的滥用,才能保障医疗人工智能的健康发展。

第四,技术使用者的责任。对机器的使用,除了要配备专业的人员定期进行维护和保养之外,技术使用者在使用过程中应该保证合理使用,在其限制的范围领域中使用,诊断型机器人仅用于疾病诊断环节。如果是技术使用者由于自身操作不当或者对机器超出目的使用而对他人造成的伤害,技术使用者直接承担责任。对于个人信息的使用,应当遵循合法、正当、必要的原则。技术使用者应对自己的行为负责,不可利用职责之便在未征得被识别人同意的情况下使用或泄露他人信息,这将引发法律方面的问题。

当然,除了以上责任划分的情形外,在使用人脸识别医学诊断技术过程中还包括需要承担发生诊断错误的情况:①诊断结果由人脸识别医学诊断机器做出,医生并未作出独立的判断,由机器的研发公司和医生承担责任;②人脸识别医学诊断机器提供建议,医生独立判断得出诊断结果,由医生承担责任;③诊断结果由医生做出,但是人脸识别医学诊断机器的建议是医生决策的关键影响因素,由医生和机器的研发公司承担责任;④诊断结果如果是根据错误的检验数据做出,则由提供检验数据的公司承担责任。明确人脸识别医学诊断的责任归属意义重大,其必要性其一就表现在:对遭受误诊和漏诊损害的患者给予救济,以及进一步规范责任主体的行为。

4 人脸识别医学诊断道德责任的完善

人脸识别医学诊断的应用将为大众带来更便捷的就医体验,在未来的医疗实践中将“大有可为”。明晰人脸识别医学诊断的道德责任,为完善该技术的合理使用提供了帮助,也对未来医学人工智能的应用带来重要启示。

4.1 明确医生主体地位,充分发挥人脸识别医学诊断的辅助作用

人脸识别医学诊断应用的初衷是为了辅助医生进行诊断以此来减轻医生的工作压力,使其有更多精力投入科研和前沿领域的研究中去,同时提高医疗效率。然而在实践中,人脸识别医学诊断的应用可能会造成人类医生过于依赖人工智能机器,以至于疏忽了自身医学知识的学习以及临床诊断经验的积累,也未能及时发现机器诊断出现的错误。人类医生必须对人脸识别医学诊断技术的相关医学知识进行及时更新,人类医生也需要通过不断学习领先于医学人工智能的发展,明确人脸识别医学诊断技术的作用是辅助医生而非取代医生。要合理利用其诊断的高效性与便利性,要明确真正的医疗主体依然是人类医生。当前人类关于医学的认知为:整个疾病的诊断过程中不仅需要丰富的临床经验与逻辑思维能力支撑,同时还要具备敏锐的直觉、复杂的情感和创新思维。而现阶段的人脸识别医学诊断机器显然不具备这些,所以它并不能取代人类医生的地位。人工智能机器给出的诊断只能作为人类医生临床诊断的参考,最终仍是人类医生对诊断的结果负责,对患者负责。人类医生和人脸识别医学诊断技术要做到共同进步、共同提升,形成“人脸识别医学诊断技术代行简单诊治—医生进行前沿研究—研究成果反馈更新人脸识别医学诊断系统”的良性循环[10],最终达成医疗服务质量和效率大幅度提升的目标,并且“人”始终处于这个循环中的核心地位。

4.2 建立人脸识别医学诊断的责任伦理机制与法律法规

目前我国对如何划分人脸识别医学诊断技术应用中的现实责任以及如何对人脸识别医学诊断进行有效监管都没有定论,更没有制定和实施相应的法律规章制度。对人脸识别医学诊断技术的管理监督不可太强硬,否则就会对社会与人类文明的发展形成阻碍;也不可过于薄弱,从而使人脸识别医学诊断中的责任机制出现混乱,出现主体责任不明确等问题。因此,对人脸识别医学诊断进行责任界定很有必要。首先要建立起合理的责任划分机制,有效保障人脸识别医学诊断技术的健康发展;其次要健全责任伦理机制,完善人脸识别医学诊断应用的规范化。人脸识别医学诊断的责任伦理规范应满足“以人为中心”的前提,人永远是医疗主体。要建立起促进社会健康稳定发展的伦理规范,高效限制其应用过程中相关人员的伦理规范;建立人脸识别医学诊断应用的责任伦理机制,最重要的是国家政策方针的引导,一方面要制定该技术相关的法律法规,并且及时配套可操作性较强的、专业性的有效措施;另一方面要保障人脸识别医学诊断技术更加高效广泛地使用,也要保证使用过程中的科学性和安全性。

人脸识别医学诊断责任体系的建立离不开法律法规的支撑。人脸识别医学诊断应用的相关人员如果发生了渎职或失责的行为,将会给社会或他人造成损失或严重伤害,只是予以舆论谴责的力度显然是不够的,必须依靠法律手段进行追责与惩治。相关部门对于人脸识别医学诊断的发展起着决定性作用,应从立法和行政层面对其进行监管。首先,将在应用过程中易出现的责任划分问题纳入法律框架中,充分发挥法律的规制作用;其次,要建立健全多层次的监管体系。对人脸识别医学诊断应用过程中涉及的多元主体(设计者、生产商、使用者、监管者等),以及技术标准等级、使用范围等进行明确划分。将法律和伦理紧密联系起来,建立起对相关从业人员的道德规范和法律要求,推动社会伦理标准融入技术的开发与使用中,最后形成一个集国家法律、社会伦理、行业标准等于一体的监管体系。只有在一个合法界定的领域里,与其基本原则结合起来,形成理性、自由、选择、责任多层次的逻辑结构,才能有效维持人脸识别医学诊断技术使用的基本价值取向。

5 结语

人脸识别医学诊断技术的应用与发展有着很好的临床应用前景。此技术为解决疾病延迟诊断、医疗资源不足等问题作出了贡献,具有高效、便利、诊断准确率高等优点。但同时它暴露出来的一些新的道德风险也不可忽视。本文着重分析了人脸识别医学诊断中出现的道德责任的划分这一伦理问题,阐述了在人脸识别医学诊断中的道德责任主体问题以及道德责任的具体划分问题。对人脸识别医学诊断中的道德责任问题进行探究,既为完善该技术的合理使用提供了帮助,也为未来医学人工智能的发展与应用带来了重要启示。未来,人脸识别医学诊断技术将会为医疗领域作出更大的贡献,医院的工作会更加便捷高效,来院就诊的患者也会享受到人工智能时代所带来的快捷和便利。

猜你喜欢

人脸识别机器医学
本刊可直接使用的医学缩略语(二)
机器狗
人脸识别 等
机器狗
医学的进步
揭开人脸识别的神秘面纱
预防新型冠状病毒, 你必须知道的事
人脸识别技术的基本原理与应用
未来机器城
人脸识别在高校安全防范中的应用