APP下载

智能医学中的安全问题

2019-01-28刘荣

中国学术期刊文摘 2019年2期
关键词:医学人工智能医疗

刘荣

自人工智能出现以来,人工智能的安全问题就是一个长盛不衰的话题。在推广“智能医学”概念、介绍智能医学发展潜能的时候,经常会听到人们对智能医学安全问题的担忧。究其原因,是因为医疗行为的受众是人,准确地说,是所有的人,每个人都是潜在的患者,而医学行为又直接关乎生老病死这些人生最本质的问题;此外,当人工智能投入医学应用之后,人工智能将在很大程度上取代人类成为医疗行为的主体。因此,智能医学的安全问题必然会引起人们广泛的关注和讨论。笔者在此对几个智能医学中涉及安全的热点问题进行介绍和分析。

一、人工智能是否会伤害人类

普遍最受人们关心的问题之一是,机器人是否会出于自身利益而伤害人类。在目前的技术条件下,所能实现的人工智能都在弱人工智能的范畴内。弱人工智能只能完成人类赋予的特定任务,也就是无论弱人工智能做什么,其贯彻的都是人类的目的。因此,弱人工智能是否会伤害人类,取决于赋予其任务的人类是否有伤害人类的目的。例如,某家科技公司制造了一款基于人工智能的“杀人无人机”,“杀人无人机”可以通过面部识别找到要击杀的目标,通过灵活的走位躲避拦截,最终可以固定在人类头部,通过引爆内置的炸药,来完成对目标任务的击杀。

有人担心在日常生活中会出现这样的一种杀人武器,对自己的生命构成威胁。但基于弱人工智能的原理,这是不会出现的,因为这个无人机执行的是人类赋予的目标。它所要击杀的目标,是由背后操纵机器的人指定的。只要控制住了给无人机指定目标的人,就可以控制无人机的行为;只要知道了赋予无人机目标的人,就可以对其进行相应的惩罚。这样的“杀人无人机”是可控的,是可以被限制住的。想要杀人的是人,而不是机器。换而言之,只要是在弱人工智能的技术范畴之内,我们就可以通过法律和规定,来控制人工智能的目标,进而保证人工智能的安全应用。在此条件之下,人类的真正敌人是人类自身,人工智能是我们忠实的盟友。

二、智能医学中的“数据歧视”

值得注意的是,人工智能伤害人类的方式可能并不都是那么直接。例如,有一种协助人类对应聘者进行筛选的人工智能系统,在积累一定经验之后,会直接将女性应聘者从备选者名单中剔除。人们指责这是人工智能对女性的性别歧视。但其实剔除女性备选者原因并不是模型“歧视”了女性,而是因为模型陷入了局部最优解。局部最优解是指对解决问题或达成目标的手段在一定范围或限制内最优。例如在胰腺囊腺瘤的诊断中,浆液性囊腺瘤占两者总量的80%以上,黏液性囊腺瘤则只有不到 20%。也就是说,如果一个模型将所有的胰腺囊腺瘤的患者全部诊断为浆液性,就可以获得80% 以上的准确率。这样的准确率是非常可观的,但是这种模型在实际应用中毫无意义,因为模型陷入了局部最优解,没有根据全局进行判断。在招聘中,一名企业管理者的目的是为企业获取最大的利益,所以在训练系统的时候,会根据情况给不同的训练标本打上标签,让模型根据这种标签去进行训练。由于机器学习的训练数据维度很高,人类很难对如此高维的数据有感性的认识,可能管理者在给样本打标签的过程中并没有意识到自己对女性存在偏见,或者是仅仅考虑到了经济利益而忽略了更广泛的社会因素,最终根据这样的数据就训练出了一个有着性别歧视倾向的模型。

这给我们敲响了警钟,相较于招聘,医疗行为中的歧视是更无法被接受的。生理缺陷者、精神疾病患者、罕见疾病患者和传染性疾病的感染者等特殊群体往往会遭受到不同程度的歧视。医师在日常的医疗行为中,通常都会尽力去避免歧视,因为在医疗行为中这些群体恰恰是最需要关心的,对这些患者的歧视不能被容忍。然而,如果在对这些患者的诊治过程中,出现了对患者的某些负面的反馈,就很有可能形成一种标签,进而影响到患者的诊断和治疗。这种情况会引起较大的争议。因此,我们在模型训练的过程中应通过平衡训练样本数量等方法避免这种状况的出现,防止由于算法的歧视给患者利益带来的损害。

三、医疗数据安全

医疗数据是智能医学的基础。医疗数据安全包括两个方面。① 数据的存储安全,就是要保证医疗数据在储存的过程中不损坏、不丢失。这一问题随着存储介质和云存储技术的进步已经基本得到了解决。② 数据的隐私安全,网络的互联互通为人们带来便利的同时,也增大了个人数据泄露的风险。用户在线上填写非保密个人信息的时候、智能装备收集健康数据的时候、在地图软件上进行搜索的时候、使用约车软件约车的时候……个人数据都会被源源不断地上传到网络上。

与常规的数据相比,医疗信息涉及诸多深度的信息,因此被盗后的损失会更大。例如,利用智能装备等实时收集的健康数据可以分析出某种疾病的发病风险。但是获得数据分析的硬件和软件的方法对所有人都是一样的。如果获得数据的人通过这些数据分析出某种疾病的发病风险,然后将相关结果出售给保险公司,那么保险公司就可以通过分析出来的某种疾病发病风险的数据来增加高发病风险人员的保费。这样,保险公司就可以通过隐性的手段来谋取不正当利益。

智能医学时代的到来使个人隐私的保护面临尴尬的处境。① 对于人工智能,数据是人工智能的基石,数据的量和质量直接决定其成败。因此,如果希望人工智能在某一方面有所作为,就必然需要让人工智能掌握相关的数据。② 将如此多的信息进行集中又会对我们的隐私造成极大的挑战。如果希望网站对其内容进行准确地推送,就必然需要网站知道用户的浏览历史记录;如果想要零售商为我们推荐想要的产品,就必然要透露购买记录;如果想得到更精准、个体化的医疗服务,就必然要共享医疗记录。可以假设两种极端的情况,① 完全抛弃对于隐私的保护,所有数据都可以用来发展技术。② 绝对的保护隐私,无论这些数据可以带来怎么样的技术进步。显然这两种局面都不是我们所愿意看到的。更多人希望的是在两者之间取一个平衡。对于不同的数据类型来说,这个平衡点可能也是完全不同的。比如,骨折患者对于医疗数据的泄露可能并不特别在意,会更愿意将数据贡献出来发展新技术;而乙肝患者可能就会比较担心诊断数据的泄露会影响其就业和择偶,就会更倾向于对自己的信息进行保密。

我们可以考虑保护数据隐私的可能方法:比如,利用数据加密的方法,将数据获取端和数据使用端的信息隔开,数据分析端可以利用数据进行分析,但是使用的数据是经过加密的数据。那么数据分析端的人员即使通过数据分析出了有价值的信息,也不知道该如何去利用这些信息。此外,吴军在《智能时代:大数据与智能革命重新定义未来》一书中提到了一种应对智能时代隐私泄露的方法,就是隐私数据获取的“双向性”,其思路是使被获取隐私数据者也可以同时获取对方相应的隐私数据,并清楚地知道对方使用自己的隐私数据做了什么事情,通过这种互相制约的方法来保证隐私数据的安全性。就好比一个人从门缝向门里偷窥另一个人,如果门里的人对此浑然不知的话,那么偷窥者就可以肆无忌惮;而如果偷窥者打开门后发现门里有双眼睛在盯着自己,那么势必就要自我约束行为了。这也是智能医学时代保护个人隐私的一个可行之策。

四、医疗数据的应用范围和数据垄断

现在智能医学的发展趋势,主导智能医学发展的很多是业务跨度极大的高技术公司。比如,美国的IBM、谷歌,中国的阿里、百度等。这些公司无一例外的都不是专门的智能医学公司,之所以能在智能医学的发展中抢到先机,与其掌握着大量的用户数据的关系密切。这无疑对技术的发展是有利的,但是这些公司都有着众多其他业务,在发展智能医学的过程中获取的数据也可以用于其他业务的发展。

例如,某家公司发现年龄、住院时间与出院后使用某些护理用品之间的关系,就可以针对这类客户推广相应的产品;分析出胰腺手术后患者需要长期进行换药、引流袋冲洗之类的医疗服务,制作搜索引擎的公司就可以向这类患者推荐与其有合作关系的、收费较高的私立医院,并向医院收取宣传费用。这种行为似乎从道义上说很不正确,但是其前提是公司投入资源进行智能医学的技术研发,在客观上推动着技术的进步,很难说这种行为是对的还是错的。

数据垄断的问题,目前讨论得比较少。垄断者在市场上,能够随意调节价格与产量。数据在智能时代将会成为像水、电、石油一样的“能源”,拥有巨大财力和社会资源的一家或几家公司就可以通过资金完全或基本完全的掌握某行业的数据资源,进而获得定价权,以此谋利。

垄断在历史上是有迹可循的。人类文明史上发生过 3次信息载体领域的革命:第一次是语言,第二次是文字,第三次是数据。在文字作为主要信息载体的时代,由于书写工具和文字载体普遍比较昂贵和专业,因此在很大程度上成为了统治阶级垄断思想和文化的工具(中国,由于造纸术出现得很早,没有出现这样的情况)。例如在中世纪的欧洲,文字的载体是昂贵的羊皮纸,只有教会和贵族可以掌握,这就决定了以文字传播的思想和知识就被限制在这两个阶层的范围内,尤以教会阶层为甚,这就是典型的信息载体垄断。

一个医疗行业内的现实例子。目前,世界范围之内,成熟的机器人手术系统只有一家公司在生产。所以,这家公司现在掌握的几乎是全球全部的机器人手术数据,目前想开展机器人手术业务的医院都必须购买该公司的产品。那么,在智能手术系统的开发过程中,这家公司所拥有的数据将构成极大的先天优势和定价权,这是其他公司所难以比拟的。

医学数据是典型的高价值数据,因此较一般的数据,更容易形成垄断。而医疗服务又是人们所必需的。试想,如果在智能医学时代,智能影像诊断成为常规诊断方法的背景下,有某家公司从一种发病率较低的疾病入手,掌握了整个地区全部的该疾病的诊断相关数据,那么该地区的所有这一疾病患者的诊断都要依赖于在这家公司拥有的数据的基础之上建立的诊断模型。而我们知道,人工智能模型的质量是与数据的质和量直接相关的。因此,其他人很难在相关疾病的诊断质量上超过这家公司,而医疗机构为了获取更高的诊断质量,也会更加倾向于与该公司进行合作,为其提供数据并获得智能诊断的产品。该公司就拥有了很大的市场定价权和话语权,成为这一疾病诊断领域的“数据寡头”,这无疑会对市场的公平性形成挑战。

五、智能医学的导向安全

随着人工智能技术的不断进步,人工智能可以完成的任务也越来越多,但是人工智能所做的就真的一定是我们想要的么?有个希腊神话,迈达斯国王(佛律癸亚国王)贪恋财富,后来如愿以偿,获得了点石成金的能力;不过他所触及之处都会变成金子;连他碰到的面包、他的女儿都变成了金子,他因为无法吃到事物,差点饿死。

这个希腊神话放到智能医学的大背景下具有很强的现实意义。我们希望人工智能扩展技术的边界,去实现人类的目标。但这是否真的对人类有利呢?可以设想,如果在人工智能、基因技术的协助下,人类获得了永葆年轻的能力,那么会怎么样呢?人口爆炸、资源匮乏是必然会出现的情况;更严重的是,人类会丧失进化的动力,最终被淘汰。而这些可怕的结局最初都是源于人类为了实现愿望所做的努力。因此,在人工智能的导向方面,是否真的要让人工智能极尽所能的去完成人类的目标呢?实现这些目标是否真的会给医疗领域,或者给人类带来进步呢?迈达斯国王的故事是一个很好的启示。

六、维护智能医学的安全需要约束

智能医学的安全应用需要伦理框架和法律约束。电气和电子工程师协会提出,要将人类社会的法律和道德规范融入到人工智能系统之中。在智能医学的实现过程中,也要将医学相关的法律法规和医学伦理学的准则嵌入智能医学的相关系统中。但是医学伦理准则本身就存在着诸多争议。例如在临床工作中,对于是否应该告知恶性肿瘤的患者本人病情就存在很大争议。患者本人知道病情会加重心理负担;但是如果不进行告知,又侵害了患者的知情权。在欧美国家,普遍的共识是应该尊重患者的知情权,告知患者本人的病情。而在国内,则经常为了不加重患者的心理负担,不告知患者本人病情。两者孰优孰劣?很难说,因此人类自身就处于对医学伦理的巨大争论之中,又应该将何种伦理框架加之与人工智能呢?

毋庸置疑,人工智能将会带来很多安全方面的问题。这里讨论的内容只是可以预见的问题,还有更多的、无法预见的安全问题在智能医学的路上等着我们。现在的智能医学更多是工程师和少数医师在参与,缺乏哲学、伦理学、法学等其他社会学科的参与。智能医学的发展需要这些学科的加入,因为在某种意义上我们已经不是在制造一个被动的简单工具,而是在设计像人一样具有感知、认知、决策等能力的事物,我们需要确保这样的事物进入人类社会以后和我们所期待的医疗价值规范相一致,与医疗行为整体的目标相符合。良好的智能医学的安全规范将是智能医学发展的压舱石。

(摘自《中华腔镜外科杂志(电子版)》2018年第1期)

猜你喜欢

医学人工智能医疗
《现代仪器与医疗》2022年征订回执
本刊可直接使用的医学缩略语(二)
医学的进步
预防新型冠状病毒, 你必须知道的事
2019:人工智能
人工智能与就业
数读人工智能
京张医疗联合的成功之路
我们怎样理解医疗创新
下一幕,人工智能!