APP下载

人工智能应用于心理健康服务的相关问题思考

2022-11-26

医学与哲学 2022年5期
关键词:精神障碍领域心理健康

李 瑶 杨 琳

目前正处于第四次工业时代——“数字革命”时代的关键点,技术类型的融合是其核心,人工智能(artificial intelligence,AI)是自1956年以来最受认可和被广泛使用的一种技术形式[1]。从经济发展、教育到环境和农业,AI正在成为影响社会各个重要领域的关键工具[2]。在包括精神病学在内的医学领域,AI的应用正在稳步增加[1]。在全球的医疗保健系统中,AI可以帮助处理人口数据、识别高危人群、为个别患者确定最佳治疗方案以及发展精准医疗等[3]。在精神卫生保健领域,数字精神卫生已经逐渐建立,AI也已经开始涉猎精神卫生解决方案方面的工作[4]。心理健康从业者也需要熟悉AI,了解其目前在心理健康领域的使用情况、未来的发展潜力,以及在使用过程中需要特别注意之处,并准备好能够在实践中更好地运用AI。

1 AI的概念

AI研究的是如何利用计算机模拟人类大脑的识别、理解、参与、推理、学习、思考和解决问题的能力,并且AI能够感知外界环境,进一步进行思维、学习,并输出相应的行为[5]。有学者将AI描述为在分析复杂数据时使用算法和软件来近似人类认知[6]。AI属于计算机科学领域,包括一系列的技术和方法:机器学习、自然语言处理、语音处理、机器人技术和类似的自动化决策等[7],用于开发和执行人类特有的认知过程[4]。

机器学习是AI的一种主要类型,是自动地从数据中学习模型并基于数据进行预测的算法[8]。它分为:(1)监督式机器学习,其中目标是已知的并由人类标记的,通过算法学习关联不同来源的各种数据流(如社会人口学、生物学和临床测量等)的输入特征,目的是对新数据进行目标预测以获得良好的泛化性能。(2)无监督式机器学习,该算法没有事先提供的标签,其特点是识别输入特征之间的相似性并发现数据的底层结构,将数据分类,或识别数据集的最显著特征。由于无法将特征与已知标签相关联,数据的输出必须由特定专家解释以确定其有效性。(3)强化式机器学习,即在模型中使用反馈作为奖励或惩罚来最大化其性能。其中,监督式机器学习最常用[6]。

自然语言处理也是AI的一个重要领域,它特指计算机如何以非结构化文本的形式处理和分析人类语言[1],涉及语音识别、自然语言理解和自然语言生成。自然语言处理在分析治疗过程的录音或治疗师的笔记时具有重要作用[6],并且在精神病学中的应用潜力也很大,因为语言的缺陷是抑郁症、行为障碍、自闭症、人格障碍和精神分裂症的常见症状,如精神分裂症患者可能表现为词汇贫乏、语义不连贯和句法复杂性降低等[8]。这些属性可以使用自然语言处理技术进行量化,得到的数据可以作为用于心理健康分类或预测的机器学习模型的输入[4]。除此以外,AI还包括随机森林、决策树和支持向量机等,在心理学和精神病学中已被广泛使用[6]。

2 AI在心理健康领域的应用

精神病学家、心理学家、政治家和科技公司越来越重视AI在心理健康领域中的作用[7]。AI程序已经被开发并应用于精神卫生和心理健康领域的各个方面[6]。

2.1 多样化心理健康数据的收集

在心理健康领域,AI科学家不断开发各种数据驱动的应用程序作为“电子健康”工具,包括智能手机、可穿戴/手持生物传感器、社交媒体和其他基于网络的活动等[3]。多样化的数据通过对患者进行实时自我监控以及数据处理和分析来支持个性化服务,进一步建立并扩展了个体的电子健康档案[3]。除了来自问卷、效果测试和临床访谈的经典数据集之外,在心理健康领域中还有三类数据较为重要[9]。

2.1.1 感官数据

感官数据是从心率传感器、身体活动传感器或其他移动应用程序收集的数据,以评估个体精神症状、情感、行为和认知的动态变化[7]。生态瞬时评估是在自然环境中收集实时的数据,收集数据的工具包括智能手机、智能手表、腕带、服装和带有嵌入式传感器的贴片等,可用于测量心肺功能、运动模式、汗液分析、组织氧合、睡眠和情绪状态等[6]。对这些生物标志物的收集与分析可以帮助早期识别精神障碍,并进行及时干预[9]。

例如,智能手机或智能手表能够实时捕捉精神分裂症患者的行为和心理状态,有助于在其复发的早期阶段及时进行干预[10]。有学者认为,结合AI的进步,感官数据可能有助于提供精神障碍的诊断信息、预测患者的预后,并帮助专业人员为患者提供最佳治疗方案[7]。

2.1.2 社交媒体数据

各个社交网络在全球拥有近30亿用户,已成为临床医疗和研究的重要信息来源[8]。随着人们对社交媒体使用的日益增加,网络用户可能会使用社交媒体来描绘他们的日常体验,并通过在线互动加强社会协作[11]。社交媒体平台包含了大量关于人们思想、情感、情绪和经历的数据,这使它成为心理健康监测合适的数据来源[12]。对基于社交媒体平台的分析可以生成有关个体心理健康和社交或职业互动方面有价值的详细信息[8]。

诊断精神障碍的核心标准之一是日常生活习惯的改变[8]。分析社交媒体上的帖子可以在识别个体精神障碍方面发挥重要作用[12]。最新研究表明,分析和处理社交媒体数据可以使患者和临床医生获取早期预警信号,并准确跟踪和预测严重精神障碍患者的复发[3]。相关研究表明,焦虑、抑郁、双相情感障碍和自杀意图都可以通过日常自然发生的语言形式数据来观察和测量,如在社交媒体平台上发表的帖子或评论[3]。

2.1.3 设施数据

设施数据包括来自不同数字健康信息系统的电子健康记录,以及来自动物模型或遗传学的数据等[9]。心理健康干预,无论是否数字化,都必须记录在临床专业人员和卫生服务机构特有的患者记录中[13]。现在普遍使用的电子健康记录极大地促进了这一过程,除了人口统计、用药记录等结构化记录外,还包括大量非结构化记录,如临床笔记、基因组DNA序列、头部磁共振数据等[13]。挖掘这些异质性数据,可为精神疾病的预防、诊断和监测提供有价值的临床依据[11]。

以上三类数据相辅相成,相互促进,应该作为一个整体来看待,共同用于评估个体的心理健康状态[11]。

2.2 复杂心理健康数据的处理

单独收集来源不同的数据集——即使它们的质量、数量和理想的有效性都很高,也不会显著提高我们对精神障碍的理解[9]。现有的研究大多只关注一种模式,而忽略了不同数据模式之间的相互影响,异构数据挖掘可以通过集成多模态数据来提高系统的整体性能[11]。AI可以帮助我们对不同来源的异构数据集进行复杂且有意义的分析,促进我们对精神障碍机制的理解,有助于建立预测模型以及开发合适的干预策略[9]。

2.2.1 精神障碍的诊断

目前,精神障碍分类系统主要是根据一组核心症状对精神障碍进行分类和诊断,而忽略了精神障碍的实质性、多因素性和异质性等特点[9]。AI技术有可能成为有效的临床诊断支持工具[3],它可以通过不使用已建立的诊断系统来绕过许多定义性问题[6]。随着计算机技术和声学分析技术的发展,精神病患者的发音特征逐渐受到重视[14]。基于语音的病理特征,利用机器学习技术对心理健康进行无痛、无创的客观辅助诊断已成为一大研究热点,如抑郁症和健康人在发音时间和停顿时间上存在显著差异[14]。而且基于语音的精神疾病诊断方法操作过程简单方便,诊断价格便宜,不会给患者带来任何副作用[14]。此外,面部特征也可以用来表明心理健康状况,例如,精神分裂症患者的面部表情相较于正常个体显著减少[6]。

2.2.2 建立心理预测模型

数据挖掘技术最近成为一个流行的研究领域,在医疗、金融服务、电信、自然科学等领域有着广泛的应用,它是一个通过数据挖掘有用模型的过程,旨在解释现有行为或预测未来结果[15]。AI和机器学习具有通过大量患者病史、医学图像、流行病学统计和其他细节数据(如自然语言数据等)建立和挖掘模型的巨大潜力[8]。通过使用贝叶斯网络收集大型调查数据并进行关联分析,建立预测模型,能够对精神障碍的解释提供科学证据[16]。例如,通过观察个体相关行为的变化、词汇的使用和情绪特征等来识别抑郁症状,如快感缺乏、失眠、活动减少等,构建一个多模态的抑郁模型,有助于区分抑郁和非抑郁个体的潜在特征[12]。早期干预是预防精神障碍的最佳方式,AI的早期检测系统可以帮助临床医生及时、有效地识别精神障碍的早期症状[17]。通过分析社交媒体内容中的语言特征(包括文本,语音的音量、音调和语速等),有可能生成机器学习模型,更早地推断个人的心理健康状况[4]。还有一种将AI与人类智能相结合的方法是让专家将AI的发现放在现有理论或概念框架下,扩充和整合现有的理论或概念,进一步测试可能的潜在机制[2]。

2.2.3 自杀风险的预测

自杀案例对其家庭和所处社区都会产生严重影响,早期发现自杀意念可以防止许多自杀案例,并有助于确定需要立即咨询的人[12]。目前,AI在帮助识别和预防自杀案例方面取得了较为显著的效果。它是一类自动分类系统,可以通过对危险信号的早期识别,将最需要紧急关注的案例推送给人类咨询师[6]。预测的准确性是其公认的优势之一,例如,有学者使用机器学习算法在14 701条推文中区分出与自杀强烈相关的推文,准确率为80%[12]。有学者使用自然语言处理分析非结构化或文本材料,以识别精神病学研究数据库中的自杀意念,发现识别自杀意念的准确率为92%,识别自杀企图的准确率为83%[6]。在自杀影响因素方面,有研究者发现,在深夜长期使用手机的青少年有更多的精神问题,甚至自杀的风险[11]。

2.3 心理干预与治疗领域

精准医疗,即尝试针对患者进行个性化治疗或恰当治疗,以产生更有效的干预措施,而AI是精准医疗的重要支持[6]。AI和精准医疗都被认为是医疗保健方面的革命性新进展,因为它们能够使我们从一刀切的诊断和治疗转变为基于大量数据的个性化诊断和治疗[6]。AI在心理治疗与干预领域的运用可以包括以下三个方面。

2.3.1 生活化的心理健康干预

生态瞬时干预是在患者的日常生活和自然环境中,通过对话提供的治疗[6]。这些干预措施将心理治疗的某些方面扩展到患者的日常生活中,其特点是实时提供治疗,并且不依赖于与临床医生的互动[6]。瞬时提醒通常用于诸如药物依从性和症状管理之类的行为,更复杂的生态瞬时干预是根据过去的最近结果,使用算法来优化和个性化干预系统:例如,有学者描述了一项通过两种不同的技术——深呼吸和渐进式肌肉放松——减少焦虑的研究,算法可能会以相同的频率开始展示每种技术,但随后会更多地转向对该个体来说似乎最成功的技术[6]。每种治疗形式(深呼吸和渐进式肌肉放松的不同组合)因人而异,治疗方式的选择不是根据该群体的平均结果,而是根据个人的数据为个体量身定做[6]。另外,有学者提出,对于儿童和青少年的心理健康问题,必须与个体所处的社区相联系,利用当地建立的伙伴关系和网络,在不断变化的社会环境中保护和改善儿童和青少年的心理健康,帮助个体更好地完成从儿童期到青春期再到成年期的过渡[9]。

2.3.2 心理治疗技术

在心理治疗方面,AI正被纳入到数字干预中,随着网络和智能手机的普及,AI可以提高用户体验,优化个性化的心理健康服务[4]。互联网提供的认知行为疗法可能是研究最深入的数字心理健康干预之一,它已经使用了近20年,有学者进行了个体数据荟萃分析发现,大约1/3使用者的症状获得了缓解[13]。使用虚拟现实(virtual reality,VR)技术进行沉浸式虚拟治疗干预已成为治疗某些精神障碍(如恐高症)的一种有效且低廉的辅助手段[10]。近25年来,VR技术在心理健康方面的潜在治疗价值已经得到验证,尤其是针对焦虑障碍[13]。其他研究还发现该技术对妄想、幻觉或与精神分裂症谱系相关的认知和社交技能障碍等具有一定的效果[10]。然而,VR技术在患者和治疗师中的应用范围仍然有限[13],且目前缺乏对沉浸式VR技术的研究[10]。

某些基于网络的替代治疗方案,包括引导式自助、聊天机器人和其他基于网络的干预措施,可以作为辅助或独立干预措施增加患者获得心理治疗的机会[10]。其中聊天机器人在心理健康领域的运用已经成熟。聊天机器人具有基于文本或语音模拟人类对话的通信界面,旨在采用治疗技术帮助人们应对心理健康问题[18]。聊天机器人利用预编程的内容和决策树,使用自然语言处理等技术进行自动对话,比静态数字存储库更具交互性,有利于提高患者的参与度[19]。他们可以通过心理教育为患者及其家人、照顾者提供有关患者心理健康状况的信息,提高其心理健康素养,减少污名化,对患者心理健康产生积极影响[18]。

2.3.3 提供心理健康监测与反馈

AI还有一个重要作用就是可以对心理干预和治疗进行监测和反馈。例如,有学者认为可以通过评估录音的某些维度对对话进行评估:中断的重叠谈话、超过两秒的停顿、语速、语调和语气[6]。当然还必须克服许多技术困难才能评估更多的变量,但该领域的研究也取得了相应的进展。AI通过对患者有效持续的监测,可以提高治疗质量[6]。智能手机和其他互联网活动设备的普遍使用,使得从客户那里收集数据变得实用而高效,而这些不同的数据可以为治疗者提供反馈,帮助治疗者预测和预防复发以及增加患者的依从性[6]。

2.4 其他心理健康领域应用

2.4.1 数字远程心理健康服务

数字远程医疗服务有许多实施方式,包括视频会议、远程监控和移动医疗设备的使用等,这些技术越来越多地被应用于大规模的灾害性事件[19]。除了传统的精神科医生和精神障碍患者之间的双向远程会诊外,由精神科医生远程支持的联合心理健康专业人员的多人会议或远程协作已经在多个国家成为主流[19]。

2.4.2 心理健康知识的普及

AI的引入使人们的传统观念逐渐改变,人类的知识和人文教育水平得到了提高,AI本身不会对教学产生影响,但它可以转化为教师使用的一种媒介或工具,在教育教学中发挥作用[5]。例如,可以使用移动应用程序按照个体的需求提供个性化的心理健康教育,作为面对面心理治疗与干预的进一步补充[18]。这些程序能够被广泛使用,主要是因为:客户可以轻松地访问到相关的报告结果;客户可以在虚拟教室学习心理学知识和观看相关视频;还可以自己创建相关课程等[10]。腾讯课堂等平台的功能包括视频录制、师生互动、精准教学、课后测试等功能,促进了教学模式和教学手段的进步,提高了教学质量,越来越受到教师、学生和家长的认可[5]。

3 AI在心理健康领域的优势

目前,在医学领域,AI技术越来越多地应用于身体健康,而心理健康方面则发展得较为缓慢。心理健康从业者更注重实践和以患者为中心,更多地依赖“软”技能,包括与患者建立关系以及直接观察患者的行为和情绪,心理健康的临床数据通常也是采用主观的和定性的患者陈述和书面笔记的形式[1]。尽管如此,AI技术仍然可以有效地运用于心理健康领域[1]。有学者认为,传统心理健康干预的服务范围相对有限,而人们对心理健康各方面的需求不断增长,所以AI特别适用于心理健康[13]。总体来看,AI运用于心理健康领域具有以下几点优势。

3.1 特殊时期的服务

自2019年底,新型冠状病毒肺炎疫情开始流行,并在全球蔓延。新型冠状病毒肺炎疫情的大流行对心理健康服务领域产生了重大影响。首先,疫情大流行造成的各种压力将增加对心理健康服务的需求[6]。有学者预测,失业和由此产生的财务压力可能会导致常见的心理障碍的增加[10]。还有学者研究发现,情绪驱动的错误信息分享在这次疫情中占据突出地位,加剧了公众的困惑和非理性焦虑,直接影响超负荷的卫生系统,间接影响心理健康,可能导致偏执的行为反应,如因过度恐惧而囤积货物[19]。其次,这些增加的心理问题,在医疗资源尤其是精神卫生资源匮乏的国家,更加难以得到医治[6]。最后,由于社会疏远的要求,面对面的心理干预受到严重限制[6]。因此,在疫情流行期间,将数字心理健康整合到心理健康服务领域至关重要[10]。有研究发现,在新型冠状病毒肺炎大流行期间,相较于急诊和住院治疗,远程医疗服务更受到患者和家属的青睐,患者对远程心理健康服务的看法总体上是积极的[10]。有研究证明了数字心理健康,包括基于云的大数据系统、基于AI的聊天机器人、在线健康社区和远程医疗平台在各种心理健康服务领域具有一定的有效性[19]。

3.2 便捷性

有研究发现,在美国,只有不到一半的精神障碍患者接受过相关治疗,超过60%的重度抑郁症青年没有接受过任何心理健康相关治疗[6]。精神卫生保健方面的不公平(如距离不便和专业人员稀缺等)是一个常见问题[10]。贫困儿童、少数民族和农村家庭获得心理健康服务的机会较少,在低收入和中等收入国家,心理健康服务获取的限制更为严重[6]。还有很多弱势群体无法在实际生活中寻求面对面的心理健康服务,例如家庭暴力的受害者或持久被虐待的儿童[19]。

AI治疗师可以24小时全天候为患者服务,并且不受时间和地点的限制[6]。这样就可以扩大心理健康体系服务的对象,使更多的人群更便捷地获得相关服务。AI治疗师以虚拟的方式接触到无法在实际生活中获得心理健康服务的人,采用简单直观的界面,以用户熟悉的方式与其进行交互,在人们所在的地方以令人愉悦的形式提供心理健康支持,使更多的人获得心理健康服务[18]。

3.3 减少污名化

有研究发现,1/5的美国成年人在一生中可能会经历精神障碍[20]。然而,超过一半的精神疾病患者没有接受过相关治疗[6],自我导向污名和公共导向污名是导致这一现象的重要原因:自我导向污名助长了自我歧视和刻板印象,会产生增加负面情绪、阻碍职业发展等不良后果;公共导向污名会导致有精神障碍的个体在社会中缺乏各种机会、被强迫治疗和缺乏独立性等[20]。使用电脑、手机等移动设备或聊天机器人来直接表达个体的情绪或精神障碍常常被认为可以避免污名化[18]。有研究表明,当人们认为他们在与计算机而不是真实的临床医生进行交谈时,自我表露的恐惧减少,印象管理行为减少,更容易表达自己情绪的严重程度,并且更愿意进行自我表露[8]。在行为健康方面,患者更容易向数字或聊天机器人报告症状,而不是向人类报告[20]。

3.4 缓解医生以及医疗压力

2017年,世界卫生组织报告称,全球每10万人中只有9名精神卫生工作者,精神卫生专业人员严重短缺,临床负担过重[18]。AI可以降低许多精神卫生工作者的任务成本,提高生产力[6]。在人力方面,可以简化日常工作,减少单调重复的任务,让专业人员从事更复杂和更有趣的工作;另一方面,AI能够帮助精神卫生专业人员在治疗过程中更加以患者为中心,例如,医生在与患者交谈时将不再被笔记本电脑隔开,因为AI能够记录以及分析、整理医患之间的对话与互动[6]。

3.5 增加对精神疾病的全面认识

一个人独特的生物-心理-社会特征可以全面充分地解释个体整体的心理健康状况,然而我们对这些生物、心理和社会系统之间相互关系的理解相对狭隘[1]。AI的主要优势之一是对数据的处理[6]。它能够高速处理来自不同来源(电子健康记录、管理数据集、可穿戴传感器、基因组和蛋白质组数据库以及社交媒体)的大量数据[8]。这些数据可以是关于同一个体的结构化(定量)或非结构化(文本、图片、声音等)数据[6]。利用AI技术对这些数据进行分析,有助于开发更好的诊断前筛查工具以及制定风险预测模型,以确定个体对精神疾病的易感性及风险评估,有助于开展精准医疗[1]。

4 心理健康领域使用AI的潜在问题

尽管AI被广泛地运用于心理健康领域,但因为该领域的主观性强、以人为本、影响因素众多等特殊性质,在使用AI技术时,我们应当特别注意以下可能存在的潜在问题。

4.1 技术方面的问题

4.1.1 算法偏差

所有基于AI的算法通常都存在偏见,就像人类所存在的各种偏见[20]。有证据表明,数据驱动的精神卫生保健方法可能进一步加深性别、民族、种族、年龄、阶级和地域政治的不平等[3]。有学者认为,如果真实数据仅限于社交媒体数据或自我报告的心理健康状况,不包括评估心理健康所需的背景信息,如目前无法通过监测设备获得的人际关系、文化、社会、经济和环境信息,那么数据可能产生有偏见的结果[7]。

4.1.2 心理健康领域AI专业人员缺乏

AI运用于心理健康领域,需要有能力处理大型复杂数据集的数据管理人员,但实际生活中,能够并希望与心理健康领域研究人员合作的AI科学家很少,因为心理健康服务在卫生系统并没有受到足够的重视[6]。另一方面,对于心理健康领域从业者,必须熟悉并掌握这些AI工具,才能将其运用到临床实践中[10]。但实际上并没有既定标准来指导专业人员如何在医疗保健环境中使用AI及其他新兴技术,对AI技术缺乏了解也会阻碍心理健康领域从业人员对其的使用[1]。

4.1.3 AI的准确性问题

4.1.3.1 缺乏关于数据结果有效性的研究

心理健康服务正在发生变化,互联网上有10 000多个心理健康应用程序正在被使用,但没有太多证据证明这些程序的有效性[6]。有学者认为,数字心理健康干预的证据,包括现实环境中临床有效性和成本效益的证据仍然不足[7]。目前,缺乏对包括聊天机器人等在内的用于心理健康服务的移动设备的实证研究,这意味着无法为许多工具提供基于证据的指南和建议[18],即没有已知的数字心理健康产品或服务注册来证明这些产品的质量、安全性、透明度和有效性[10]。另一方面,AI应用程序数据的大小和质量会限制算法的性能,有可能这些算法的输出仅在特定情况下或对特定人群有效,不具有推广性,很难明确这些研究的实际意义和临床价值[1]。

4.1.3.2 AI的“黑匣子”

许多AI方法,都被认为是决策过程中的“黑匣子”,即我们很难理解它们从大量数据中推断出什么,以及它们是如何得出结论的,因此很难判断它们的正确性[2]。另外,“黑匣子”也容易受到风险的影响,如意外或有意的偏见、错误和欺诈、对这些系统输出的错误解释、不恰当的使用(如直接在精神疾病诊断或心理治疗中使用它们),以及无视潜在的假设(如每个人都是不同的)等,都可能产生严重后果[2]。所以有学者指出,AI实际上是一种模型盲法,代表的是统计过程而不是因果推理,它缺乏透明度,不适合进行理论开发或测试,AI是帮助人类进行心理健康保健,而非取代人类[6]。

4.2 伦理方面的问题

心理健康服务本身就是一个特别需要注意法律和伦理问题的领域,AI的加入可能会加剧该领域传统的伦理问题,需要我们特别关注[4]。机器学习与大数据经常联系在一起,引发了许多新的伦理问题,超出了现行法律体系的范围[21]。因此,参与AI技术选择、测试、实施和评估决策的人员必须意识到这些伦理问题,并给予高度重视[1]。

4.2.1 算法偏差导致的污名化

有偏见的算法可能导致污名化,使用有偏见算法的工具搜索信息会降低一个人找到有效信息的能力,并可能造成额外的伤害[18]。另外,这种偏见可能会渗透到与心理健康相关的预测模型中,如果对某些少数或弱势群体的预测存在偏见,可能会进一步加剧他们与其他主流群体的差异[20]。

4.2.2 AI的责任归属问题

AI在任何时候都需要审查,有学者强烈认为人类不应将决策责任委托给“单独的机器”[7]。但是谁能够负责确定原始数据集的准确性、质量以及结果的准确性和有效性依然存在争议[6]。有研究者提出AI技术包括引导式自助、聊天机器人和其他基于网络的干预措施存在安全性和公众接受度的问题[10],因此,需要明确规定AI的相关标准,以便进行管理、监督和执行,维持其在心理健康领域的持续运营[18]。在美国,律师协会AI委员会建议建立国家算法登记册,以实现其透明度和公众信任,这一发展可能对AI在心理健康中的使用产生重大影响[7]。

4.2.3 个人信息的保密问题

使用社交媒体作为AI的数据来源存在伦理挑战[12]。例如,在预防自杀的研究中,研究人员需要通过使用社交媒体跟踪患者的信息,这可能被视为违反保密原则,在这种情况下应用AI会引起重大的伦理问题,需要我们在保持善意和尊重保密之间找到平衡[8]。还有一些基于心理健康服务的移动设备,可能会跟踪客户的位置信息,允许录音甚至可能链接到财务等极其敏感的个人信息[18]。所以我们应当使用各种方式(如为客户提供一个私密且安全的虚拟场所等)保护客户的隐私,才能增加客户的信任度和使用率[18]。有学者建议,研究人员需要获得机构审查委员会的伦理批准或豁免,在可能的情况下获得客户的知情同意,并在演示或分析使用中对敏感数据进行保护和匿名化[12]。一般来说,研究人员可以使用公开可用的数据进行健康监测,但必须为社交媒体用户保密[12]。

4.2.4 公众的知情同意问题

在AI技术的背景下知情同意是一个动态的、持续的和相关的过程,提高公众对AI技术利弊的认识和理解至关重要[3]。法国一项关于患者对可穿戴监控设备和AI医疗保健观点的研究发现,35%的患者会拒绝在他们的护理中使用生物识别监控设备和基于AI的其他工具[7]。建立信任的一种方法是让公众和患者参与心理健康AI的研究和开发[7]。考虑患者的观点将有助于充分利用技术,而不会损害护理的人性化、产生负担或干扰患者的生活,是未来提高与心理健康相关的AI安全性和可接受性的一个重要途径[3,7]。

5 结语

AI越来越成为数字医学的一部分,并将为心理健康领域的研究和实践做出重要贡献[1]。鉴于心理健康领域的复杂性和敏感性,在未来的发展中,领域专家必须参与非结构化数据的解释、解决方案的创建以及伦理问题的研究等,才能确保相关技术以一种可解释的、可操作的和透明的方式运行[2,7,21]。患者、服务使用者及其家庭也应该作为专家参与AI应用程序的设计、研究和开发[7]。另一方面,我们还应当增加对AI使用的监管力度[18],积极大力发展社区医疗保健[11],推动AI技术在心理健康领域的进一步发展。

猜你喜欢

精神障碍领域心理健康
电子战领域的争锋
自拟醒脑汤联合体外反搏治疗癫痫所致精神障碍的效果
脑器质性精神障碍病因及临床特征分析
高压氧治疗颅脑损伤并发精神障碍患者80例临床疗效观察
心理健康
将现代科技应用于Hi-Fi领域 Perlisten S7tse
关注青少年心理健康
2020 IT领域大事记
领域·对峙
融入式心理健康教育的路径探索