APP下载

基于卷积神经网络的病理活检胃癌诊断模型

2022-07-30王继仙陈炳宪茹国庆陈万远张志勇

协和医学杂志 2022年4期
关键词:切片病理胃癌

王继仙,桂 坤,陈炳宪,茹国庆,赵 地,陈万远,张志勇

1北京大学人民医院病理科,北京 100044 2宁波江丰生物信息技术有限公司,杭州 310014 3杭州医学院附属人民医院 浙江省人民医院病理科,杭州 310014 4中国科学院计算技术研究所,北京 100190 5唐山市工人医院病理科,河北唐山 063000

胃癌是起源于胃黏膜细胞的恶性肿瘤,其发病率和死亡率均位居肿瘤前列[1],其中中晚期胃癌的预后较差,5年生存率仅为60%[2];相对而言,早期胃癌预后较好[3],因此早期发现、及时诊断对改善胃癌患者的生存期至关重要。然而研究显示,我国早期胃癌的诊治率仅为10%[4],远低于韩国(71.5%)[5]和日本(64.6%)[6]。目前胃癌的早期筛查主要依靠胃镜病理活检,增加胃镜活检率是减少胃癌死亡率的有力手段,但内镜检查普及率的增高进一步加重了病理医生的阅片负担。如何寻找新的技术赋能医疗,让本身就短缺的病理医师专注于更有价值的病理诊断,是值得探索的问题。

近年来,人工智能得到了空前发展,该前沿技术在医学领域中的应用逐渐成为一种新趋势。在病理学方面,人工智能在脑、乳腺、肺等重要器官的诊断方面已取得长足进步[7-9]。关于胃癌的病理诊断,Sharma等[10]提出一种基于典型的 AlexNet 网络结构建立的卷积神经网络(convolutional neural network,CNN)分类模型可实现对整张数字病理图像中胃癌的识别。Sharma 等[11]利用神经网络提取胃癌细胞核内的纹理信息并构建支持向量机(support vector mach-ine,SVM)分类器,亦实现了胃癌的分类识别。但既往研究采用的方法虽可识别出胃癌,但无法对肿瘤区域准确定位。本研究基于深度学习技术的图像分类方法,以期实现对病理切片中的胃癌区域进行识别和定位,以辅助病理医师精准定位病变区域,利于患者后续治疗方案的制订。

1 材料与方法

1.1 病理切片来源

本研究为回顾性分析。病理切片来自2015年1月—2020年1月浙江省人民医院行内镜检查的患者。纳入标准:(1)内镜活检病理诊断为正常胃黏膜、慢性胃炎、高级别上皮内瘤变或胃腺癌;(2)病理切片及诊断资料保存完好。排除标准:病理结果合并其他诊断。

本研究已通过浙江省人民医院伦理审查委员会审批(审批号:QT2022099),并豁免患者知情同意。

1.2 研究方法

1.2.1 病理切片分类

所有病理切片均由2名消化道早癌专科的病理医师,按照WHOClassificasionofTumorsoftheDigestiveSystem[12]中的标准重新阅片,进一步确认诊断无误。采用KF-PRO-400高精度切片扫描仪以20倍率将其扫描为全视野数字图像(whole slide image,WSI),并按2∶2∶1的比例随机分为图块分类数据集、切片分类训练集与切片分类测试集,分别用于图块级癌与非癌分类模型构建与训练、切片级癌与非癌分类模型训练与验证。图块分类数据集按20∶1∶1的比例随机分为训练集、测试集、验证集。

1.2.2 研究框架制订

本研究包括模型训练和模型应用两个阶段。(1)模型训练阶段:对图块分类数据集WSI中的癌组织区域进行标注,并训练图块级癌与非癌分类模型,用于图块中癌与非癌的识别。(2)模型应用阶段:采用Otsu算法获取整张WSI中的组织前景区域,然后用经过训练的图块级癌与非癌分类模型对前景区域中的图块进行识别,拼接出整张WSI的癌变热力图,并从热力图中提取切片级癌与非癌分类特征,输入切片级癌与非癌二分类模型,最终完成整张胃活检切片的诊断。整体研究框架见图1。

图1 基于卷积神经网络的胃癌诊断模型研究框架

1.2.3 图像标注

由于WSI尺寸较大,平均像素为10万×10万。为更好地对组织进行标注,本研究团队研发了专门的在线标注平台。对于胃癌WSI,采用闭合曲线标注所有癌组织区域(图2A);对于胃良性疾病WSI,采用矩形标注工具标注正常胃组织(图2B)。

图2 全视野数字图像标注示例A.胃癌;B.胃良性疾病

根据标注结果(未标注的前景区域视为良性区域),在20倍率下采用滑窗法截取512×512大小含癌组织标注的图块(癌变图块)作为阳性图块,不含癌组织标注的图块作为阴性图块的一部分(胃正常组织图块),采用同样方法从正常良性切片中截取同样大小的图块为阴性图块的另一部分。

1.2.4 图块级癌与非癌分类模型构建与训练

输入训练集阳性/阴性图块,对Efficientnet(Efficientnet-b1、Efficientnet-b2、Efficientnet-b3)和ResNet(ResNet50、ResNet101)网络结构进行训练,建立图块级癌与非癌CNN分类模型,并基于受试者操作特征(receiver operating characteristic,ROC)的曲线下面积(area under the curve,AUC)筛选最优的模型,训练过程中采用随机裁剪(224×224像素)、翻转、Gamma变换、高斯模糊、纹理变换等图像增强方法提高模型的泛化能力(图3)。训练过程中,优化器为 Adam,初始学习率为0.01,训练策略为Early Stop,当验证集Loss下降至最低点时,提前终止训练。

图3 图块级癌与非癌分类模型训练时的图像增强方法

为进一步对整张切片的癌变部位进行预测,采用Otsu算法获取1倍率WSI组织前景信息,然后采用训练后的图块级癌与非癌分类模型识别前景区域中的图块,基于全图推理法拼接出整张WSI的癌变热力图。基于热力图与组织前景信息,从热力图中提取切片级胃癌分类特征,选取与切片阴阳性相关系数最高的5个特征进行LightGBM算法训练,最终完成整张胃活检切片中胃癌的识别。

1.2.5 WSI全图推理与分类

WSI数字病理切片全图推理主要包括3个步骤。

第一步:提取1倍率下组织学数字病理图像,获取组织前景区域Mask,保存为0-1矩阵。其中组织前景设定为1,背景设定为0。具体计算方式如下:

(1)

第二步:采用滑窗法(窗口大小为512×512,步长384)从矩阵中截取一系列图块用于图块级癌与非癌分类模型推理,并记录每个图块左上角相对于WSI的坐标。在全图拼接时,截取每个预测图块的中心处大小的矩形区域,合并生成最终全图的癌变热力图。

第三步:基于第二步获取的WSI热力图,提取肿瘤分类特征。采用经过训练的LightGBM分类算法获取整张WSI中胃癌分类结果。LightGBM分类模型是一个支持梯度提升决策树算法的框架,工作效率高且内存消耗低。在训练前,首先将从WSI热力图中提取的肿瘤分类特征排序,并绘制特征直方图。在后续训练过程中,算法仅需使用直方图作为“特征”进行决策树构建,可极大程度上提高训练效率。此外,LightGBM算法采用深度优先分裂策略,每次对叶节点进行分裂时均将全部训练数据考虑在内,不仅不会造成局部最优,且减少了后剪枝操作的次数。决策树构建过程中,模型对梯度小的训练数据进行采样处理,而对梯度大的训练数据保留全部信息,以提高模型的稳定性。

1.3 评价指标

采用图块分类准确率、AUC评价图块级分类性能;采用AUC、准确率、灵敏度、特异度评价整张切片癌与非癌的分类性能。

1.4 统计学处理

采用SPSS 22.0软件进行统计学分析。基于均值、方差、偏度系数和峰度等指标,对癌变热力图中的肿瘤分类特征进行提取。以肿瘤连通域面积的均值、方差、偏态系数、峰度为例,设一组肿瘤连通域面积X={x1,x2,…,xn},则均值反映肿瘤连通域面积的平均大小,方差可衡量肿瘤连通域面积分布的离散情况,偏态系数可评估肿瘤连通域面积分布的对称性,峰度可评估肿瘤连通域面积峰值的高低。采用Pearson相关法衡量肿瘤特征与胃癌风险区域的相关性。

2 结果

2.1 数据集

共入选1000张符合纳入和排除标准的胃活检病理切片,其中胃良性疾病(正常胃黏膜、慢性炎症)病理切片500张,胃癌(高级别上皮内瘤变、胃腺癌)病理切片500张。图块分类数据集、切片分类训练集、切片分类测试集中,每个数据集均包含胃癌与胃良性疾病WSI图像,分别为400张、400张、200张。图块分类数据集的训练集、测试集、验证集中,每个数据集均包含胃癌与胃良性疾病WSI图块,分别为402 000个、20 000个、20 000个。

2.2 图块级癌与非癌分类模型

5种网络结构构建的癌与非癌分类模型中,相较于结构更为复杂的Efficientnet-b2、Efficientnet-b3,以Efficientnet-b1网络结构建立的模型对测试集、验证集图块分类的准确率、AUC均最高,见表1。

表1 基于5种网络结构构建的图块级癌与非癌分类模型的性能比较

2.3 切片级癌与非癌分类模型

基于全图推理法,采用Efficientnet-b1网络结构构建的癌与非癌分类模型获取整张切片的癌变热力图(图4),结合组织前景信息,于切片分类测试集中共提取31个肿瘤分类特征(表2),并选取其中与切片阴阳性相关系数最高的5个特征进行切片级癌与非癌分类模型训练(表3),结果显示基于LightGBM算法构建的模型对整张切片分类的AUC为0.98(95% CI:0.89~0.98),准确率为88.0%(95% CI:81.6%~94.3%),灵敏度为100%(95% CI:88.0%~100%),特异度为67.0%(95% CI:57.0%~85.0%),见图5。

图4 根据全视野数字图像识别的癌变热力图A.全视野数字图像;B.癌变热力图(颜色越接近红色表示该区域癌变的风险越高)

表2 根据癌变热力图和前景信息筛选的癌与非癌分类特征

表3 切片级癌与非癌相关性最强的5个肿瘤分类特征

图5 基于LightGBM算法构建的癌与非癌分类模型识别切片分类测试集中胃癌的受试者操作特征曲线图

3 讨论

本研究利用计算机前沿技术,建立基于胃活检病理图片的胃癌诊断模型,结果显示该模型对测试集图块分类的AUC为0.95,对整张切片分类的AUC为0.98,且可对癌变区域进行定位,有助于在临床工作中提高病理医生的阅片效率,辅助胃癌的早期诊断。

2017年4月,美国食品药品监督管理局批准Philips公司的Philips IntelliSite Pathology Solution (PIPS)作为首个用于病理诊断的WSI数字系统,其在保障成像精度的同时,可利用数字化病理切片进行疾病诊断,并提供文件检索功能,为以后快速获取提供了极大便利。自此,人工智能技术在肿瘤病理学中的应用取得了质的突破,包括肿瘤诊断、分型、分级、分期、预后预测、生物标志物和基因改变的识别。

算法是人工智能深度学习的核心,可探究数据的内在规律,其运行需大量数据的支持。为弥补病理图像样本量不足的限制,多数情况下,在算法运行和机器学习过程中,常需对图像进行分割,以扩展数据、提高模型的性能。传统医学图像的分割算法包含边缘分割、区域分割和泛函图像分割等,存在严重依赖人工设计、特征设计过于复杂、模型泛化能力较差等问题。深度学习是应用最广泛的图像分割方法,通过数据挖掘、自然语言处理等技术,在图像识别方面已取得重大进展。CNN是当前语言分析和图像识别领域的研究热点,其模仿大脑视觉皮层构造和视觉活动原理而开发。CNN模型中包含多层图像感知器(相当于人工视神经元)、多个神经网络层、连续的卷积层与后方池化层,可对原始图像数据进行深度学习,并预测特征分类,为医学成像的识别提供了机会。研究表明,利用CNN可从组织病理学图像中自动识别、检测出各种恶性肿瘤且具有较高的准确性。Garcia等[13]基于CNN模型建立的分类系统可根据免疫组化图像对胃癌进行识别。Sharma等[10]研究显示,基于深度学习CNN模型可对病理学图像的整个形态学特征和局灶特征进行分析,实现胃癌总体分类(准确率为69.90%)。Tomita等[14]报道了一种基于CNN算法建立的人工智能辅助系统,可自动识别Barrett食管或胃腺瘤以及腺癌的肿瘤前病变。Iizuka等[15]的研究得到了类似结果,基于CNN算法识别胃活检病理图像,可实现胃腺癌、腺瘤和非肿瘤组织的智能分类(AUC:0.97)。上述研究虽然可根据病理切片识别出胃癌,但对整张病理切片中的肿瘤区域无法实现精准定位。

本研究收集了浙江省人民医院的1000张胃镜活检病理切片,通过转化为WSI实现了病理切片的数字化保存。基于深度学习技术,首先搭建可对图块进行分类识别的CNN网络模型,并可准确对WSI中的癌变区域进行定位。在此基础上,通过特征提取构建切片级肿瘤分类机器学习模型(LightGBM算法),对整张切片胃癌识别的AUC高达0.98,明显优于既往研究结果[16]。癌变热力图可直观清晰显示胃癌风险区域,其中颜色越接近红色的区域,表示为胃癌的可能性越大。通过对癌变区域进行精确定位,可辅助病理医生对病变性质进行快速诊断,并有利于后续临床治疗,显著提高了工作效率。

本研究通过深度学习技术实现了对整张病理切片进行分类诊断,并对癌变区域进行精准定位,首先得益于样本量较大。机器学习在缺乏医学先验知识的情况下,可从图像中自动学习相关特征,并对图像进行分类。高识别精度需要足够多的数据量提供支撑,以避免模型过拟合现象。其次,在图像标注方面,本研究首先研发了特定的标注工具,可显著提高标注效率,同时设计了一个测试程序,包括初步标签、进一步验证和最终审查。切片随机由1名病理医师标注完成后,再随机选取1名病理医师进行审查,并由病理专家对标注结果进行随机抽查,以保证标注质量。此外,在模型验证与评价时,本研究以灵敏度100%、特异度67%为最佳识别性能,并非以约登指数最大值为标准,原因在于数字病理图像的人工智能辅助诊断系统需优先解决的是筛查问题,即在保证阳性类别不漏检的前提下尽量提高特异度。临床应用时,病理医师仅需对阳性切片进行筛查,可提高诊断效率,并避免漏诊。

Song等[17]使用CNN模型对2123像素级注释的HE切片病理图像进行训练,建立的胃癌诊断模型发现2例人工阅片漏诊的病例。本研究经病理科医师重新阅片,发现最初的病理报告亦存在误诊现象,而模型对切片进行识别时,可实现正确分类。如图6所示,4例原始病理报告诊断为腺上皮高级别上皮内瘤变的病例,经重新阅片后判定为炎症伴黏膜肠化生,模型对该4例患者的分类结果均正确,进一步提示基于深度学习技术构建的胃癌智能诊断模型具有准确率高,减少漏诊、误诊的优势。

图6 胃良性疾病病理图像(HE,×40)

本研究局限性:(1)仅构建胃癌识别的二分类模型,无法对高级别上皮内瘤变和胃腺癌进行区分。(2)虽然分类模型在胃癌的识别中显示出了较高的性能,但真正用于实际病例的诊断尚面临挑战。原因包括两个方面:第一,用于训练CNN模型的图像中,一些特征如肿瘤免疫微环境中的坏死、血管和炎症等未进行标注;第二,入选的疾病种类较单一。

综上,基于胃活检病理切片建立的CNN诊断模型可实现对图块级和切片级病变性质精确分类,准确识别胃癌;同时可识别因人工阅片疏漏导致的漏诊、误诊,在病理学领域有很大的发展前景。相信随着机器学习算法的持续改进以及数据量的累积,智能诊断系统对疾病分类的精确度和诊断效率会得到进一步提高。

作者贡献:王继仙负责数据整理与分析、论文撰写;桂坤、陈炳宪负责研究实施、数据分析;茹国庆负责病理阅片、研究设计;赵地负责研究设计、数据分析;陈万远、张志勇负责病理阅片、文献整理、论文修订。

利益冲突:所有作者均声明不存在利益冲突

猜你喜欢

切片病理胃癌
分析乳腺癌病理诊断对临床诊治的价值
小细胞肺癌病理特征及免疫研究进展
碘-125粒子调控微小RNA-193b-5p抑制胃癌的增殖和侵袭
术前MRI检查对宫颈癌病理分期及宫旁浸润评估的诊断价值
胃癌癌前病变有哪些,该如何早期发现和治疗
新局势下5G网络切片技术的强化思考
5G网络切片技术增强研究
为何要病理会诊和免疫组织化学检测
早期胃癌手术治疗方法有哪些
网络切片标准分析与发展现状