-
摘要:目的 基于深度学习算法构建宫颈原位腺癌(cervical adenocarcinoma in situ, CAIS)病理图像诊断模型。方法 回顾性收集2019年1月至2021年12月中国医科大学附属盛京医院病理科保存的CAIS患者病变组织、慢性宫颈炎患者正常宫颈管腺体病理切片。图像采集后,均按4∶3∶3的比例随机分为训练集、验证集和测试集。使用训练集、验证集数据对VGG16、VGG19、Inception V3、Xception、ResNet50和DenseNet201共6种网络模型进行迁移学习训练和参数调试,构建可识别CAIS病理图像的卷积神经网络二分类模型,并将模型进行组合,构建集成学习模型。基于测试集数据,采用运算时间、准确率、精确率、召回率、F1值、受试者操作特征曲线下面积(area under the curve,AUC)对模型识别CAIS病理图像的性能进行评价。结果 共入选符合纳入和排除标准的CAIS患者病理切片104张、慢性宫颈炎患者正常宫颈管腺体病理切片90张。共收集CAIS、正常宫颈管腺体病理图像各500张,其中训练集、验证集、测试集图像分别400张、300张、300张。6种模型中,ResNet50模型的准确率(87.33%)、精确率(90.00%)、F1值(86.90%)及AUC(0.87)均最高,召回率(84.00%)居第2位,运算时间较短(2062.04 s),整体性能最佳,VGG19模型次之,Inception V3与Xception模型的性能最差。6种集成学习模型中,ResNet50与DenseNet201集成模型的整体性能最优,其准确率、精确率、召回率、F1值、AUC分别为89.67%、84.67%、94.07%、89.12%、0.90,VGG19与ResNet50集成模型次之。结论 通过深度学习算法构建CAIS病理图像识别模型具有可行性,其中ResNet50模型的整体性能较高。集成学习可提高单一模型对病理图像的识别效果。Abstract:Objective To construct a pathological image diagnostic model of cervical adenocarcinoma in situ(CAIS) based on deep learning algorithm.Methods Pathological tissue sections of CAIS and normal cervical canal and gland sections of chronic cervicitis stored in the Pathology Department of Shengjing Hospital, China Medical University from January 2019 to December 2021 were retrospectively collected. After image collection, they were randomly divided into training set, validation set and test set with a ratio of 4∶3∶3. The data of training set and validation set were used to conduct transfer learning training and parameter debugging for 6 network models, including VGG16, VGG19, Inception V3, Xception, ResNet50 and DenseNet201, and the convolutional neural network binary classification model that could recognize pathological images of CAIS was constructed. The models were combined to build the ensemble learning model. Based on the test set data, the performance of pathological image recognition of single model and ensemble learning model was evaluated. The results were expressed by operation time, accuracy, precision, recall, F1 score and area under the curve(AUC) of receiver operating characteristic.Results A total of 104 pathological sections of CAIS and 90 pathological sections of normal cervical duct and gland with chronic cervicitis were selected. A total of 500 pathological images of CAIS and normal cervical duct glands were collected, including 400 images of training set, 300 images of validation set and 300 images of test set, respectively. Among the 6 models, ResNet50 model, with the highest accuracy(87.33%), precision(90.00%), F1 score(86.90%) and AUC(0.87), second highest recall(84.00%) and shorter operation time(2062.04 s), demonstrated the best overall performance; VGG19 model was the second; and Inception V3 and Xception model had the worst performance.Among the 6 kinds of ensemble learning models, ResNet50 and DenseNet201 showed the best overall performance, and their accuracy, precision, recall, F1 score and AUC were 89.67%, 84.67%, 94.07%, 89.12% and 0.90, respectively. VGG19 and ResNet50 ensemble model followed.Conclusions It is feasible to construct CAIS pathological image recognition models by deep learning algorithm, among which ResNet50 models has higher overall performance. Ensemble learning can improve the recognition effect on pathological images by single model.
-
宫颈癌是女性生殖系统最常见的恶性肿瘤之一,《2020年全球癌症数据报告》显示,宫颈癌发病率、死亡率分别居所有恶性肿瘤第7、9位,严重影响女性的身体健康[1]。随着宫颈癌筛查的普及,宫颈鳞癌发病率已明显下降,宫颈腺癌及其癌前病变发病率逐渐升高[2]。宫颈原位腺癌(cervical adenocarcinoma in situ, CAIS)是发生于宫颈腺上皮内的癌前病变,组织学表现由肿瘤性上皮代替颈管表面和内部腺体的正常上皮,其多见于30~40岁女性,侵袭性较高级别鳞状上皮内病变高[3-5]。CAIS起病隐匿,临床症状不典型,组织病理学检查是确诊CAIS的金标准。目前常通过宫颈细胞学、阴道镜下多点活检以及颈管诊刮等联合筛查方法以实现CAIS的早期诊断[6-7],但人工阅片病理诊断工作效率较低,且高负荷的工作易引起阅片者视觉疲劳,导致漏诊、误诊,影响诊断结果的准确性。
近年来随着医工融合领域的兴起,计算机辅助诊断和图像识别技术在病理学研究中得到了广泛应用[8]。国内外许多研究者在提高宫颈细胞学智能诊断领域取得重大研究进展[9-12]。本研究探讨应用深度学习算法构建CAIS病理图像智能识别模型的可行性,以辅助临床医师进行CAIS病理诊断,减少误诊率、漏诊率。
1. 材料与方法
1.1 材料来源与数据集分组
回顾性收集2019年1月至2021年12月中国医科大学附属盛京医院病理科保存的CAIS患者阴道镜多点活检和手术锥切活检病理切片(包括免疫组化)、慢性宫颈炎患者正常宫颈管腺体HE染色病理切片。纳入标准:CAIS、慢性宫颈炎的诊断均由2名具有10年以上工作经验的病理科医生完成,其中CAIS诊断标准:细胞核增大、深染、异型性,可见核上移、核分裂或凋亡小体增多等;免疫组化示P16弥漫表达和Ki-67指数增高(图 1)。排除标准:出现切片制作不良、细胞变形、染色不均匀等情况。
取CAIS和慢性宫颈炎病理切片,由2名经验丰富的病理科医师进行标注。通过图像采集系统采集图像(显微镜型号Axio Scope.A1),采集倍数为100倍(分辨率为3840×2160)。按4∶3∶3的比例随机分为训练集、验证集和测试集。其中训练集数据用于训练模型,验证集数据用于模型参数调试及模型对病理图像分类能力的初步评估,测试集数据用于最终模型的性能评定。
本研究已通过中国医科大学附属盛京医院伦理审查委员会审批(审批号:2022PS841K),并豁免患者知情同意。
1.2 方法
1.2.1 迁移学习
传统机器学习算法对数据有严格要求(如需服从相同的分布),临床许多数据并不完全满足该假设,导致机器学习应用受限。与此同时,研究者常无法获取足够的样本量,出现因网络结构训练不足导致的模型过拟合现象。迁移学习是将在特定领域/任务中学习的知识或模式应用于不同领域/场景的方法[13-15],其可有效解决数据不满足需求和样本受限的问题。延伸至神经网络中,研究人员可直接使用经过训练的模型,从中选取可使用的结构层,将其输出结果作为输入信息,进而训练为一个参数更少、规模更小的网络结构。这些小规模的网络结构仅需明确具体问题的内部关系,通过预训练对隐含模式进行学习即可达到较好的性能。目前迁移学习的应用方法主要包括两种:一种为根据具体需求对预训练网络结构的参数进行微调;另一种是将预训练的网络结构作为特征提取器,基于提取的特征对新的分类器进行训练。本研究采取第一种方法进行迁移学习,即对在ImageNet数据集中预训练的网络结构进行参数微调。在实际操作中,冻结了除全连接层以外的其他网络参数,仅对最终网络层的超参数进行调整,从而达到适应宫颈病理图像学习的目的。
1.2.2 模型训练与构建
基于训练集、验证集数据,利用迁移学习的方法进行模型训练和参数调试,构建可对CAIS病理图像进行识别的卷积神经网络(convolutional neural networks, CNN)二分类模型。模型的训练过程分为前向传播和反向传播2个阶段[16]共5个操作步骤:(1)加载已完成预训练的VGG16、VGG19、Inception V3、Xception、ResNet50和DenseNet201网络结构,并将其权重初始化。(2)输入训练数据,经卷积层、下采样层、全连接层处理后获取输出结果。(3)计算输出值与标签值的误差,若误差不满足要求,则进入第4步,即反向传播过程;否则进入第5步。(4)在误差降低的方向上对权重进行更新,评估模型的性能是否得到改善。若无改善,则衰减学习率,返回至第2步,进行下一轮迭代流程(若有改善,进入下一步)。(5)保存CNN网络结构各层权重和阈值,完成模型训练。本研究采取指数衰减学习率进行模型训练和参数调试,获取最优模型。相关参数设置:衰减步长为5,衰减率为0.1,初始学习率为0.0001,优化器为Adam,损失函数为Categorical Crossentropy。初始输入图像尺寸为224×224×3,批量数为128,共进行100次迭代。
1.2.3 集成学习
集成修剪是从一组已完成训练的个体学习器中,选取一个子集进行集成学习。其具有2个优势,其一为使用更小规模的数据完成集成结果,不仅可减小模型的存储量,还可减少学习器输出的计算量,提高工作效率;其二可提高模型的泛化性能,甚至可能优于使用全部个体学习器进行集成后获得的模型。本研究采用加权投票法将多个学习器进行集成。首先筛选出测试集中识别性能较好的单一网络,以各模型的准确率为权重,然后两两组合进行集成。
1.3 评价指标
基于测试集数据对模型的分类效果进行评价,评价指标为运算时间、准确率、精确率、召回率、F1值、受试者操作特征(receiver operating characteristic, ROC)曲线下面积(area under the curve,AUC),并通过混淆矩阵进行可视化展示。混淆矩阵是评价模型性能的常用方法,在人工智能领域中,通常用于监督学习,其通过n行×n列的矩阵形式展示模型的精度。矩阵中的行和列分别表示数据的实际类别和预测类别,每行的数据总数表示该类别数据的实际数目,每列的数据总数表示预测为该类别数据的数目。颜色越深表示模型对图像识别的准确率越高。
1.4 统计学处理
采用Python3.9.0软件进行统计学分析,并输出模型对病理图像识别结果的混淆矩阵及ROC曲线图,输出图片识别效果的AUC。准确率、精确率、召回率、F1值以百分数表示。
2. 结果
2.1 病理图像数据集
共入选符合纳入和排除标准的CAIS病理切片104张(52例患者)、慢性宫颈炎正常宫颈管腺体病理切片90张(45例患者),收集CAIS、正常宫颈管腺体病理图像各500张。训练集、验证集、测试集中分别包含宫颈原位腺癌图像200张、150张、150张,包含正常宫颈管腺体图片200张、150张、150张。
2.2 模型评价
6种模型的训练结果见图 2,ROC曲线分析结果见图 3。VGG16、VGG19、ResNet50、DenseNet201模型识别CAIS病理图像的准确率和精确率均高于80%,其中VGG19模型的召回率最高,达84.67%。ResNet50模型的准确率、精确率、F1值及AUC均最高,召回率居第2位,运算时间较短,该模型的整体性能最佳,VGG19模型次之,Inception V3与Xception模型对CAIS病理图像的识别能力最差,准确率均低于70%(表 1)。混淆矩阵进一步验证了上述结果,见图 4。
表 1 6种模型对测试集图像识别效果的评价指标模型 运算时间(s) 准确率(%) 精确率(%) 召回率(%) F1值(%) AUC VGG16 2071.33 80.33 86.40 72.00 78.55 0.80 VGG19 2147.58 84.67 84.67 84.67 84.67 0.85 Inception V3 2115.85 64.67 61.83 76.67 68.45 0.65 ResNet50 2062.04 87.33 90.00 84.00 86.90 0.87 Xception 2061.44 65.00 73.68 46.67 57.14 0.65 DenseNet201 2124.49 80.33 80.13 80.67 80.40 0.80 AUC:曲线下面积 2.3 集成学习模型性能评价
从迁移学习训练的6种网络模型中,选取2种模型作为个体学习器进行集成。在模型选取时,首先将图像分类效果较差的Inception V3和Xception模型剔除,然后选取余4个模型两两进行组合,共构建6个集成学习模型。本研究以图像识别准确率为最重要的观察指标,优先考虑将准确率进行加权。结果显示,与单个模型比较,集成学习的模型对CAIS病理图像的识别能力明显提升(表 2)。其中ResNet50与DenseNet201集成模型的准确率、召回率、F1值、AUC均最高,整体性能最优,其次为ResNet50与VGG19相集成。集成学习模型对测试集CAIS图像识别结果的ROC曲线见图 5,混淆矩阵见图 6。
表 2 6种集成学习模型对测试集图像识别效果的评价指标集成学习模型 准确率(%) 精确率(%) 召回率(%) F1值(%) AUC VGG16+VGG19 83.67 77.33 88.55 82.56 0.84 VGG16+ResNet50 86.00 79.33 91.54 85.00 0.86 VGG16+DenseNet201 86.33 82.00 89.78 85.71 0.86 VGG19+ResNet50 88.33 87.33 89.12 88.22 0.88 VGG19+DenseNet201 87.33 86.00 88.36 87.16 0.87 ResNet50+DenseNet201 89.67 84.67 94.07 89.12 0.90 AUC: 同表 1 图 6 集成学习模型对测试集图像识别效果的混淆矩阵CAIS、normal:同图 43. 讨论
本研究基于迁移学习技术,通过6种网络结构探究了构建CAIS病理图像智能识别方法的可行性,结果显示ResNet50模型在AIS病理图像的识别中准确率(87.33%)、精确率(90.00%)、F1值(86.90%) 及AUC(0.87)均最高,召回率(84.00%)居第2位,系统运算时间较短(2062.04 s),其整体性能最佳。进一步将单个模型进行组合,构建集成学习模型,结果表明将ResNet50与DenseNet201相集成得到的模型具有更高的CAIS病理图像识别能力。
病理图像的精准识别可为CAIS早期诊断提供重要参考依据。传统人工阅片的病理诊断方法需病理医师通过显微镜对病理图像进行观察,该方法工作量大、耗时长、主观性强、易漏诊,尤其CAIS起病隐匿,病变位于颈管处,活检取材局限,增加漏诊的概率。近年来,人工智能在宫颈病变病理图像识别领域已有较多研究发表[17],涉及图像分割[3]、融合及可视化[4-5]。Sato等[18]基于深度学习算法实现宫颈癌前病变、原位癌、浸润性癌图像三分类,准确度为50%。Asiedu等[8]将宫颈醋白实验和碘实验图像提取的颜色和纹理特征相结合,构建宫颈病变图像的支持向量机(support vector machine, SVM)分类器,实现了鳞状上皮内病变和非鳞状上皮内病变图像二分类,经测试模型的特异度为78.6%,准确度为80.0%[8]。目前,人工智能在CAIS图像识别中的研究较缺乏。
本研究对6种经典CNN网络结构进行了训练,以期构建可识别正常宫颈管腺体和CAIS病理图像的分类模型。VGG16、VGG19、ResNet50、Inception V3、Xception和DenseNet201均为经典的迁移学习网络结构。VGGNet是Simonyan和Zisserman于2014年提出的CNN模型,在当年的ImageNet大规模视觉识别挑战赛(ImageNet Large-Scale Visual Recognition Challenge, ILSVRC)中,荣获分类任务第二名、定位任务第一名[19-20]。VGG16、VGG19结构相似,仅在网络深度方面存在差异,该网络论证了CNN的深度能够在一定程度上影响网络的性能表现[19],但缺点是资源耗费大、训练时间久、存储容量高。Inception模块是GoogLeNet的核心组成单元[21],其基本组成架构主要包括4个部分:1×1卷积层、3×3卷积层、5×5卷积层、3×3最大池化层。Inception V3利用拆解(Factorization)的思想对之前的版本进行了改进,使参数量降低了33%,其优势是多视野,可纳入多尺度信息,但牺牲了网络深度,导致一些有价值的信息提取不充分。Xception由Chollet提出,其主要创新是引入了深度可分离卷积,将通道卷积与空间卷积分离,提高了训练效率并缩短运算时间,在数据集较大的情况下,其训练效果优于Inception V3[22]。DenseNet201由清华大学黄高博士于2017年提出,核心思想为密集连接,即某层的输入信息除包含前一层的输出信息外,亦包含前面所有层的输出信息,以保证在神经网络前向传递中,每一层均可与前面所有层直接进行连接,其在减少参数量的同时加强了特征之间的传递效率。ResNet50模型于2015年由Kaiming首次提出,该模型在当年的ImageNet比赛分类任务中获得冠军,其基础模块为残差块(residual block),分为直接映射和残差映射两部分。在直接映射部分,上层的网络输出可被直接传至下一层,不增加任何附加参数;反向传播时,下一层网络的梯度可直接传递给上一层,以有效解决深层网络梯度消失的问题[23]。ResNet50系列模型最大的优势是引入了残差结构,在不断增加卷积层数的同时可兼顾模型准确率的提升[24]。Al-Haija等[25]基于ResNet50建立的乳腺组织病理图像迁移学习模型,可实现乳腺病理图像良恶性二分类,准确率高达99%。本研究结果显示,VGG19模型具有较高的图像识别召回率,而ResNet50模型的准确率、精确率、F1值及AUC均最高,其整体性能最优,提示VGG19与ResNet50可较好地实现AIS病理图像识别。这得益于VGG19与ResNet50的结构优势,使其对小数据集具有更高的适应性以及深层网络对病理学图像较高的特征提取能力。
模型集成学习是将多个学习器相结合,以提高模型的鲁棒性和泛化能力,更高效地完成图像识别、分类、预测任务。但在模型集成过程中需考虑模型构架的可读性、可测试性以及代码生成方式等问题。在单个模型的基础上,本研究进行集成学习,以进一步提高分类模型的性能。由于在单个模型的迁移学习阶段,Inception V3与Xception对CAIS图像识别的性能最差,集成学习时首先将其剔除。其余4个模型两两进行集成。本研究结果显示,ResNet50与DenseNet201相集成的模型具有更高的准确率、召回率、F1值和AUC,与单个模型相比,准确率、召回率、F1值及AUC均有不同程度的提高。从网络结构来看,ResNet50的残差结构加强了深层网络的图像特征提取能力,DenseNet201的抗过拟合能力和泛化性能十分强大,此2种网络相结合可优势互补,发挥整体更强的图像识别能力。尤其在病理学诊断最看重的图像识别准确率方面,集成网络的效果更胜一筹。
本研究局限性:(1)受限于病理切片的数量,仍可能导致模型过拟合现象;(2)模型的训练数据和验证数据均来自中国医科大学附属盛京医院,缺乏多中心样本数据对模型性能进行外部验证。
综上所述,基于迁移学习和CNN可实现对CAIS图像进行智能识别,以辅助病理医师阅片,提高宫颈癌早诊率。本研究再次证实人工智能在病理图像识别中具有较大的优势和较好的应用潜力,后续将致力于提高CAIS病理图像识别的精确度、提升模型性能、建立CAIS图像数据库相关研究,并促进相应研究成果于临床落地,真正服务于临床,惠及广大患者。
作者贡献:刘畅负责研究设计、临床病理数据收集、病理诊断判读与论文撰写;郑宇超负责研究设计、模型构建与数据分析;谢文倩负责临床病理数据收集与图像采集;李晨、李晓晗负责指导研究设计与论文审校。利益冲突:所有作者均声明不存在利益冲突 -
图 6 集成学习模型对测试集图像识别效果的混淆矩阵
CAIS、normal:同图 4
表 1 6种模型对测试集图像识别效果的评价指标
模型 运算时间(s) 准确率(%) 精确率(%) 召回率(%) F1值(%) AUC VGG16 2071.33 80.33 86.40 72.00 78.55 0.80 VGG19 2147.58 84.67 84.67 84.67 84.67 0.85 Inception V3 2115.85 64.67 61.83 76.67 68.45 0.65 ResNet50 2062.04 87.33 90.00 84.00 86.90 0.87 Xception 2061.44 65.00 73.68 46.67 57.14 0.65 DenseNet201 2124.49 80.33 80.13 80.67 80.40 0.80 AUC:曲线下面积 表 2 6种集成学习模型对测试集图像识别效果的评价指标
集成学习模型 准确率(%) 精确率(%) 召回率(%) F1值(%) AUC VGG16+VGG19 83.67 77.33 88.55 82.56 0.84 VGG16+ResNet50 86.00 79.33 91.54 85.00 0.86 VGG16+DenseNet201 86.33 82.00 89.78 85.71 0.86 VGG19+ResNet50 88.33 87.33 89.12 88.22 0.88 VGG19+DenseNet201 87.33 86.00 88.36 87.16 0.87 ResNet50+DenseNet201 89.67 84.67 94.07 89.12 0.90 AUC: 同表 1 -
[1] Cao W, Chen HD, Yu YW, et al. Changing profiles of cancer burden worldwide and in China: a secondary analysis of the global cancer statistics 2020[J]. Chin Med J, 2021, 134: 783-791. DOI: 10.1097/CM9.0000000000001474
[2] Baalbergen A, Helmerhorst TJ. Adenocarcinoma in situ of the uterine cervix: a systematic review[J]. Int J Gynecol Cancer, 2014, 24: 1543-1548. DOI: 10.1097/IGC.0000000000000260
[3] Cleveland AA, Gargano JW, Park IU, et al. Cervical adenocarcinoma in situ: human papillomavirus types and incidence trends in five states, 2008—2015[J]. Int J Cancer, 2020, 146: 810-818. DOI: 10.1002/ijc.32340
[4] 刘从容. 宫颈腺上皮病变病理学相关问题及其研究进展[J]. 中华妇幼临床医学杂志, 2016, 12: 2-6. DOI: 10.3877/cma.j.issn.1673-5250.2016.01.001 Liu CR. Pathologic problems and research progress of cervical adenoepithelial lesions[J]. Zhonghua Fuyou Linchuang Yixue Zazhi, 2016, 12: 2-6. DOI: 10.3877/cma.j.issn.1673-5250.2016.01.001
[5] Liu J, Li L, Wang L. Acetowhite region segmentation in uterine cervix images using a registered ratio image[J]. Comput Biol Med, 2018, 93: 47-55. DOI: 10.1016/j.compbiomed.2017.12.009
[6] Xin TL, Chen L, Md Mamunur R, et al. A comprehensive review of computer-aided whole-slide image analysis: from datasets to feature extraction, segmentation, classification and detection approaches[J]. Artifi Intell Rev, 2022, 55: 4809-4878. DOI: 10.1007/s10462-021-10121-0
[7] Song D, Kim E, Huang X, et al. Multimodal entity coreference for cervical dysplasia diagnosis[J]. IEEE Trans Med Imaging, 2015, 34: 229-245. DOI: 10.1109/TMI.2014.2352311
[8] Asiedu MN, Simhal A, Chaudhary U, et al. Development of algorithms for automated detection of cervical pre-cancers with a low-cost, point-of-care, Pocket Colposcope[J]. IEEE Trans Biomed Eng, 2019, 66: 2306-2318. DOI: 10.1109/TBME.2018.2887208
[9] Li C, Chen H, Li XY, et al. A review for cervical histopathology image analysis using machine vision approaches[J]. Artifi Intell Rev, 2020, 53: 4821-4862. DOI: 10.1007/s10462-020-09808-7
[10] 庄福振, 罗平, 何清, 等. 迁移学习研究进展[J]. 软件学报, 2015, 26: 26-39. https://www.cnki.com.cn/Article/CJFDTOTAL-RJXB201501003.htm Zhuang FZ, Luo P, He Q, et al. Research progress of transfer learning[J]. Ruanjian Xuebao, 2015, 26: 26-39. https://www.cnki.com.cn/Article/CJFDTOTAL-RJXB201501003.htm
[11] Jun L, Guang YL, Xiang RT, et al. Transfer learning enhanced generative adversarial networks for multi-channel MRI reconstruction[J]. Comput Biol Med, 2021, 134: 104504. DOI: 10.1016/j.compbiomed.2021.104504
[12] Niu S, Liu M, Liu Y, et al. Distant Domain Transfer Learning for Medical Imaging[J]. IEEE J Biomed Health Inform, 2021, 25: 3784-3793. DOI: 10.1109/JBHI.2021.3051470
[13] 颜悦, 陈丽萌, 李锦涛, 等. 基于深度学习和组织病理图像的癌症分类研究进展[J]. 协和医学杂志, 2021, 12: 742-748. DOI: 10.12290/xhyxzz.2021-0452 Yan Y, Chen LM, Li JT, et al. Progress in cancer classification based on deep learning and histopathological images[J]. Xiehe Yixue Zazhi, 201, 12: 742-748. DOI: 10.12290/xhyxzz.2021-0452
[14] 杨志明, 李亚伟, 杨冰, 等. 融合宫颈细胞领域特征的多流卷积神经网络分类算法[J]. 计算机辅助设计与图形学学报, 2019, 31: 531-540. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJF201904003.htm Yang ZM, Li YW, Yang B, et al. Multi-flow convolutional neural network classification algorithm based on domain features of cervical cells[J]. Jisuanji Fuzhu Sheji Yu Tuxingxue Xuebao, 2019, 31: 531-540. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJF201904003.htm
[15] Qiao ZH, Herve D, Nicolas D, et al. 3-D consistent and robust segmentation of cardiac images by deep learning with spatial propagation[J]. IEEE Trans Med Imaging, 2018, 37: 2137-2148. DOI: 10.1109/TMI.2018.2820742
[16] Yang H, Sun J, Li H, et al. Neural multi-atlas label fusion: Application to cardiac MR images[J]. Med image Anal, 2018, 49: 60-75. DOI: 10.1016/j.media.2018.07.009
[17] Jamaludin A, Kadir T, Zisserman A. SpineNet: automated classification and evidence visualization in spinal MRIs[J]. Med image Anal, 2017, 41: 63-73. DOI: 10.1016/j.media.2017.07.002
[18] Sato M, Horie K, Hara A, et al. Application of deep learning to the classification of images from colposcopy[J]. Oncol lett, 2018, 15: 3518-3523.
[19] Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Comput Sci, 2014. https://doi.org/10.48550/arXiv.1409.1556.
[20] Russakovsky O, Deng J, Su H, et al. Imagenet large scale visual recognition challenge[J]. Int J Comput Vision, 2015, 115: 211-252.
[21] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.
[22] Chollet F. Xception: Deep learning with depthwise separable convolutions[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 1251-1258.
[23] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE Confer-ence on Computer Vision and Pattern Recognition, 2016: 770-778.
[24] Huang G, Liu Z, Van DML, et al. Densely connected convolutional networks[C]. Proceedings of the IEEE Confer-ence on Computer VIsion and Pattern Recognition, 2017: 4700-4708.
[25] Al-Haija QA, Adebanjo A. Breast Cancer Diagnosis in Histopathological Images Using ResNet-50 Convolutional Neural Network[C]. 2020 IEEE International IOT, Electronics and Mechatronics Conference (IEMTRONICS). IEEE, 2020.
-
期刊类型引用(1)
1. 陈小杰,张笑,王莉,杜云红. 乳腺癌患者放射性皮炎风险预测模型的系统评价. 中国实用护理杂志. 2025(03): 214-221 . 百度学术
其他类型引用(0)