基于改进的全卷积网络模型预测局部进展期直肠癌新辅助放化疗疗效

王方, 庞晓琳, 范新娟

王方, 庞晓琳, 范新娟. 基于改进的全卷积网络模型预测局部进展期直肠癌新辅助放化疗疗效[J]. 协和医学杂志, 2022, 13(4): 605-612. DOI: 10.12290/xhyxzz.2022-0159
引用本文: 王方, 庞晓琳, 范新娟. 基于改进的全卷积网络模型预测局部进展期直肠癌新辅助放化疗疗效[J]. 协和医学杂志, 2022, 13(4): 605-612. DOI: 10.12290/xhyxzz.2022-0159
WANG Fang, PANG Xiaolin, FAN Xinjuan. Prediction of Survival Status of Locally Advanced Rectal Cancer after Neoadjuvant Chemoradiotherapy Based on Improved Fully Convolutional Networks Model[J]. Medical Journal of Peking Union Medical College Hospital, 2022, 13(4): 605-612. DOI: 10.12290/xhyxzz.2022-0159
Citation: WANG Fang, PANG Xiaolin, FAN Xinjuan. Prediction of Survival Status of Locally Advanced Rectal Cancer after Neoadjuvant Chemoradiotherapy Based on Improved Fully Convolutional Networks Model[J]. Medical Journal of Peking Union Medical College Hospital, 2022, 13(4): 605-612. DOI: 10.12290/xhyxzz.2022-0159

基于改进的全卷积网络模型预测局部进展期直肠癌新辅助放化疗疗效

基金项目: 

广东省科技计划项目 2019B030316003

详细信息
    通讯作者:

    范新娟, E-mail: fanxjuan@mail.sysu.edu.cn

  • 中图分类号: R735.3

Prediction of Survival Status of Locally Advanced Rectal Cancer after Neoadjuvant Chemoradiotherapy Based on Improved Fully Convolutional Networks Model

Funds: 

Guangdong Science and Technology Project 2019B030316003

More Information
  • 摘要:
      目的  建立基于MRI影像图像预测局部进展期直肠癌(locally advanced rectal cancer,LARC)新辅助放化疗(neoadjuvant chemoradiotherapy,nCRT)后病理学完全缓解(pathological complete response,pCR)模型,以辅助患者个性化治疗方案的制订。
      方法  回顾性纳入2013年6月至2018年12月中山大学附属第六医院接受nCRT治疗且行全直肠系膜切除术组织病理对治疗效果进行评定的LARC患者。按1:2的比例将患者依照住院时间先后顺序分为Data A与Data B 2个数据集。其中Data A数据集用于语义分割模型训练,Data B数据集按7:3的比例随机分为训练集和验证集,分别用于pCR预测模型训练与评价。收集Data A数据集病例的T2加权MRI影像资料,采用改进的全卷积网络(fully convolutional networks,FCN)模型对肿瘤区域进行语义分割,建立语义分割模型并提取最终卷积层中的影像特征。采用最小绝对值收缩和选择算子(least absolute shrinkage and selection operator, LASSO)回归法对提取的影像特征进行筛选,构建可预测pCR状态的支持向量机(support vector machine,SVM)分类器(预测模型)。以Data B训练集数据为基础,对该预测模型的性能进行训练,进一步在Data B验证集中对其性能进行评价。
      结果  共入选符合纳入和排除标准的LARC患者304例,nCRT治疗后82例判定为pCR,222例为非pCR。2013年6月至2015年11月的103例患者为Data A数据集,2015年12月至2018年12月的201例患者为Data B数据集。Data B数据集中,训练集140例、验证集61例。改进的FCN模型对Data B数据集图像分割的Dice值为0.79 (95% CI: 0.65~0.81),灵敏度为80%(95% CI: 77%~83%),特异度为72%(95% CI: 64%~85%)。语义分割模型共提取最终卷积层中512个影像特征,经LASSO回归筛选后保留7个,用于pCR状态预测。预测模型在Data B训练集中预测pCR的曲线下面积(area under the curve, AUC)为0.65(95% CI: 0.61~0.71),在Data B验证集中的AUC为0.69(95% CI: 0.59~0.74)。
      结论  本研究提出的改进的FCN模型,对MRI图像进行语义分割具有较高的准确度。基于该方法构建的模型预测LARC患者接受nCRT治疗后pCR状态具有可行性。
    Abstract:
      Objective  To explore the model of using after neoadjuvant chemoradiotherapy (nCRT) imaging images of locally advanced rectal cancer (LARC) to predict whether pathological complete response (pCR) is achieved, thereby assisting physicians to develop a personalized plan.
      Methods  Patients with LARC treated with nCRT at the Sixth Affiliated Hospital of Sun Yat-sen University from June 2013 to December 2018 were retrospectively included, and the treatment outcome was evaluated by total rectal mesenteric resection histopathology. The patients were divided into 2 data sets, Data A and Data B, according to the order of hospitalization time in a ratio of 1:2. Data A was used for semantic segmentation model training, and Data B was randomly divided into training and validation sets in the ratio of 7:3, which were used for pCR prediction model training and validation, respectively. The T2-weighted MRI images of Data A were collected, and the improved fully convolutional networks(FCN) model was used to semantically segment the tumor region, establish the semantic segmentation model and extract the image features in the final convolutional layer. The least absolute shrinkage and selection operator (LASSO) regression model was used to filter the extracted image features and construct a support vector machine (SVM) classifier that could predict the pCR state. The performance of the prediction model was trained on the basis of the Data B training set and further validated in the Data B validation set.
      Results  A total of 304 patients with LARC who met the inclusion and exclusion criteria were enrolled, 82 patients reached pCR after nCRT, while 222 patients did not reach pCR (non-pCR). Among them, 103 patients from June 2013 to November 2015 were in Data A and 201 patients from December 2015 to December 2018 were in Data B. In Data B, 140 patients were in the training set and 61 patients in the validation set. The improved FCN model had a Dice value of 0.79(95% CI: 0.65-0.81), a sensitivity of 80%(95% CI: 77%-83%), and a specificity of 72%(95% CI: 64%-85%). A total of 512 image features in the final convolutional layer were extracted by the semantic segmentation model, and 7 were retained after LASSO regression screening for pCR state prediction. The area under the curve of the prediction model was 0.65(95% CI: 0.61-0.71) in the Data B training set and 0.69(95% CI: 0.59-0.74) in the Data B validation set for predicting pCR.
      Conclusions  The improved FCN model proposed in this study has high accuracy for semantic segmentation of MRI images. The prediction model constructed based on this method is feasible to predict pCR status of LARC patients after receiving nCRT treatment.
  • 国际癌症研究机构发布的2020年全球癌症统计数据显示,乳腺癌已成为女性最高发的恶性肿瘤(新增病例在所有肿瘤中占比11.7%),每年可导致68.5万病例死亡[1]。准确诊断是精准治疗的前提。Ki-67是乳腺癌诊断过程中常用的免疫组化标志物,是评估肿瘤细胞增殖活性的关键指标,Ki-67指数可作为乳腺肿瘤良恶性及其恶性程度的辅助诊断指标。一般情况下,乳腺癌的Ki-67指数高于10%,随Ki-67指数升高,肿瘤生长加快、组织分化能力降低,患者预后较差[2]

    目前临床工作中,Ki-67指数大多需病理医生通过显微镜对肿瘤细胞进行人工计数获得[3];部分研究通过浏览整张免疫组化染色的全视野数字图像(whole slide image, WSI),采用视觉评估法计算Ki-67指数[2]。上述方法工作量大、效率低、准确率差且具有主观性。2019年10月,国际乳腺癌Ki-67工作组(International Ki-67 in Breast Cancer Working Group,IKWG)召开会议, 讨论了Ki-67免疫组化检测在乳腺癌诊断与治疗中的应用现状[4],指出基于机器学习的自动化评估可能有助于解决当前Ki-67免疫组化判读中的难题[2, 4-5]。当前,深度学习在病理图像处理领域已取得了显著成效[6-8],自动化评估Ki-67指数亦取得重要进展。根据病理图像的处理方式,大致可分为两类:一类是基于图像处理技术,一类是基于机器学习和神经网络。Xing等[9]提出了一种基于全卷积网络的KiNet模型,对Ki-67细胞核进行检测和识别,并在胰腺神经内分泌肿瘤数据集中得到了良好的分类效果验证,曲线下面积(area under the curve, AUC)为0.724。Negahbani等[10]利用点标注的方式制作了SHIDC-B-Ki-67数据集,并提出一种用于Ki-67细胞检测和分类的模型,对免疫阳性细胞、免疫阴性细胞和淋巴细胞检测和分类的精确度为77.66%。Shete等[11]将基于染色强度的阈值化和分水岭分割方法相结合,依据细胞染色区域面积、细胞形态学特征、纹理特征等实现了对乳腺肿瘤细胞恶性程度自动化检测。Ko等[12]对图像进行染色归一化,分离染色区域后实现重叠细胞核分离,改善了不同实验室或环境中由染色变化引起的图像处理问题。但上述研究均是在单个图块上对Ki-67指数进行定量分析,并将部分区域定量分析的结果代替整张WSI的Ki-67指数。本研究提出一种智能化定量分析Ki-67指数的方法,可识别整张WSI中的Ki-67指数,提高Ki-67指数评估的准确性和客观性。

    回顾性纳入2020年1— 12月北京协和医院乳腺癌患者的病理切片。纳入标准:根据组织病理和免疫组化结果,确诊为乳腺浸润性癌;排除标准:切片质量不合格。

    采用德国Leica公司Aperio AT2高通量切片扫描仪将病理切片以40倍率扫描为WSI图像。由2名病理科医生根据2019年IKWG制定的指南[4]对所有WSI中的Ki-67指数进行人工判读后,按5:8的比例随机将WSI图像分为A、B两个数据集。2名病理科医生选取WSI中Ki-67阳性肿瘤细胞最集中且分布均匀的区域(热点区域,图 1)对A数据集进行标注,用于WSI热点区域识别模型训练与测试;B数据集用于评估模型对Ki-67指数计算结果的准确性,并采用Bland-Altman法[13]对人工判读与智能定量分析结果进行一致性评价。

    图  1  乳腺癌Ki-67指数免疫组化病理图像标注示例
    A.热点区域;B、C.正常组织区域

    本研究已通过北京协和医院伦理审查委员会审批(审批号:S-K311),并豁免患者知情同意。

    本研究提出的Ki-67指数智能化定量分析方法主要包括2个部分(图 2):(1)提出一种融合空间和多尺度特征的高精度乳腺癌WSI热点区域识别模型;(2)在识别出的热点区域内,40倍视野下随机选取每张WSI的10个视野进行自动细胞识别、分类、计数,计算10个视野下的Ki-67指数均值,为整张WSI的Ki-67指数。

    图  2  Ki-67指数智能化定量分析方法整体框架
    WSI: 全视野数字图像

    由于WSI制作、扫描过程中可因抖动、电子脉冲干扰等因素的影响,导致图像失真、模糊,在分析前需进行预处理。结合实际情况和预试验比较结果,借助Opencv-Python库并采用高斯滤波对图像进行去噪、平滑图像、去除空白背景等处理[14]。由于在HSV(Hue, Saturation, Value)颜色空间中分析更方便,首先根据公式(1)将原始图像从RGB颜色空间转换至HSV颜色空间,然后基于Otsu算法[15]获取二值化的组织掩码,并进行形态学开闭运算,提取组织区域图像。

    $$ \left\{\begin{array}{l} V=\max (R, G, B) \\ S=\frac{\max (R, G, B)-\min (R, G, B)}{\max (R, G, B)} \\ H=\left\{\begin{array}{l} 60 \times \frac{G-B}{S \times V}, \text { 如果 } S \neq 0, \text { 且 } \max (R, G, B)=R \\ 60 \times\left(2+\frac{B-R}{S \times V}\right), \text { 如果 } S \neq 0, \text { 且 } \max (R, G, B)=G \\ 60 \times\left(4+\frac{R-G}{S \times V}\right), \text { 如果 } S \neq 0, \text { 且 } \max (R, G, B)=B \end{array}\right. \end{array}\right. $$ (1)

    其中,RGB分别表示红色、绿色、蓝色,取值范围均为[0, 255];H为色调,取值范围为[0, 1];V为明度,取值范围为[0, 255]。

    按7:1:2的比例将A数据集随机分为训练集、验证集和测试集。采用ASAP(Automated Slide Analysis Platform) 软件对热点区域进行标注,然后提取热点区域掩码图像。用组织区域图像减去热点区域即可获取正常区域掩码图像。在2种图像内部,将原始WSI图像于40倍视野下随机裁剪为2000个512×512像素的图块(patch)。在上述图块中随机选取50个,对其中的Ki-67阳性肿瘤细胞、阴性肿瘤细胞和非肿瘤细胞进行标注(Ki-67指数的计算仅包括肿瘤细胞,若不排除非肿瘤细胞,Ki-67指数将偏低),见图 3。标注后,计算Ki-67指数[16]

    图  3  热点区域内图块标注示例
    A.热点区域内随机选取的图块;B.标注结果,其中实心圆为Ki-67阳性肿瘤细胞,实心矩形为Ki-67阴性肿瘤细胞,“X”为非肿瘤细胞

    WSI可完全保留病理切片上的原始组织特征信息,对于数据量巨大且缺乏像素级的标注,病理医生可通过缩放、拖拽、平移图像的方式浏览整张WSI图像。在作出诊断决策时,需同时考虑单个区域相邻的信息和不同区域之间的相关性信息,最后确定整张WSI图像的Ki-67指数[8]。常用的病理图像分类深度学习方法,一般是将一张数万×数万像素的WSI切分为数万张图块,通过病理医生对热点区域的粗标注引入医学先验知识[17],此时数万张图块对应一个标签,然后采用VGG[18]、ResNet[19]、MobileNet[20]等卷积神经网络模型对图块进行分类[21]。此种分类方法会导致图块在整张WSI图像中的空间位置信息丢失,无法融合相邻图块的信息和空间位置信息。

    针对该问题,本研究采用一种融合空间和多尺度特征的乳腺癌WSI热点区域识别方法,即条件随机场模型[22](图 4A)。条件随机场模型是Lafferty等[23]于2001年提出的将最大熵模型和隐马可夫模型相结合的一种概率无向图模型。该模型在自然语言处理中的命名实体识别任务以及计算机视觉中的图像分割任务等领域均有广泛应用。

    图  4  图块之间的概率无向图模型示意图

    在概率无向图模型中,随机变量之间的关系较直观,易于理解。在实际应用时,目的是计算联合概率分布。为简化计算,假设将WSI中的图块设置为X1X2X3Xn,若一个图块为热点区域,则其相邻图块为热点区域的概率很大(图 4B)。进一步对图块的关系简化(图 4C),并根据公式(2)计算模型的联合概率分布。

    $$ \begin{aligned} P\left(x_{1}, x_{3}, x_{4}\right)=& \frac{1}{Z(x)}\left[\psi_{1}\left(X_{1}, X_{3}\right) \times \psi_{2}\left(X_{3}, X_{4}\right)\right.\\ &\left.\times \psi_{2}\left(X_{1}, X_{4}\right)\right] \end{aligned} $$ (2)

    经图像预处理获取热点区域和正常组织区域的图块后,将训练集和验证集图块输入至ResNet34预训练模型[19]进行特征提取。每个图块被编码为固定长度的Embedding,作为概率无向图模型中的节点进行空间特征维度建模。模型可输出每个图块的位置分布概率,用以判定特定图块是否位于热点区域。高精度乳腺癌WSI热点区域识别模型框架见图 5

    图  5  乳腺癌WSI热点区域识别模型整体框架图
    WSI: 同图 2

    硬件参数:Linux版本为CentOS 3.10.0~693.el7.x86_ 64,CPU版本为Intel(R)Xeon(R) Silver 4114 @ 2.20 GHz,显卡为NVIDIA GeForce RTX 2080 Ti(显存容量11 GB,显存位宽352 b,显存频率14 000 MHz),内存为32GB 2666 MHz DDR4。软件环境:编程语言为Python 3.6.5,相关的深度学习框架为Torch,CUDA及cuDNN环境分别为10.0和7.4,CPU环境运行下的编译器为GCC 4.8。Python计算包:Torchvision 0.4.2,Opencv-Python 4.5.1.48,Openpyxl 3.0.9,Openslide-Python1.1.2。模型训练时的参数:Batch Size为32,优化器为Adam,学习率为0.001,损失函数为Cross Entropy,Epoch为30。

    WSI输入经过训练的ResNet34热点区域识别模型,获取热点区域概率热力图,其中概率高于0.5的区域认定为热点区域。在热点区域内,40倍视野下随机选取10个视野进行Ki-67指数计算。首先对输入的RGB图像进行预处理,然后按照公式(3)将RGB值转换成光密度(optical density, OD)空间:

    $$ O D=-\log 10\left(\frac{I}{I_{0}}\right) $$ (3)

    其中,I为RGB空间的颜色矢量,$\frac{I}{I_{0}}$为其归一化后的结果,即标准化OD矩阵[24],取值范围为[0, 1]。OD矩阵的逆矩阵即为所需的反卷积矩阵。Ki-67免疫组化染色图像中感兴趣的颜色为蓝色(H)和棕色(DAB),其中棕色由黄色或橙色(红色+绿色)与较低比例的黑色或蓝色混合组成。由于棕色的主要成分为红色和绿色,与H相关的颜色以蓝色为主,因此可采用颜色反卷积法[25]分离、区分DAB和H染色。由于细胞之间存在重叠现象,需采用基于距离变换的分水岭算法对颜色反卷积法获取的二值化图像进行处理,具体算法如下:首先将颜色反卷积后的图像转换为灰度图并进行开闭操作,以消除边界上的干扰;然后对灰度图进行距离变换,将粘连的细胞“打断”;最后进行膨胀和填充等操作,采用基于连通分量的方法分别对Ki-67阳性肿瘤细胞、Ki-67阴性肿瘤细胞和非肿瘤细胞进行自动标记和计数,计算Ki-67指数(图 6)。

    图  6  肿瘤细胞计数方法

    采用SPSS 23.0软件进行统计学分析。以病理科医生人工判读结果为金标准,计算模型对热点区域识别的准确率以及识别的Ki-67指数误差,误差在±0.2之间视为模型计算结果正确。采用Bland-Altman法评价人工判读和模型计算Ki-67指数的一致性。

    共入选符合纳入和排除标准的乳腺癌患者病理切片132张。其中A数据集50张(训练集、验证集和测试集WSI图像分别35张、5张、10张,分别包含图块70 000个、10 000个、20 000个),B数据集82张。

    训练后的ResNet34模型对测试集热点区域识别的平均准确率为81.5%。热点区域可视化结果见图 7

    图  7  热点区域可视化识别结果
    A.病理科医生人工标注;B.模型预测的热点区域概率热力图;C.模型预测的二值热力图;D.模型预测的热点区域

    在热点区域识别的基础上,模型可根据选取的视野,自动对细胞进行分类、计数(图 8),最终计算整张WSI中的Ki-67指数。以病理科医生人工判读结果为金标准,本研究该模型对B数据集82张切片Ki-67指数计算准确率为90.2%(74/82)。

    图  8  模型对细胞分类计数结果
    A.Ki-67阳性肿瘤细胞(标注红“+”);B.Ki-67阴性肿瘤细胞(标注绿“●”);C.非肿瘤细胞(标注红“*”)

    采用Bland-Altman法对人工判读与模型计算的Ki-67指数进行一致性评价。Bland-Altman法的基本思想是以原始数据的均值、差值分别为横轴、纵轴绘制散点图,计算二者差值的均数(d)及标准差(SD),并得出95%一致性界限(limits of agreement, LOA),即一致性较好的标准为95%的差值位于该LOA内。

    图 9所示,82个Ki-67指数差值中,78个(95.12%)位于LOA范围内,4个(4.88%)位于LOA范围外,d =-0.033 90,SD为0.161 882, 标准误为0.01,LOA范围为-0.3460~ 0.2831。两种方法测定的Ki-67指数结果一致性较好[24]

    图  9  Ki-67指数一致性评价结果的Bland-Altman图

    乳腺癌免疫组化Ki-67指数在治疗方案制订和预后风险评估中占据重要地位,临床意义显著。目前在临床工作中,人工判读Ki-67指数工作量大,结果具有主观性,亟需探寻一种高效、易操作且准确率高的Ki-67指数评估方法。本研究基于ResNet34算法,首次构建针对乳腺癌WSI图像可自动识别并输出Ki-67指数的智能化判读系统,结果显示该方法对Ki-67指数计算结果的准确率为90.2%,与人工判读结果一致性较好,有望应用于临床,辅助临床决策。

    组织病理是肿瘤确诊的金标准,病理科医生通过对病理切片进行观察,可为肿瘤诊断提供最重要的依据。免疫组化是组织病理学与细胞病理学的关键组成部分,在肿瘤诊断、分子分型、精准治疗等方面均具有极大的影响力,但实际应用过程中,受判读区域选择、计数细胞总和、计数方法等因素的影响,其结果准确性、可重复性方面仍存在诸多挑战。近年来,人工智能技术快速崛起,其在医学中的应用越来越广泛,医工结合、医工交叉已成为研究的新趋势[26]。但既往主要针对病理图像的图块进行研究,尚缺乏直接可识别整张WSI图像中Ki-67指数的方法[9-12]。本研究基于深度学习技术建立的整张WSI图像中Ki-67指数智能定量方法,在判读区域选择、计数细胞总和、计数方法3个方面均有明显改进,在保障了Ki-67指数判读结果的高准确率和可重复性的同时,可快速(识别一张WSI图像平均耗时60 s)输出结果,优势明显。

    由于肿瘤细胞具有较高的异质性,在乳腺癌免疫组化WSI图像中,Ki-67阳性肿瘤细胞多呈不均匀分布,存在明显的热点区域、冷点区域和边缘区域,不同区域内的Ki-67指数存在较大差异,其中以热点区域最高,边缘区域次之,冷点区域最低。因此,判读区域选取不同,必然导致Ki-67指数判读结果不一致,影响结果的准确性。IKWG建议,乳腺癌Ki-67指数免疫组化WSI中,若存在热点区域,则判读区域应选择在热点区域内[26]。本研究建立的融合空间和多尺度特征的高精度乳腺肿瘤WSI热点区域识别模型,对热点区域具有较高的识别能力(平均准确率为81.5%)且速度较快,结果重复性好,是Ki-67指数计算结果具有高准确率的前提和重要保障。

    判读区域选定后,需对区域内细胞进行识别与分类,以计算Ki-67指数。对于细胞较少的区域,Ki-67指数判读结果稳定性差。部分国家的指南指出,应在热点区域计数200个肿瘤细胞进行Ki-67指数判读[27]。IKWG建议,免疫组化Ki-67指数定量分析中,每个区域内以计数1000个肿瘤细胞为宜,至少不应低于500个肿瘤细胞。本研究Ki-67指数智能化量系统在计算Ki-67指数前,首先对区域内肿瘤细胞进行计数,若Ki-67阳性肿瘤细胞数量不足500个,则需重新选择判读区域,因此保障了结果的准确性、稳定性和客观性。

    显微镜下人工阅片对肿瘤细胞进行分类,易发生“误数”或“漏数”的现象,导致计算结果不准确。本研究构建的模型可程序化自动分类与计数,不仅结果准确(准确率为90.2%)、省时高效,且避免主观因素的影响。Bland-Altman法一致性评价结果显示,人工判读与模型计算Ki-67指数的一致性良好,提示该智能定量方法对Ki-67指数判读结果的误差较小,可达到人工阅片水平,再次验证了其具有准确性高和可重复性好的优势。

    本研究局限性:(1)受限于样本量,虽然模型对Ki-67指数的评估具有较高的准确性,但模型仍可能存在过拟合现象;(2)缺乏多中心数据对模型的性能进行外部验证。

    综上,本研究提出的融合空间和多尺度特征的乳腺癌免疫组化Ki-67指数智能定量分析方法,可快速、准确、客观对Ki-67指数进行判读,辅助病理科医生完成乳腺癌诊断,提升了工作效率,为乳腺癌患者进行精准分子分型和个体化治疗提供科学可信的理论依据和技术支持。

    作者贡献:王方负责思路框架设计与实现,并撰写论文初稿;庞晓琳负责数据收集、整理及伦理申请;范新娟提供研究思路,负责论文修订。
    利益冲突:所有作者均声明不存在利益冲突
  • 图  1   多通道FCN模型展示

    FCN:全卷积网络;ROI:感兴趣区

    图  2   语义分割模型处理过程展示

    蓝色区域为直肠定位点,红色区域为模型分割结果,紫色区域为病理医师勾画(金标准)

    图  3   LASSO回归分析中不同λ下影像特征间的均方误差

    LASSO:最小绝对收缩和选择算子

    图  4   LASSO回归分析不同λ下的影像特征置信度

    LASSO:同图 3

    图  5   SVM分类器在Data B训练集中预测pCR的ROC曲线图

    SVM:支持向量机;ROC:受试者操作特征;AUC: 曲线下面积;pCR:同表 1

    图  6   SVM分类器在Data B验证集中预测pCR的ROC曲线图

    SVM、ROC、AUC:同图 5;pCR:同表 1

    表  1   304例LARC患者临床资料比较

    指标 Data A(n=103) P Data B训练集(n=140) P Data B验证集(n=61) P
    pCR
    (n=30)
    非pCR
    (n=73)
    pCR
    (n=37)
    非pCR
    (n=103)
    pCR
    (n=15)
    非pCR
    (n=46)
    性别[n(%)] 0.831 0.133 0.150
      男 8(26.7) 18(24.7) 22(59.5) 75(72.8) 7(46.7) 31(67.4)
      女 22(73.3) 55(75.3) 15(40.5) 28(27.2) 8(53.3) 15(32.6)
    年龄(x±s, 岁) 52.1±11.1 57.4±10.9 0.142 56.7±8.3 54.9±11.4 0.531 61.2±9.1 59.8±8.9 0.732
    nCRT前T分期[n(%)] 0.983 0.214 0.031
      T0 0(0) 0(0) 0(0) 0(0) 0(0) 0(0)
      T1 0(0) 0(0) 0(0) 0(0) 0(0) 0(0)
      T2 1(3.3) 3(4.1) 0(0) 4(3.9) 2(13.3) 0(0)
      T3 25(83.3) 60(82.2) 33(89.2) 79(76.7) 5(33.3) 13(28.3)
      T4 4(13.3) 10(13.7) 4(10.8) 20(19.4) 8(53.3) 33(71.7)
    nCRT前N分期[n(%)] 0.370 <0.010 0.060
      N0 3(10.0) 13(17.8) 9(24.3) 30(29.1) 2(13.3) 2(4.3)
      N1 17(56.7) 31(42.5) 17(45.9) 21(20.4) 3(20.0) 2(4.3)
      N2 10(33.3) 29(39.7) 11(29.7) 52(50.5) 10(66.7) 42(91.3)
    nCRT后T分期[n(%)] <0.010 <0.010 <0.010
      T0 30(100) 0(0) 20(54.1) 0(0) 15(100) 0(0)
      T1 0(0) 7(9.6) 17(45.9) 5(4.9) 0(0) 6(13.0)
      T2 0(0) 20(27.4) 0(0) 30(29.1) 0(0) 10(21.7)
      T3 0(0) 43(58.9) 0(0) 58(56.3) 0(0) 15(32.6)
      T4 0(0) 3(4.1) 0(0) 10(9.7) 0(0) 15(32.6)
    nCRT后N分期[n(%)] <0.010 <0.010 0.183
      N0 30(100) 52(71.2) 37(100) 80(77.7) 15(100) 37(80.4)
      N1 0(0) 20(27.4) 0(0) 23(22.3) 0(0) 7(15.2)
      N2 0(0) 1(1.4) 0(0) 0(0) 0(0) 2(4.3)
    LARC:局部进展期直肠癌;nCRT: 新辅助放化疗; pCR: 病理学完全缓解
    下载: 导出CSV
  • [1]

    Bray F, Ferlay J, Soerjomataram I, et al. Global cancer statistics 2018: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries[J]. CA Cancer J Clin, 2018, 68: 394-424. DOI: 10.3322/caac.21492

    [2]

    Burt RW, Barthel JS, Dunn KB, et al. NCCN clinical practice guidelines in oncology. Colorectal cancer screening[J]. J Natl Compr Canc Netw, 2010, 8: 8-61. DOI: 10.6004/jnccn.2010.0003

    [3]

    Sauer R, Becker H, Hohenberger W, et al. Preoperative versus postoperative chemoradiotherapy for rectal cancer[J]. N Engl J Med, 2004, 351: 1731-1740. DOI: 10.1056/NEJMoa040694

    [4]

    Beets-Tan RGH, Lambregts DMJ, Maas M, et al. Magnetic resonance imaging for clinical management of rectal cancer: updated recommendations from the 2016 European Society of Gastrointestinal and Abdominal Radiology (ESGAR) consensus meeting[J]. Eur Radiol, 2018, 28: 1465-1475. DOI: 10.1007/s00330-017-5026-2

    [5]

    Hupkens BJP, Martens MH, Stoot JH, et al. Quality of life in rectal cancer patients after chemoradiation: watch-and-wait policy versus standard resection-a matched-controlled study[J]. Dis Colon Rectum, 2017, 60: 1032-1040. DOI: 10.1097/DCR.0000000000000862

    [6]

    Cui Y, Yang X, Shi Z, et al. Radiomics analysis of multiparametric MRI for prediction of pathological complete response to neoadjuvant chemoradiotherapy in locally advanced rectal cancer[J]. Eur Radiol, 2019, 29: 1211-1220. DOI: 10.1007/s00330-018-5683-9

    [7]

    Li Y, Liu W, Pei Q, et al. Predicting pathological complete response by comparing MRI-based radiomics pre-and postneoadjuvant radiotherapy for locally advanced rectal cancer[J]. Cancer Med, 2019, 8: 7244-7252. DOI: 10.1002/cam4.2636

    [8]

    Shi L, Zhang Y, Nie KE, et al. Machine learning for prediction of chemoradiation therapy response in rectal cancer using pre-treatment and mid-radiation multi-parametric MRI[J]. Magn Reson Imaging, 2019, 61: 33-40. DOI: 10.1016/j.mri.2019.05.003

    [9]

    Hu H, Jiang H, Wang S, et al. 3.0 T MRI IVIM-DWI for predicting the efficacy of neoadjuvant chemoradiation for locally advanced rectal cancer[J]. Abdom Radiol (NY), 2021, 46: 134-143. DOI: 10.1007/s00261-020-02594-4

    [10]

    Martí-Bonmatí L, Alberich-Bayarri A. Imaging biomarkers: development and clinical integration[M]. Cham: Springer, 2016: 1-376.

    [11]

    Lowekamp BC, Chen DT, Ibáñez L, et al. The design of SimpleITK[J]. Front Neuroinform, 2013, 7: 45.

    [12] 中华医学会放射学分会医学影像大数据与人工智能工作委员会, 中华医学会放射学分会腹部学组, 中华医学会放射学分会磁共振学组. 结直肠癌CT和MRI标注专家共识(2020)[J]. 中华放射学杂志, 2021, 55: 111-116. DOI: 10.3760/cma.j.cn112149-20200706-00894
    [13]

    Shin HC, Roth HR, Gao M, et al. Deep convolutional neural networks for computer-aided detection: CNN architectures, dataset characteristics and transfer learning[J]. IEEE Trans Med Imaging, 2016, 35: 1285-1298. DOI: 10.1109/TMI.2016.2528162

    [14]

    Jiang X, Wang Y, Liu W, et al. Capsnet, cnn, fcn: Comparative performance evaluation for image classification[J]. Int J Mach Learn Comput, 2019, 9: 840-848. DOI: 10.18178/ijmlc.2019.9.6.881

    [15]

    Pramanik R, Bag S. Handwritten Bangla city name word recognition using CNN-based transfer learning and FCN[J]. Neural Comput Appl, 2021, 33: 9329-9341. DOI: 10.1007/s00521-021-05693-5

    [16]

    Sun S, Jiang B, Zheng Y, et al. A comparative study of CNN and FCN for histopathology whole slide image analysis[C]. International Conference on Image and Graphics, 2019: 558-567.

    [17]

    Wang F, Liu H. Understanding the behaviour of contras-tive loss[C]. Proceedings of the IEEE/CVF Confer-ence on Computer Vision and Pattern Recognition, 2021: 2495-2504.

    [18]

    Li X, Sun X, Meng Y, et al. Dice loss for data-imbalanced NLP tasks[J]. arXiv, 2019. https://doi.org/10.48550/arXiv.1911.02855.

    [19]

    Parikh R, Mathai A, Parikh S, et al. Understanding and using sensitivity, specificity and predictive values[J]. Indian J Ophthalmol, 2008, 56: 45-50. DOI: 10.4103/0301-4738.37595

    [20]

    Paszke A, Gross S, Massa F, et al. Pytorch: An imperative style, high-performance deep learning library[C]. Advances in Neural Information Processing Systems, 2019: 32.

    [21] 吴晓婷, 闫德勤. 数据降维方法分析与研究[J]. 計算機應用研究, 2009, 26: 2832-2835. https://cdmd.cnki.com.cn/Article/CDMD-10183-1014292110.htm
    [22] 黄铉. 特征降维技术的研究与进展[J]. 计算机科学, 2018, 45: 16-21. https://www.cnki.com.cn/Article/CJFDTOTAL-JSJA2018S1004.htm
    [23]

    Ranstam J, Cook JA. LASSO regression[J]. J Br Surg, 2018, 105: 1348. DOI: 10.1002/bjs.10895

    [24]

    Chauhan VK, Dahiya K, Sharma A. Problem formulations and solvers in linear SVM: a review[J]. Artif Intell Rev, 2019, 52: 803-855. DOI: 10.1007/s10462-018-9614-6

    [25]

    Pedregosa F, Varoquaux G, Gramfort A, et al. Scikit-learn: Machine learning in python[J]. J Mach Learn Res, 2012 12: 2825-2830.

    [26]

    Khan Z, Yahya N, Alsaih K, et al. Evaluation of deep neural networks for semantic segmentation of prostate in T2W MRI[J]. Sensors(Basel), 2020, 20: 3183.

    [27]

    Ali HM, Kaiser MS, Mahmud M. Application of convolu-tional neural network in segmenting brain regions from MRI data[C]. International Conference on Brain Informatics, 2019: 136-146.

    [28]

    Long J, Shelhamer E, Darrell T. Fully convolutional net-works for semantic segmentation[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 3431-3440.

    [29]

    Huang CM, Huang MY, Huang CW, et al. Machine Learning for Predicting Pathological Complete Response in Patients with Locally Advanced Rectal Cancer after Neoadjuvant Chemoradiotherapy[J]. Sci Rep, 2020, 10: 12555.

    [30]

    Horvat N, Carlos Tavares Rocha C, Clemente Oliveira B, et al. Mri of rectal cancer: Tumor staging, imaging techniques, and management[J]. Radiographics, 2019, 39: 367-387. DOI: 10.1148/rg.2019180114

    [31]

    Wang H, Hu D, Yao H, et al. Radiomics analysis of multiparametric MRI for the preoperative evaluation of patholo-gical grade in bladder cancer tumors[J]. Eur Radiol, 2019, 29: 6182-6190. DOI: 10.1007/s00330-019-06222-8

  • 期刊类型引用(2)

    1. 陆秋,张云磊,邵铧泽,黄琳. 基于边缘增强的交叉注意力医学影像分割方法. 桂林理工大学学报. 2025(01): 111-119 . 百度学术
    2. 宋学梅,管玲. 晚期直肠癌的免疫治疗结合新辅助放化疗临床研究进展. 生命科学仪器. 2023(S2): 104 . 百度学术

    其他类型引用(0)

图(6)  /  表(1)
计量
  • 文章访问数:  476
  • HTML全文浏览量:  102
  • PDF下载量:  56
  • 被引次数: 2
出版历程
  • 收稿日期:  2022-03-27
  • 录用日期:  2022-05-25
  • 刊出日期:  2022-07-29

目录

/

返回文章
返回
x 关闭 永久关闭