基于多尺度注意力机制的真菌显微图像分类方法

张雪媛, 许鸿雁, 董跃明, 刘丹凤, 孙鹏蕊, 颜锐, 崔洪亮, 雷红, 任菲

张雪媛, 许鸿雁, 董跃明, 刘丹凤, 孙鹏蕊, 颜锐, 崔洪亮, 雷红, 任菲. 基于多尺度注意力机制的真菌显微图像分类方法[J]. 协和医学杂志, 2023, 14(1): 139-147. DOI: 10.12290/xhyxzz.2022-0169
引用本文: 张雪媛, 许鸿雁, 董跃明, 刘丹凤, 孙鹏蕊, 颜锐, 崔洪亮, 雷红, 任菲. 基于多尺度注意力机制的真菌显微图像分类方法[J]. 协和医学杂志, 2023, 14(1): 139-147. DOI: 10.12290/xhyxzz.2022-0169
ZHANG Xueyuan, XU Hongyan, DONG Yueming, LIU Danfeng, SUN Pengrui, YAN Rui, CUI Hongliang, LEI Hong, REN Fei. Fungal Microscopic Image Classification Based on Multi-scale Attention Mechanism[J]. Medical Journal of Peking Union Medical College Hospital, 2023, 14(1): 139-147. DOI: 10.12290/xhyxzz.2022-0169
Citation: ZHANG Xueyuan, XU Hongyan, DONG Yueming, LIU Danfeng, SUN Pengrui, YAN Rui, CUI Hongliang, LEI Hong, REN Fei. Fungal Microscopic Image Classification Based on Multi-scale Attention Mechanism[J]. Medical Journal of Peking Union Medical College Hospital, 2023, 14(1): 139-147. DOI: 10.12290/xhyxzz.2022-0169

基于多尺度注意力机制的真菌显微图像分类方法

基金项目: 

国家重点研发计划 2021YFF1201005

解放军总医院医疗大数据与人工智能研发项目 2019MBD-050

详细信息
    通讯作者:

    雷红, E-mail:jlh309@163.com

    任菲, E-mail:renfei@ict.ac.cn

  • 中图分类号: R756; TP29

Fungal Microscopic Image Classification Based on Multi-scale Attention Mechanism

Funds: 

National Key R & D Program 2021YFF1201005

Medical Big Data and Artificial Intelligence R & D Project of PLA General Hospital 2019MBD-050

More Information
  • 摘要:
      目的  利用深度学习技术,建立临床常见的侵袭性真菌图像辅助分类模型。
      方法  回顾性收集2020年9月—2021年4月解放军总医院第八医学中心曲霉菌属、酵母菌属和新型隐球菌属真菌感染者的显微镜图像,按7∶1.5∶1.5的比例随机分为训练集、验证集和测试集。使用训练集和验证集图像对改进的MobileNetV2网络结构进行训练和参数调试,构建基于多尺度注意力机制的卷积神经网络(convolutional neural network, CNN)真菌图像11分类模型。以机器鉴定结果为金标准,以查准率、召回率和F1值为指标评价该模型对测试集真菌图像的分类效果。将该模型与5种经典CNN模型进行比较,评价指标包括模型参数量、内存占用量、网络每秒处理的图像数量(frames per second, FPS)、准确率及受试者操作特征曲线下面积(area under the curve,AUC)。
      结果  共纳入真菌显微镜图像7666张,分别包括曲霉菌属、酵母菌属和新型隐球菌属图像2781张、4115张、770张。其中训练集5366张、验证集1150张、测试集1150张。改进的MobileNetV2模型对测试集11种真菌图像具有较高的分类性能,查准率为96.36%~100%,召回率为96.53%~100%,F1值为97.01%~100%。该模型的参数量、内存占用量分别为4.22 M、356.89 M,FPS为573,准确率为(99.09±0.18)%,AUC为0.9944±0.0018,综合性能优于5种经典网络模型。
      结论  本研究提出的真菌图像分类模型,在保持低运算成本的情况下,可获得较高的真菌图像识别能力,其整体性能优于常见的经典模型。
    Abstract:
      Objective  To establish a fungal image-assisted classification model using deep learning technology.
      Methods  The microscope images of people infected with Aspergillus, Saccharomyces and Cryptococcus neoformans were retrospectively collected from the Eighth Medical Center of PLA General Hospital from September 2020 to April 2021. The images were randomly divided into training set, validation set and test set according to the ratio of 7∶1.5∶1.5. The improved MobileNetV2 network structure was trained using the training set, a convolutional neural network (CNN) fungal image 11 classification model based on multi-scale attention mechanism was constructed and the parameters were debugged based on the validation set. Machine identification results were taken as the gold standard, the performance of the model on 11 fungal image classification tasks was evaluated, and the results were shown by precision, recall and F1 value. In addition, the performance of the proposed model with 5 classic CNN models were compared, and the results were measured in terms of model parameters, memory usage, frames per second (FPS), accuracy, and area under the curve (AUC) of receiver operating characteristic curve.
      Results  A total of 7666 fungal microscope images were collected, including 2781, 4115, and 770 images of Aspergillus, Saccharomyces, and Cryptococcus neoformans, respectively. Among them, there were 5366 training images, 1150 validation images, and 1150 test images. The improved MobileNetV2 model had high performance for the classification of 11 fungal images in the test set. The precision rate was distributed between 96.36% and 100%, the recall rate was distributed between 96.53% and 100%, and the F1 value was distributed between 97.01% and 100%. The parameters, memory usage, FPS, accuracy, and AUC of the improved MobileNetV2 model were 4.22 M, 356.89 M, 573, (99.09±0.18)%, and 0.9944±0.0018, respectively, and the comprehensive performance was better than 5 kinds of classical networks.
      Conclusion  The proposed fungal image classification model based on the improved MobileNetV2 can obtain higher fungal image recognition ability while maintaining low computational cost, with an overall performance better than classical CNN model.
  • 管内型听神经瘤(局限于内听道内的微小听神经瘤)治疗的挑战是听力保留,目前常用的经乙状窦后入路和颅中窝入路手术均可能通过保全迷路结构和血供而保留听力,尤其颅中窝入路可在不破坏迷路结构的前提下充分显露内听道全长[1-4]。研究表明,颅中窝入路切除管内型听神经瘤时听力保留的指征包括术前听力良好[5]、肿瘤较小[4, 6]、肿瘤来源于前庭上神经[7]、颅脑MRI T2加权成像存在“脑脊液帽”[8]以及肿瘤与蜗神经之间无粘连[9]。文献报道,颅中窝入路听神经瘤切除术后听力保留的比例存在差异,介于59%~86% 之间[3, 10-12]。本研究重点对管内型听神经瘤患者行颅中窝入路切除术时听神经功能的保留技术进行探讨。

    回顾性收集并分析2006年5月至2021年5月中国人民解放军总医院行经颅中窝入路切除术的管内型听神经瘤患者临床资料。纳入标准:(1)依据1990年Tos听神经肿瘤分级系统诊断为管内型听神经瘤[13];(2)术前均行高分辨率颞骨薄层CT及颅脑MRI检查(图 1);(3)听力保留原则:肿瘤侧耳的平均听阈(纯音听阈0.5 kHz、1 kHz、2 kHz和4 kHz的平均听阈)≤50 dB HL、言语识别率(speech discrimination score, SDS)≥50%、肿瘤直径小于1.5 cm[14];(4)术前与术后均采用美国耳鼻咽喉-头颈外科学会(American Academy of Otolaryn-gology-Head and Neck Surgery, AAO-HNS)听力分级标准进行听力分级[15],采用House-Brackmann(HB)分级[16]进行面神经功能评定。排除标准:(1)同期行颅脑其他部位手术;(2)除颅中窝入路切除术外,还采用其他入路的患者。

    图  1  1例管内型听神经瘤患者(男,13岁)术前影像学检查结果
    A. 颞骨CT示内听道口处骨质变薄(箭头)、肿瘤侧内听道(箭头);B.颞骨CT示非肿瘤侧内听道无明显扩大;C.颅脑MRI水平位T2加权成像可见肿瘤(黄色箭头)与脑脊液(红色箭头);D.颅脑MRI冠状位T1增强成像示肿瘤明显强化(箭头)

    本研究已通过中国人民解放军总医院伦理审查委员会审批(审批号:s2021-179-02)。

    通过电子病历系统收集患者术前及术后影像学资料、听力分级及面神经功能等临床资料。

    患者取仰卧位,经口气管插管、全身麻醉。术前置面神经监测电极及ECocG电极,并固定。手术全程监测面神经和听力。患耳朝上,予以1%碘酒及75%酒精消毒患侧耳周及头部皮肤,常规铺手术巾。(1)开窗:以电钻于颞骨鳞部开一大小约4.0 cm×4.0 cm骨窗。骨窗的前2/3位于外耳道前方,后1/3位于外耳道后方。骨窗下缘接近颞线。(2)定位内听道:依次暴露面神经裂孔及弓状隆起,依此为标志采用House、Fisch或Sanna法确定内听道位置(图 2A)。(3)暴露肿瘤:由内听道底部朝向内听道口方向磨除内听道顶壁,充分磨除内听道前后唇,向外磨除内听道底的骨质并暴露垂直嵴。沿内听道后缘由外向内的方向纵行切开硬脑膜,可见内听道被淡红色瘤体占据(图 2B)。(4)鉴别肿瘤来源:根据垂直嵴的位置,确认面神经和前庭上神经,以神经勾分离并暴露前庭上神经,确认肿瘤来源于前庭上神经或前庭下神经。(5)评估肿瘤与蜗神经之间的粘连程度:在垂直嵴后方勾除肿瘤外侧的前庭上神经(图 2C),然后切开肿瘤包膜、分离瘤体与内听道口周围的蛛网膜,判断肿瘤与蜗神经的粘连程度,从内听道底向内分离瘤体表面的粘连、游离瘤体,完整切除肿瘤(图 2D)。(6)判断面神经和蜗神经功能状态:检查面神经(术中若面神经与肿瘤粘连紧密或被肿瘤包绕,需离断面神经)、蜗神经、耳蜗神经、内耳滋养血管保存完整,以0.05 mA的面神经监测仪检查面神经肌电反应良好(即确保面神经解剖和功能完整),如果未引出肌电反应则逐渐增大电流刺激量,直至引出面神经肌电反应,以确保面神经的连续性。(7)关闭术腔:自切口处取颞筋膜封闭内听道骨质缺损区(图 2E)。

    图  2  经颅中窝入路听神经瘤切除术操作要点
    A. 寻找内听道标志岩浅大神经、面神经裂孔、面神经骨管及上半规管;B.磨除内听道上壁骨质,暴露瘤体;C.对来源于前庭上神经的肿瘤,切断前庭上神经,充分暴露和分离瘤体;D.游离瘤体并完整切除肿瘤;E.采用颞筋膜封闭内听道骨质缺损区

    术前与术后随访时,采用AAO-HNS听力分级标准[15]对所有患者的听神经功能进行评估:(1)A级:纯音平均听阈(pure tone average, PTA)≤30 dB HL且SDS≥70%,为听力良好;(2)B级:PTA≤50 dB HL且SDS≥50%,为有实用听力;(3)C级:PTA>50 dB HL且SDS≥50%,为有可用听力;(4)D级:SDS<50%,为无可用听力。实用听力保留率为术后A级与B级患者例数之和占术前A级与B级患者例数之和的百分率;可用听力保留率为术后A级、B级、C级患者例数之和占术前A级、B级、C级患者例数之和的百分率。

    术后14 d于我院行纯音测听、声导抗和言语测听。术后5年内每隔1年在我院门诊或当地医院行纯音测听、声导抗、SDS和颅脑MRI检查,观察肿瘤复发及听力变化情况。5年后采用电话随访,记录患者病情变化。

    (1) 手术均由同一团队医师完成,减少因医师水平不同导致的误差;(2)数据整理时,由1名工作人员进行数据录入,2名工作人员分别对录入的数据进行核对,确保数据准确无误。

    采用SPSS 25.0软件进行统计学分析。计量资料(年龄、肿瘤直径)以均数±标准差表示,计数资料(可用听力保留率、实用听力保留率)以百分数(频数)表示。采用Agresti-Coull法计算可用听力保留率、实用听力保留率的置信区间。

    共22例符合纳入和排除标准的管内型听神经瘤患者入选本研究。其中男性8例,女性14例;平均年龄(41.4±12.9)岁(范围:13~60岁);肿瘤位于左耳9例,右耳13例;以耳鸣为首发症状19例,听力下降12例,眩晕或头晕9例,小脑共济失调2例,头痛1例。肿瘤直径(1.28±1.86)cm;HB分级Ⅰ级21例,Ⅲ级1例。符合听力保留原则17例,余5例保留残余听力。

    22例患者均完整切除肿瘤,术后均无脑脊液漏、硬膜外血肿、感染等并发症发生。其中1例术后因颞叶局限性出血出现头痛,经对症处理后症状逐渐消失。1例因面神经被肿瘤压迫变扁,且与肿瘤粘连紧密,术中发生面神经损伤,行耳大神经移植面神经桥接术。中位随访4.9年(范围:2个月至15年),无失访病例,均无肿瘤复发。

    表 1所示,22例患者中,术前有实用听力17例(77.3%, 95% CI: 58.3%~96.3%),有可用听力19例(86.4%, 95% CI: 70.8%~100%)。术后实用听力保留率为52.9%(9/17, 95% CI: 26.5%~ 79.4%),可用听力保留率为73.7%(14/19, 95% CI: 51.9%~95.5%)(图 3)。

    表  1  22例听神经瘤患者手术前后美国耳鼻咽喉-头颈外科学会听力分级标准(n)
    术前听力分级 术后听力分级 总计
    A B C D
    A级 5 0 0 4 9
    B级 0 4 4 0 8
    C级 0 0 1 1 2
    D级 0 0 0 3 3
    总计 5 4 5 8 22
    下载: 导出CSV 
    | 显示表格
    图  3  1例听神经瘤患者(女,46岁)术前与术后纯音听力图
    A.术前纯音听力图;B.术后3年纯音听力图

    颅脑MRI检查显示,31.8%(7/22)患者术前存在“脑脊液帽”,68.2%(15/22)患者术前不存在“脑脊液帽”。40.9%(9/22)患者肿瘤来源于前庭上神经,50.0%(11/22)来源于前庭下神经,9.1%(2/22)无法区分来源于前庭上神经或是前庭下神经。63.6%(14/22)患者肿瘤与蜗神经粘连。不同临床资料的患者术后听力保留情况见表 2

    表  2  22例听神经瘤患者术后听力保留结果
    指标 保留实用听力[n(%, 95% CI)] 保留可用听力[n(%, 95% CI)]
    “脑脊液帽”
      存在 3(60.0,23.1~96.9) 4(80.0,24.5~100)
      不存在 6(50.0,16.8~83.2) 10(71.4,44.4~98.5)
    肿瘤来源
      前庭上神经 2(33.3,0~87.5) 4(57.1,7.7~100)
      前庭下神经 5(55.6,14.0~96.1) 8(80.0,49.8~100)
      无法明确 2(100) 2(100)
    肿瘤与蜗神经粘连
      是 5(41.7,8.9~74.4) 8(66.7,35.4~98.0)
      否 4(80.0,24.5~100) 6(85.7,50.8~100)
    下载: 导出CSV 
    | 显示表格

    面神经解剖结构保留率为95.5%(21/22)。21例术前HB面神经功能分级Ⅰ级患者中,术后HB分级仍为Ⅰ级9例;术后发生迟发性面瘫11例,其中,术后HB分级Ⅲ级7例,Ⅳ级4例;术后HB分级Ⅵ级1例(术中肿瘤与面神经粘连极紧致分离肿瘤时面神经中断,断端缺损约0.7 cm,取耳大神经0.8 cm,端端对合内听道段面神经两个断端,以耳脑胶黏着)。1例术前为HB分级Ⅲ级,术后恢复至Ⅰ级。截至末次随访,HB分级Ⅰ级21例,Ⅳ级1例(为术中面神经离断患者)。

    听力丧失严重影响患者的生活质量,听力保留已成为听神经瘤患者继肿瘤全切和保存面神经功能之后的第3大手术重点。本研究对22例行颅中窝入路切除术的管内型听神经瘤患者听力保留技术进行研究,结果显示22例患者均完整切除肿瘤,术后均无脑脊液漏、硬膜外血肿、感染等并发症发生。术后实用听力保留率为52.9%(9/17, 95% CI: 26.5%~79.4%),可用听力保留率为73.7%(14/19, 95% CI: 51.9%~95.5%)。中位随访时间为4.9年,均无肿瘤复发;术后HB面神经功能分级I级21例,Ⅳ级1例。提示颅中窝入路可完整切除肿瘤,效果确切,听力保留效果满意。

    在行手术治疗且符合保留听力原则的听神经瘤(即肿瘤局限在内听道或不超过内听道近端一半的) 患者中,听力保留的比例可达66%,而对放疗或保守治疗患者进行为期5年的随访,发现仅50%可保持原有听力[17],因此,对于诊断时听力已下降但仍有实用听力(AAO-HNS分级A~B级)的听神经瘤患者,保听手术是最佳选择。颅中窝入路可全面暴露内听道和桥脑小脑角上部,该入路听神经瘤切除同时听力保留范围波动较大,实用听力保留率在20%~96%之间[10-12, 18-20]。Kosty等[21]报道显示,颅中窝入路听神经瘤切除后实用听力与可用听力保留率分别为54%和50%;关于肿瘤来源,17%来源于前庭上神经,67%来源于前庭下神经,13%来源无法明确,实用听力保留率分别为55.6%、50%、66.7%,可用听力保留率分别为50%、48.4%、57.1%,三者间听力保留率均无统计学差异。Jacob等[2]的报道中共纳入51例行颅中窝入路听神经瘤切除术患者,其术后实用听力保留率为37.3%。其中41.2%的肿瘤来源于前庭上神经,17.6%来源于前庭下神经,41.2%无法明确肿瘤来源,术后实用听力保留率(55.6%、23.8%、42.9%)无显著差异。本研究22例患者术后实用听力保留率为52.9%,可用听力保留率为73.7%,符合上述文献报道范围。肿瘤来源于前庭下神经患者的实用听力保留率(60.0%)、可用听力保留率(80.0%)均高于肿瘤来源于前庭上神经患者(28.6%、57.1%),与既往文献报道不一致[7]。可能原因:本研究中源自前庭上神经的肿瘤大部分位于内听道底,肿瘤与前庭神经的粘连程度强,同时肿瘤偏大,增加了手术切除难度,以致该类患者的实用听力保留率及可用听力保留率降低。后期需对肿瘤在内听道的位置进行定位以及对不同来源/不同部位的肿瘤与听神经的粘连程度进行分级、精确量化,以进一步验证此结果。此外,本研究40.9%的肿瘤来源于前庭上神经,50.0%来源于前庭下神经,9.1%无法明确肿瘤来源,与上述文献[2, 5, 21]存在差异。肿瘤来源占比不同可能是导致本研究听力保留率与既往文献报道结果存在差异的原因之一。

    术前听力水平是听神经瘤患者术后听力保留率的影响因素之一。本研究患者中,77.3%术前有实用听力,86.4%术前有可用听力,提示术前较好的听力水平可能是术后具有较高听力保留率的基础。除肿瘤来源、术前听力水平外,颅中窝入路听神经瘤切除术听力保留的影响因素还包括T2加权成像是否存在“脑脊液帽”以及肿瘤与蜗神经之间是否存在粘连等。Selleck等[22]研究发现,听神经瘤患者内听道底“脑脊液帽”越小则存在听力损失的风险越大。大量研究表明,听神经瘤患者存在“脑脊液帽”提示良好的听力保留率[21, 23-24]。本研究22例患者中术前存在“脑脊液帽”的患者仅占1/3,该类患者的术后实用听力保留率和可用听力保留率均高于不存在“脑脊液帽”患者。因此,术前综合评估患者听力水平、影像学特征之间的关系以及听力发展趋势,对行颅中窝入路切除肿瘤的小听神经瘤或管内型听神经瘤患者,长期、稳定保留实用听力至关重要。

    侧颅底外科手术切除肿瘤的目标是在完整切除肿瘤的同时保留面神经和蜗神经解剖结构的连续性和良好的功能。术中可清楚鉴别肿瘤包膜与面神经和蜗神经的边界,是完整切除肿瘤以及保留面神经和蜗神经良好功能的前提。若肿瘤包膜与面神经及蜗神经之间形成广泛粘连,则术中损伤面神经和蜗神经的风险增加[9, 25-26]。Moriyama等[9]报道,术中发现肿瘤与蜗神经粘连紧密的听神经瘤患者术后实用听力保留率为18.2%,二者无粘连患者的实用听力保留率为100%。本研究1例患者术中面神经损伤,余21例患者术后面神经功能出现短暂下降,随访过程中均逐渐恢复至HB分级I级。肿瘤与蜗神经存在粘连患者的术后实用听力保留率为41.7%,可用听力保留率为66.7%,低于均不存在粘连的患者(80.0%、85.7%)。本研究实用听力保留率与Moriyama等[9]报道结果存在差异可能与肿瘤大小、手术入路、肿瘤与蜗神经之间粘连的程度及范围不同相关。因此,部分学者建议在肿瘤包膜下或前庭神经束膜下解剖前庭神经-肿瘤界面,以保留面神经和蜗神经的功能,本研究术中遵循此原则。

    本研究局限性:(1)小样本量、单中心研究,易存在未被平衡的混杂因素;(2)由于病例数受限,未进行不同临床特征患者之间实用听力保留率与可用听力保留率差异性比较;(3)未对术后及随访过程中听力变化规律进行分析。

    综上,颅中窝入路听神经瘤完整切除术中保留听力,不仅需要综合评估术前听力水平、影像学特征以及二者之间的关系,把握合适的切除时机;且术中需准确判断肿瘤来源、肿瘤与蜗神经粘连程度,掌握不同情况下手术操作技巧以保留蜗神经的解剖结构完整性及良好的功能。

    作者贡献:张雪媛、许鸿雁负责研究方案设计、实验操作、数据分析与论文撰写;董跃明、刘丹凤、孙鹏蕊负责数据采集与标注;颜锐、崔洪亮、雷红、任菲负责数据审核及内容审校。
    利益冲突:所有作者均声明不存在利益冲突
  • 图  1   去噪前后的真菌图像对比

    图  2   基于改进的MobileNetV2模型结构示意图

    图  3   Dilated SE模块运行示意图

    图  4   11种真菌显微镜图像

    图  5   基于改进的MobileNetV2真菌分类模型混淆矩阵

    图  6   部分真菌原始显微镜图像和类激活热力图

    A.光滑念珠菌;B.葡萄芽菌;C.新型隐球菌;D.黑曲霉菌;E.烟曲霉菌;F.杂色曲霉菌
    (1)原始显微镜图像;(2)类激活热力图,颜色越趋于红色,表示该区域受网络结构的关注度越高

    表  1   改进的MobileNetV2真菌分类模型在测试集中的表现(x±s,%)

    菌种 查准率 召回率 F1值
    烟曲霉菌 99.77±0.16 98.95±0.29 99.36±0.08
    杂色曲霉菌 96.41±0.62 99.77±0.16 98.06±0.25
    黑曲霉菌 100±0 97.16±0.63 98.56±0.32
    解脂假丝酵母菌 99.63±0 100±0 99.81±0
    近平滑念珠菌 96.36±0.51 97.90±0.46 97.12±0.46
    葡萄芽菌 97.50±0.70 96.53±0.17 97.01±0.40
    季也蒙念珠菌 99.87±0.18 99.35±0.49 99.61±0.16
    克柔念珠菌 100±0 100±0 100±0
    光滑念珠菌 99.39±0.86 96.97±1.71 98.15±0.77
    热带念珠菌 96.53±1.87 99.28±1.02 97.86±0.85
    新型隐球菌 100±0 99.57±0 99.78±0
    下载: 导出CSV

    表  2   不同分类模型在测试集中的运行结果

    指标 参数量(M) 内存占用量(M) FPS 准确率(x±s,%) AUC(x±s)
    ResNet18 11.18 252.44 527 98.83±0.16 0.9935±0.0008
    MobileNetV2 2.24 603.82 501 98.68±0.12 0.9928±0.0006
    SENet 0.74 292.24 562 97.78±1.70 0.9878±0.0032
    DenseNet121 6.97 1341.44 177 98.81±0.27 0.9939±0.0011
    Inception V3 21.81 468.05 105 98.84±0.11 0.9948±0.0007
    改进的MobileNetV2 4.22 356.89 573 99.09±0.18 0.9944±0.0018
    FPS:网络每秒处理的图像数量;AUC:曲线下面积
    下载: 导出CSV
  • [1]

    Chen M, Xu Y, Hong N, et al. Epidemiology of fungal infections in China[J]. Front Med, 2018, 12: 58-75. DOI: 10.1007/s11684-017-0601-0

    [2]

    Sanguinetti M, Posteraro B, Beigelman-Aubry C, et al. Diagnosis and treatment of invasive fungal infections: looking ahead[J]. J Antimicrob Chemother, 2019, 74: 27-37.

    [3] 何文军, 李曼, 李涛, 等. 基于血细胞形态识别的自动检测系统的研发[J]. 现代检验医学杂志, 2019, 34: 110-114. https://www.cnki.com.cn/Article/CJFDTOTAL-SXYN201902027.htm

    He WJ, Li M, Li T, et al. Study on Automatic Detection System Base on Blood Cell Morphology Recognition[J]. Xiandai Jianyan Yixue Zazhi, 2019, 34: 110-114. https://www.cnki.com.cn/Article/CJFDTOTAL-SXYN201902027.htm

    [4] 赵颖, 李志荣, 赵建宏, 等. 河北地区临床实验室丝状真菌分离鉴定情况分析[J]. 中国真菌学杂志, 2020, 15: 206-212. DOI: 10.3969/j.issn.1673-3827.2020.04.004

    Zhao Y, Li ZR, Zhao JH, et al. Analysis of filamentous fungi isolations from clinical laboratories in Hebei province[J]. Zhongguo Zhenjunxue Zazhi, 2020, 15: 206-212. DOI: 10.3969/j.issn.1673-3827.2020.04.004

    [5]

    Tamiev D, Furman PE, Reuel NF. Automated classification of bacterial cell sub-populations with convolutional neural networks[J]. PLoS One, 2020, 15: e0241200. DOI: 10.1371/journal.pone.0241200

    [6]

    Kulwa F, Li C, Zhang J, et al. A new pairwise deep learning feature for environmental microorganism image analysis[J]. Environ Sci Pollut Res Int, 2022. doi: 10.1007/s11356-022-18849-0.

    [7]

    Zhang J, Li C, Kosov S, et al. LCU-Net: A novel low-cost U-Net for environmental microorganism image segmentation[J]. Pattern Recogn, 2021, 115: 107885. DOI: 10.1016/j.patcog.2021.107885

    [8]

    Liang CM, Lai CC, Wang SH, et al. Environmental microorganism classification using optimized deep learning model[J]. Environ Sci Pollut Res Int, 2021, 28: 31920-31932. DOI: 10.1007/s11356-021-13010-9

    [9] 李卓识, 陈晓旭, 温长吉, 等. 基于机器学习的鹅膏属真菌形态特征分类模型研究[J]. 中国农机化学报, 2020, 41: 136-143. https://www.cnki.com.cn/Article/CJFDTOTAL-GLJH202001026.htm

    Li ZS, Chen XX, Wen CJ, et al. Study on classification model of morphological characteristics of amanita fungi based on machine learning[J]. Zhongguo Nongjihua Xuebao, 2020, 41: 136-143. https://www.cnki.com.cn/Article/CJFDTOTAL-GLJH202001026.htm

    [10]

    Tahir MW, Zaidi NA, Rao AA, et al. A fungus spores dataset and a convolutional neural network based approach for fungus detection[J]. IEEE Transact Nano Biosci, 2018, 17: 281-290.

    [11]

    Zhang J, Lu S, Wang X, et al. Automatic identification of fungi in microscopic leucorrhea images[J]. J Opt Soc Am A Opt Image Sci Vis, 2017, 34: 1484-1489. DOI: 10.1364/JOSAA.34.001484

    [12] 周院. 基于深度学习的真菌图像分类算法研究[D]. 西安: 西安理工大学, 2019.
    [13] 郝如茜. 白带显微图像中霉菌自动识别及清洁度判定的研究[D]. 成都: 电子科技大学, 2017.
    [14]

    Otsu N. A threshold selection method from gray-level histograms[J]. IEEE Transact Syst Man Cyb, 2007, 9: 62-66.

    [15]

    Hao R, Wang X, Zhang J, et al. Automatic detection of fungi in microscopic leucorrhea images based on convolu-tional neural network and morphological method[C]. 2019 IEEE 3rd Information Technology, Networking, Electronic and Automation Control Conference (ITNEC), 2019: 2491-2494.

    [16]

    Sandler M, Howard A, Zhu M, et al. Mobilenetv2: Inverted residuals and linear bottlenecks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 4510-4520.

    [17]

    Deng J, Dong W, Socher R, et al. Imagenet: A large-scale hierarchical image database[C]. 2009 IEEE Conference on Computer Vision and Pattern Recognition, 2009: 248-255.

    [18]

    Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2018: 7132-7141.

    [19]

    Yu F, Koltun V. Multi-Scale Context Aggregation by Dilated Convolutions[C]. International Conference on Learning Representations, 2016. https://doi.org/10.48550/arXiv.1511.07122.

    [20]

    He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.

    [21]

    Huang G, Liu Z, Laurens V, et al. Densely connected convolutional networks[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4700-4708.

    [22]

    Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2818-2826.

    [23]

    Loshchilov I, Hutter F. SGDR: Stochastic Gradient Descent with Restarts[J]. ICLR 2017 Conference Paper, 2016. https://doi.org/10.48550/arXiv.1608.03983.

    [24]

    Pan SJ, Qiang Y. A survey on transfer learning[J]. IEEE Transact Knowl Data En, 2010, 22: 1345-1359.

    [25]

    Selvaraju RR, Cogswell M, Das A, et al. Grad-CAM: Visual explanations from deep networks via gradient-based localization[J]. Int J Comput Vision, 2020, 128: 336-359.

    [26]

    Mital ME, Tobias RR, Villaruel H, et al. Transfer learning approach for the classification of conidial fungi (genus aspergillus) thru pre-trained deep learning models[C]. 2020 IEEE Region 10 Conference (Tencon), 2020: 1069-1074.

    [27]

    Billones RK, Calilung EJ, Dadios EP, et al. Aspergillus species fungi identification using microscopic scale images[C]. 2020 IEEE 12th International Conference on Humanoid, Nanotechnology, Information Technology, Communication and Control, Environment, and Management(HNICEM), 2020. doi: 10.1109/HNICEM51456.2020.9400039.

    [28]

    Zawadzki P. Deep learning approach to the classification of selected fungi and bacteria[C]. 2020 IEEE 21st International Conference on Computational Problems of Electrical Engineering (CPEE), 2020: 1-4.

    [29]

    Zieliński B, Sroka-Oleksiak A, Rymarczyk D, et al. Deep learning approach to describe and classify fungi microscopic images[J]. PLoS One, 2020, 15: e0234806.

  • 期刊类型引用(0)

    其他类型引用(2)

图(6)  /  表(2)
计量
  • 文章访问数:  741
  • HTML全文浏览量:  169
  • PDF下载量:  57
  • 被引次数: 2
出版历程
  • 收稿日期:  2022-03-30
  • 录用日期:  2022-05-25
  • 网络出版日期:  2022-09-19
  • 刊出日期:  2023-01-29

目录

/

返回文章
返回
x 关闭 永久关闭