2024年1月1日发(作者:)

JSouthMedUniv,2023,43(8):1379-1387doi10.12122/.1673-4254.2023.08.15·1379·磁共振酰胺质子转移模态的胶质瘤IDH基因分型识别:基于深度学习的Dual-Aware框架2222楚智钦1,,屈耀铭3,钟涛1,,梁淑君1,,温志波3,张煜1,123南方医科大学生物医学工程学院,广东省医学图像处理重点实验室,广东广州510515;南方医科大学珠江医院放射科,广东广州510282

摘要:目的基于磁共振酰胺质子转移(APT)模态数据,提出Dual-Aware深度学习框架实现胶质瘤异柠檬酸脱氢酶(IDH)基因分型,实现无创性的辅助诊断。方法共收集118例多模态磁共振脑影像数据,其中68例为野生型,50例为突变型,所有数据完成了脑部胶质瘤ROI区域勾画。APT模态成像无需造影剂,它对肿瘤的信号强度跟肿瘤恶性程度呈正相关,且对IDH野生型的信号强度高于对IDH突变型的信号强度。针对APT模态肿瘤成像及衍生区域形态多变,且相对其他模态更缺乏明显的边缘轮廓特点,构建Dual-Aware框架,引入Multi-scaleAware模块挖掘多尺度特征,EdgeAware模块挖掘边缘特征,以实现基因分型的自动识别。结果两类Aware机制的引入能够有效提升模型对胶质瘤IDH基因分型的识别率。对各模态数据在准确率和AUC方面都取得了一定的提升,并在APT模态上取得了最佳性能,预测精度达到83.1%,AUC达到0.822,从而验证了APT模态对于脑胶质瘤IDH基因分型识别的优势和有效性。结论本文采用的深度学习算法模型基于APT模态的图像特点构建,验证了APT模态在胶质瘤IDH基因分型识别任务中的有效性,有望在该任务利用APT模态取代目前常用的T1CE模态,避免造影剂注射,以实现无创性的IDH基因分型。关键词:深度学习;Dual-Aware;酰胺质子转移;胶质瘤;异柠檬酸脱氢酶ADual-AwaredeeplearningframeworkforidentificationofgliomaisocitratedehydrogenasegenotypeusingmagneticresonanceamideprotontransfermodalitiesCHUZhiqin1,2,QUYaoming3,ZHONGTao1,2,LIANGShujun1,2,WENZhibo3,ZHANGYu1,21SchoolofBiomedicalEngineering,2GuangdongProvincialKeyLaboratoryofMedicalImageProcessing,SouthernMedicalUniversity,Guangzhou510515,China;3DepartmentofRadiology,ZhujiangHospital,SouthernMedicalUniversity,Guangzhou510282,ChinaAbstract:ObjectiveToproposeaDual-Awaredeeplearningframeworkforgenotypingofisocitratedehydrogenase(IDH)ingliomasbasedonmagneticresonanceamideprotontransfer(APT)sWecollectedmultimodalmagneticresonanceimaging(MRI)imagingdataofthebrainfrom118casesofgliomas,alityimagingdoesnotrequirecontrastagents,anditssignalintensityontumorsispositivelycorrelatedwithtumormalignancy,modalities,tumorimagingandderivedareasaremorphologicallyvariableandlacnthesecharacteristics,weproposetheDual-Awareframework,whichintroducestheMulti-Awareframeworktominemulti-scalefeatures,andtheEdgeAwsTheintroductionoftwotypesofAwaremechanismseffectiveuracyandAUCforeachmodalitydatawereenhanced,andthebestperformancewasachievedontheAPTmodalitywithapredictionaccuracyof83.1%andanAUCof0.822,suggestisionTheproposeddeeplearningalgorithmmodelconstructedbasedontheimagecharacteristicsoftheAPTmodalityiseffectiveforgliomaIDHgenotypingandidentificationtaskandmaypotentiallyreplacethecommonlyusedT1CEmodalitytds:deeplearning;Dual-Aware;amideprotontransfer;glioma;isocitratedehydrogenase脑胶质瘤是发病率最高的中枢神经系统原发恶性肿瘤[1]。2016年世界卫生组织在脑胶质瘤病理分类中收稿日期:2022-11-02基金项目:国家自然科学基金(61971213)SupportedbyNationalNaturalScienceFoundationofChina(61971213).作者简介:楚智钦,在读硕士研究生,E-mail:*******************;屈耀铭,博士,E-mail:*****************。楚智钦、屈耀铭共同为第一作者通信作者:张煜,博士,教授,博士生导师,E-mail:***************.cn;温志波,博士,教授,博士生导师,E-mail:****************首次加入了基因分型[2],IDH基因分型被确认为脑胶质瘤分类的基础生物标志物,其突变状态的准确识别关系[3-6]到脑胶质瘤的确诊、治疗方案规划和预后判断。在临床中,对脑胶质瘤标本进行病理检测是基因分型的金标准,但肿瘤标本需要通过穿刺或手术切除等有创方式获取,有一定机率导致患者出现神经功能缺损后遗症,给[7,8]患者的正常生活造成严重影响。现代影像学技术的快速发展和普及对临床中脑胶质瘤患者的辅助治疗和预后诊断具有重要意义。Copyright©博看网. All Rights Reserved.

·1380·JSouthMedUniv,2023,43(8):1379-1387

MRI是最常规的用于辅助分析脑胶质瘤的多序列医学影像技术,其中T1CE模态图像在临床中常被用于脑胶质瘤基因分型的影像学判断[9]。然而,T1CE模态需要对病人进行造影剂注射,一方面会对患者造成有创性损伤;另一方面,部分对造影剂过敏的患者无法完成[10]增强扫描检查,造成T1CE模态的缺失。因此,Zhou等于2003年首次提出基于磁共振APT成像技术,这是一种无创的细胞分子水平磁共振技术。APT模态成像对肿瘤的信号强度跟肿瘤恶性程度呈正相关,且IDH野生型的APT信号强度要高于IDH突变型的APT信号强度,它的优点是无创检测内源性,无需注射外源性对比[11]剂。Jiang等利用APT成像首次在术前检测胶质瘤中IDH的突变状态。当前预测IDH基因分型的方法主要包括基于影像组学的机器学习、深度学习或两者的结合。基于影像组学机器学习的方法从MR影像中提取高维特征,包括肿瘤强度、形状、纹理等,然后基于这些特征训练机器学习模型,用于预测分子标记、肿瘤等级或患者存活率等[12-14]。近年来,基于深度学习的方法因其可以自动提取特征、具有更好的分类精度和鲁棒性较好等特点,[15-17]也被用于IDH基因分型预测。此外,也有将两者结合的方法用于IDH基因分型,例如基于放射组学特征构[18-21]建深度神经网络,以提高预测性能。尽管已经有众多用于IDH基因分型的方法,但上述方法大多是基于FLAIR、T1CE、T1、T2模态构建的。因此,本文将根据APT模态设计深度学习框架,验证其在IDH基因分型任务中的有效性,以替代T1CE模态实现无创的辅助诊断。此前有关APT模态IDH基因分型的研究大都是基[11,22]于二维数据构建的,没有考虑肿瘤的空间结构。在本研究中,我们基于APT模态的图像特点,使用三维APT影像数据构建Dual-Aware深度学习框架用于IDH基因分型。针对不同患者的肿瘤存在形状、大小各异的情况,而APT模态的分子成像特性使得肿瘤区域附近存在一定的衍生区域。为了充分利用APT图像信息,我们设计Multi-scaleAware模块,用于多尺度信息的提取,并采用空间注意力机制对其进行融合,以增加全局信息优化分类;针对APT模态的肿瘤区域缺乏明显的边缘轮廓这一问题,我们设计EdgeAware模块以增强边缘特征,进一步区分病变和正常组织区域,以提高模型对病变区域的敏感性。1材料和方法1.1实验数据本文实验数据来自珠江医院,共包括118例胶质瘤患者的3DMR图像,其中包括50个IDH突变型,68个IDH野生型,每一例患者都采集了三个模态的MR图像,分别是FLAIR模态、T1CE模态、APT模态,其中图像的平面尺寸分别为432×432、480×480、512×512,切片的数量为9~30层。所有图像均以DICOM格式存储,并由经验丰富的放射诊断医生使用ITK-SNAP软件()勾画感兴趣目标区域(ROI)。1.2数据预处理图像预处理的步骤如图1所示。由于采集参数设置不一致,部分病人的不同模态图像存在不同尺寸,无法直接用于深度学习分类网络的训练,需要预处理手段将图像数据设置为同样尺寸。根据数据的尺寸分布特点,文中将平面尺寸统一为480×480,并采用双线性插值方式进行图像缩放;纵向尺寸大于18层的将上下限切片截去缩小至18层,小于18层的将切片数向上下两侧补零层至18层,最终所有图像的尺寸统一为480×480×18。所有模态图像都通过配准工具包Advanced[23]normalizationtools(ANTs)进行刚性配准,使得所有数据处于统一的坐标空间,以进行后续实验。图1图像预处理步骤Fig.1PreprocessingoftheAPTmodality,FLAIRmodality,ght©博看网. All Rights Reserved.

uthMedUniv,2023,43(8):1379-1387·1381·

对于整个3D脑影像体积而言,胶质瘤肿瘤区域的体积相对较小,其余的大体积非病灶区域对IDH基因分型而言属于无用噪声,不利于该任务的深度学习框架的训练。因此,本研究遍历所有病人的肿瘤区域,确定图像的边界从而得到一个初始的boundingbox。遍历所有病人得一个最大体积的boundingbox,以覆盖不同尺寸的肿瘤区域及周边区域。最终,根据所遍历的胶质瘤肿瘤区域体积,设置的boundingbox的尺寸为288×288×17,并以此为裁剪目标区域对图像进行裁剪,裁剪使用以下的定位算法。基本定位的算法:(1)确定肿瘤感兴趣区域的初始boundingbox的几何中心坐标(x0,y0,z0);(2)以x坐标为例,如果几何中心的x轴坐标x0距离x轴边界的距离小于288/2,如果其距离x轴左侧较近,则所选取的x坐标最终区域为[0,287],如果其距离x轴正边界较近,则所选取的x坐标最终区域为[192,479];如果几何中心的x轴坐标x0距离x两侧边界的距离大于288/2,则按照中心区域往两侧扩展,则所选取的x坐标的最终区域为[x0-144,x0+143];(3)坐标y、z的确定方式同上。通过上述算法对肿瘤区域进行定位后可以得到最终参与构建分类模型的3D数据。此外,所有数据已完成归一化处理以加速模型收敛,提升模型的精度和鲁棒性。1.3模型本研究基于APT模态图像特点,构建了DualAware框架(图2),包括EdgeAware模块和Multi-scaleAware模块。其中Multi-scaleAware模块针对肿瘤尺寸多变的特点,深度挖掘多尺度信息,并通过空间注意力机制对多尺度信息进行融合,从而增加模型对不同尺寸肿瘤特征的提取能力;EdgeAware模块针对APT模态肿瘤区域边缘不明显的特点,深度挖掘边缘信息,从而增加模型对肿瘤的边界特征信息的挖掘能力,提高分类的精度。图2网络框架图ght©博看网. All Rights Reserved.

·1382·JSouthMedUniv,2023,43(8):1379-1387

2所示为本研究所构建的DualAware框架,如图该框架以3D图像作为输入,通过3个层级进行特征提取。每个层级包含如下结构:首先经过一次卷积、池化和修正线性单元进行初步的特征提取;然后输入至Multi-scaleAware模块进行多尺度特征提取,多尺度特征将通过空间注意力机制进行信息融合;再输入至EdgeAware模块,通过三个三维边缘检测卷积算子进行边缘特征的提取,然后进行边缘特征融合。层级之间的下采样尺度为1/2和1/4。经过3个层级的特征提取后,特征被输入至卷积、池化和修正线性单元进行特征维度控制,最后输入至全连接层,通过softmax得到二分类的概率,按照最大概率决定分类结果。下文将详细介绍本框架所包含的各个模块,其中Multi-scaleAware模块及其中的AttentionModule见1.3.1,EdgeAware模块中的Edgefusion见1.3.2。1.3.1Multi-scaleAware模块现实世界中,观测对象的不同特征独立存在于特定的空间范围上,在不同的尺度上观察,对象会有不同的表现形式。在计算机视觉任务中,深度学习模型需要在合适的尺度上提取图像的特征。然而,由于不同图像中目标对象的尺寸不一,不可能事先定义一个最优的尺度去分析图像,因此,需要在多个尺度下去考虑图像内容。多尺度特征在CNN网络中已经展现出很好的效[24,25]果,被广泛应用在自然图像领域,在医学图像任务中[26,27]也错的了不错的结果。针对APT模态中不同患者肿瘤区域大小形状各异,且附近存在一定的衍生区域的特点,我们在模型中构建了Multi-scaleAware模块。在Multi-scaleAware模块中,输入特征将被下采样卷积至输入尺寸的1/2和1/4,然后通过上采样卷积恢复为输入尺寸,从而完成对多尺度特征的提取。考虑到对多尺度特征直接进行逐像素叠加可能会造成特征信息的冗余,我们引入了3Dattentionmodule来进行信息融合。许多研究证明了注[28-30]意力机制的有效性,与常规特征融合策略相比,它可以将局部特征与其对应的全局特征进行依赖性权重计算,并自适应地突出相互依赖的特征信息,从而选择性对来自不同类型输入的有用信息进行加权,并抑制相应的噪声信号。在模型中我们构建了基于3D的attentionmodule,建立了基于3D的全局依赖,提高了有效特征的整体权重。在图3中,首先输入的特征图X(D×H×W×C)通过三个1×1×1的卷积得到三个特征F1、F2和F3用于权重计算,之后三个特征经过展开得到D×H×W×C0的矩阵M1、M2和M3,注意力机制将使用这三个矩阵,定义如下:M1M2TA=Softmax()(1)C0其中注意力机制矩阵A的维度为(D×H×W×C)×(D×H×W×C),输出的维度是D×H×W×C0。为了方便描述,以矩阵M1中的一个向量为例,该向量表示某一空间点在C0个维度中的所有特征值,在注意力模块中,该向量将按顺序与M2T中的所有向量进行交互,其中每两个向量之间的相乘为相应的向量产生一个标量权重。这个标量权重是一个加权和,表示一个空间点与所有其他点之间的关系,权重将通过softmax进行归一化。两个空间点的特征越相似,表示它们之间存在越大的权重系数。对M1中的所有向量重复此过程,最终生成(D×H×W)×(D×H×W)三维空间注意矩阵A。然后,矩阵A和矩阵M3之间将通过矩阵乘法进行特征加权,从而得到加权后的输出特征矩阵,最终该加权特征矩阵将被折叠为空间注意力加权特征图Y。可以看到,每个位置的结果特征Y是所有位置的特征权重。因此,它具有全局上下文信息,并根据空间注意力图选择性地聚合相似的语义特征,有效融合不同类型的特征,从而提高语义特征一致性。Y=AM3(2)图3Multi-scale模块中的Attention模块细节ght©博看网. All Rights Reserved.

uthMedUniv,2023,43(8):1379-1387·1383·

Aware模块边缘检测可以反映MR图像的1.3.2Edge灰度变化,并反映了MR图像中不同组织之间的边界,因此对边缘进行提取可以有效捕捉图像内容的纹理结构,有助于将模型对特定病变区域的特征提取。特别是在APT模态中,肿瘤区域对比其他模态图像具有更模糊的边缘轮廓,对其边缘信息进行预先挖掘有助于区分病[31,32]变和正常组织,有助于更好地描绘异常区域的轮廓,从而提高模型对肿瘤病变区域的特征提取能力。如图4所示,输入的特征图X通过EdgeAware模块分别与3个sobel卷积核Fi、Fj、Fk进行卷积,得到3个边缘特征图。3个边缘特征图通过以下方式合并到一起得到最终的特征图Y,计算过程如下:如图5所示,以输入模态的原始图像为例,经过EdgeAware模块处理后,病变区域的边缘轮廓被有效提取,特别是APT模态中的代谢变化和生理病理信息,形成了特定的轮廓,有助于模型对其特殊的边缘信息和纹理信息的进一步挖掘,有助于模型更精确区分病变和正常组织,从而提升分类的精度。Y=(Fi∗X)2+(Fj∗X)2+(Fj∗X)2(3)ConvkernelFiFeaturemapsize=nConvkernelFiFeaturemapsize=n图4三维sobel算子包括三个卷积核Fi、Fj、Fk,每一个卷积核的大小均为3×3×3。三维卷积核中间没有标注数字的位置均代表着0Fig.4Thethree-dimensionalsobeloperatorincludes3convolutionkernelsFi,Fj,andFk,andthesizeofeachconvolutionkernelis3×3×itionswithoutnumbrnelFK图5使用sobel边缘检测前后的影像,左、中、右分别为APT模态、FLAIR模态、T1CE模态t,middleandrightareAPTmodality,FLAIRmodality,andT1CEmodality,ght©博看网. All Rights Reserved.

·1384·JSouthMedUniv,2023,43(8):1379-1387

1.4实验设置本研究所使用数据共包括118例脑胶质瘤患者的3D多模态MR图像,其中包括50例IDH突变型,68例表1四折交叉验证分折结果Tab.1Four-foldcross-validationsplitresultsItemIDH_wild-typeIDH_mutatedTotalDataset1151429Dataset221829IDH野生型。所有的实验结果均采取四折交叉验证,对4次结果取平均,从而避免单次验证容易造成的偶然性误差。数据分折的情况如表1所示。Dataset3171330Dataset4151530Total6850118模型使用11GBNvidiaRTX2080TiGPU进行相关计算和构建,采用了PyTorch深度学习框架。模型训练中,学习率设为10-4,批大小为2,损失函数为交叉熵,损[33]失函数的优化方法为Adam算法。模型的图像输入尺寸设定为(288,288,17),每一层级的特征尺寸n1、n2、n3分别是9×144×144、5×72×72、3×36×36,特征通道数分别为48,128,192。即整个框架中图像和特征在每一层级的尺度变化为:(2,x,17,288,288)->(2,48,9,144,144)->(2,128,5,72,72)->(2,192,3,36,36),其中x为输入模态的维度,当输入模态为T1CE和FLAIR时x为1,当输入模态为APT时,因其为RGB彩色图像,x为3。2结果为验证所构建模块对Backbone的改进作用,我们基于APT模态的基因分型设计了消融研究(Ablationstudy)。APT模态在Backbone及使用不同的Aware模块改进下对应的准确率、AUC、特异性和敏感性的结果(表2),其中表中的APT的结果为Backbone(即AlexNet),M为Backbone基础上加入了Multi-scaleAware模块,E为Backbone基础上加入了EdgeAware模块,Dual为Backbone基础上同时嵌入了两类Aware模块。表2的结果显示,无论加入了哪种Aware模块,改进后的分类模型的分类性能均高于Backbone,证明了单个Aware模块对模型的有效改进;在准确率方面,APT+Multi-scaleAware+EdgeAware的分类准确率最大值、最小值和平均值明显优于其它框架;在AUC值方面,APT+Multi-scaleAware+EdgeAware稍微优于其它网络框架,而APT+Multi-scaleAware和APT+EdgeAware基本一致;在特异性方面,APT+Multi-scaleAware+EdgeAware明显优于其他网络框架;在敏感性方面,APT+Multi-scaleAware+EdgeAware优于其它网络框架,而APT+Multi-scaleAware和APT+EdgeAware基本一致。此外,为了验证APT模态对比其他两类常用模态(即T1CE和FLAIR模态)在IDH基因分型任务中的有表2APT模态使用Aware模块分类的实验结果Tab.2ExperimentalresultsofAPTmodalityclassificationusingawaremoduleResultACCMinimumMaximumAverageAUCMinimumMaximumAverageSpecificityMinimumMaximumAverageSensitivityMinimumMaximumAverageAPT0.7590.8000.7880.7010.8500.7810.7060.8670.8380.5750.7330.661APT+M0.7590.8450.8030.7100.8660.7980.7330.8820.8450.6150.7420.671APT+E0.7750.8330.8140.7200.8700.8070.7330.9050.8570.6250.7380.673APT+Dual0.7880.8670.8310.7200.8840.8220.8000.9330.8870.6280.7860.699Copyright©博看网. All Rights Reserved.

uthMedUniv,2023,43(8):1379-1387·1385·

效性,我们对比了三者分别在Backbone和Dual-Aware框架中的性能表现,对应的准确率、AUC、特异性和敏感性结果如表3所示。结果显示,尽管在Backbone中,APT模态对比T1CE模态和FLAIR模态没有太大的性能优势,但是在Dual-Aware框架中,APT模态的整体性能要高于T1CE模态和FLAIR模态。在准确率方面,APT+Dual-Aware的分类准确率最大值、最小值和平均值明显优于FLAIR模态和T1CE模态,T1CE模态要优于FLAIR模态;在AUC值方面,APT+Dual-Aware也明显优于FLAIR模态和T1CE模态,而T1CE模态要优于FLAIR模态;在特异性方面,APT+Dual-Aware明显优于FLAIR模态和T1CE模态,而T1CE模态和FLAIR模态表现基本一致;在敏感性方面,APT+Dual-Aware优于FLAIR模态,却略差于T1CE模态。表3APT、T1CE和FLAIR模态使用Dual-Aware模块分类的实验结果Tab.3ExperimentalresultsofAPT,T1CEandFLAIRmodalityclassificationusingdual-awaremoduleResultACCMinimumMaximumAverageAUCMinimumMaximumAverageSpecificityMinimumMaximumAverageSensitivityMinimumMaximumAverageFLAIR0.7240.8000.7540.6670.8240.7560.7330.8550.8170.5250.7690.658T1CE0.7240.8280.7800.6790.8440.7760.7330.8670.8380.5750.7860.670APT0.7590.8000.7880.7010.8500.7810.7060.8670.8380.5750.7330.661FLAIR+Dual0.7540.8330.8070.6990.8450.7940.7330.9050.8550.5750.7750.663T1CE+Dual0.7590.8620.8200.7100.8670.8120.7330.9020.8670.6250.8000.685APT+Dual0.7880.8670.8310.7200.8840.8220.8000.9330.8870.6280.7860.6993讨论面对日益增长的医疗需求,人工智能在临床问题中的运用得到迅速发展,为一些临床问题提供了可行的解决方案,有利于提升临床诊断效率,基于深度学习的诊断辅助工具也成为了当前临床研究的热点。胶质瘤临床治疗方案的制定所面临的最基本的问题是相关基因[34]型的确认。目前临床实践中通常使用穿刺或手术切除等有创的方式获取病灶组织进行基因测序,检测成本相对较高。现代医学成像技术和人工智能方法的结合与发[35]展,为临床中实现无创的基因分型诊断提供了可能。相较于其他磁共振成像模态,基于APT模态的IDH基因分型相关研究相对较少。然而,我们已经了解到APT信号与IDH基因突变状态之间存在相关性[36],这与最近的研究使用APT成像预测神经胶质瘤中IDH[11][37]突变状态是一致的。Han等通过使用影像组学和支持向量机等方法进一步验证了APT在IDH基因分型的有效性。虽然之前的研究多采用2DAPT成像,但我们的研究中采用了3DAPT成像序列。在常规临床应用中,我们通常使用三维数据进行图像读出,与2DAPT成像相比,3DAPT能够更充分地呈现肿瘤的空间信息和全局特征。在一些研究中,ROI是通过手动放置的方式[38,39]进行选取,通常是通过目视检查将ROI手动放置在肿瘤实体的部分,这种手动放置的方式容易导致误差的出现。本研究通过医生直接勾画完整肿瘤的ROI进行分析,3DAPT成像覆盖了整个肿瘤区域。深度学习方法对于图像特征的提取更加鲁棒,不受病变位置和范围的影响,因此为我们对胶质瘤的综合分析提供了可靠的[11,12,37,39]支持。在之前的研究中,大多数是在特定级别的胶质瘤上进行IDH基因分型,而本文则是对所有胶质瘤患者进行IDH基因分型,且取得了很好的分类性能。本研究创新地提出了Dual-Aware深度学习框架,基于三维APT模态用于IDH基因分型。考虑到肿瘤形态多变的特点,我们构建了Multi-scaleAware模块,使用多尺度信息加上空间注意力机制对特征图进行融合,能够获得更加丰富的肿瘤多尺度形态及纹理信息,增加全局信息用于优化分类,从而提高准确率。另外,针对APT模态的肿瘤区域缺乏明显的边缘轮廓这一局限性,我们构建了EdgeAware模块以增强边缘特征,进一步区分病变和正常组织区域,提高了模型对病变区域的敏感性。Copyright©博看网. All Rights Reserved.

·1386·JSouthMedUniv,2023,43(8):1379-1387

尽管本研究所构建框架在APT模态的脑胶质瘤IDH基因分型任务中取得了良好的性能,但依然有改进空间。进一步提升该框架性能可从以下两个方面进行:(1)数据集的扩增:深度学习方法通常需要多站点、大容量样本充分训练网络,以增加模型的泛化性和鲁棒性。本研究所用数据集的容量相对较小,且都来自同一个合作医院。后续将从多个医院收集数据,以增加数据容量,提高数据的多样性。(2)多模态融合:后续将尝试通过多模态的信息融合以提升IDH基因分型的预测准确性。综上所述,本文基于APT模态图像特点构建的Dual-Aware框架验证了APT模态在胶质瘤IDH基因分型中的有效性,有望在临床上避免对病人进行造影剂的注射,从而帮助医生提高临床实践的准确率和效率。参考文献:[1]Tao,alpracticeguidelinesforthemanagementofadultdiffusegliomas[J].CancerLett,2021,499(12):60-72.[2]LouisDN,PerryA,ReifenbergerG,2016WorldHealthOrganizationclassificationoftumorsofthecentralnervoussystem:asummary[J].ActaNeuropathol,2016,131(6):803-20.[3]BahramiN,HartmanSJ,ChangYH,larclassificationofpatientswithgradeII/IIIgliomausingquantitativeMRIcharacteristics[J].JNeurooncol,2018,139(3):633-42.[4]Harpreet,Hyare,.ModellingMRandclinicalfeaturesingradeII/IIIastrocytomastopredictIDHmutationstatus[J].EurJRadiol,2019,114(6):120-7.[5]WenPY,antgliomasinadults[J].NEnglJMed,2008,359(5):492-507.[6]LiangS,ZhangRG,LiangDY,odal3DDenseNetforIDHgenotypepredictioningliomas[J].Genes,2018,9(8):382.[7]OlarA,WaniKM,Alfaro-MunozKD,ationstatusandroleofWHOgradeandmitoticindexinoverallsurvivalingradeII-IIIdiffusegliomas[J].ActaNeuropathol,2015,129(4):585-96.[8]MinnitiG,ScaringiC,ArcellaA,1mutationandMGMTmethylationstatuspredictsurvivalinpatientswithanaplasticastrocytomatreatedwithtemozolomide-basedchemoradiotherapy[J].JNeurooncol,2014,118(2):377-83.[9]陈小伟.T1-DCE动态对比增强磁共振在胶质瘤分级诊断及增殖活性预测中的应用[D].武汉:华中科技大学.[10]ZhouJY,LalB,WilsonDA,rotontransfer(APT)contrastforimagingofbraintumors[J].MagnResonMed,2003,50(6):1120-6.[11]JiangSS,ZouTY,EberhartCG,tingIDHmutationstatusingradeIIgliomasusingamideprotontransfer-weighted(APTw)MRI[J].MagnResonMed,2017,78(3):1100-9.[12]ZhangBQ,ChangK,RamkissoonS,odalMRIfeaturespredictisocitratedehydrogenasegenotypeinhigh-gradegliomas[J].Neuro-oncology,2017,19(1):109-17.[13]WuS,MengJ,YuQ,ics-basedmachinelearningmethodsforisocitratedehydrogenasegenotypepredictionofdiffusegliomas[J].JCancerResClinOncol,2019,145(3):543-50.[14]LuCF,HsuFT,HsiehKLC,elearning-basedradiomicsformolecularsubtypingofgliomas[J].ClinCancerRes,2018,24(18):4429-36.[15]SuhCH,KimHS,JungSC,gpredictionofisocitratedehydrogenase(IDH)mutationinpatientswithglioma:asystemicreviewandmeta-analysis[J].EurRadiol,2019,29(2):745-58.[16]MatsuiY,MaruyamaT,NittaM,tionoflower-gradegliomamolecularsubtypesusingdeeplearning[J].JNeurooncol,2020,146(2):321-7.[17]Milan,Decuyper,.AutomatedMRIbasedpipelineforsegmentationandpredictionofgrade,IDHmutationand1p19qco-deletioninglioma[J].ComputMedImagingGraph,2021,88(5):101831.[18]ChoiYS,BaeS,ChangJH,utomatedhybridapproachtopredicttheIDHmutationstatusofgliomasviadeeplearningandradiomics[J].NeuroOncol,2021,23(2):304-13.[19]ChangP,GrinbandJ,WeinbergBD,-learningconvo-lutionalneuralnetworksaccuratelyclassifygeneticmutationsingliomas[J].AJNRAmJNeuroradiol,2018,39(7):1201-7.[20]ZhangZW,XiaoJJ,WuSD,nvolutionalradiomicfeaturesondiffusiontensorimagesforclassificationofgliomagrades[J].JDigitImaging,2020,33(4):826-37.[21]KhanMA,AshrafI,AlhaisoniM,odalbraintumorclassificationusingdeeplearningandrobustfeatureselection:amachinelearningapplicationforradiologists[J].Diagnostics(Basel),2020,10(8):565.[22]GuoH,LiuJ,HuJJ,sticperformanceofgliomasgradingandIDHstatusdecodingAcomparisonbetween3DamideprotontransferAPTandfourdiffusion-weightedMRImodels[J].JMagnResonImaging,2022,56(6):1834-44.[23]AvantsB,TustisonNJ,ednormalizationtools:V1.0[J].InsightJ,2009,25(7):112-8.[24]ChenCFR,FanQF,iT:cross-attentionmulti-scalevisiontransformerforimageclassification[C]//2021IEEE/CVFInternationalConferenceonComputerVision(ICCV).October10-17,2021,Montreal,QC,,2022:347-56.[25]LinTY,DollárP,GirshickR,epyramidnetworksforobjectdetection[C]//2017IEEEConferenceonComputerVisionandPatternRecognition(CVPR).July21-26,2017,Honolulu,HI,,2017:936-44.[26]LiuLL,YangS,MengL,-scaleDeepConvolutionalNeuralNetworkforStrokeLesionsSegmentationonCTImages[C]//:Springer,2019:283-91.[27]Xiaomeng,Li.3Dmulti-scaleFCNwithrandommodalityvoxeldropoutlearningforIntervertebralDiscLocalizationandSegmentationfromMulti-modalityMRImages[J].MedImageAnal,2018,45(6):41-54.[28]SinhaA,-scaleself-guidedattentionformedicalimagesegmentation[J].IEEEJBiomedHealthInform,2021,25(1):121-30.[29]NiuJ,LiH,ZhangC,-scaleattention-basedconvolutionalneuralnetworkforclassificationofbreastmassesinmammograms[J].MedPhys,2021,48(7):3878-92.[30]Tao,-Nets:domain-invariantknowledge-guidedatt-entionnetworksforbrainskullstrippingofearlydevelopingCopyright©博看网. All Rights Reserved.

uthMedUniv,2023,43(8):1379-1387·1387·

[J]mage,2021,227(10):117649.[31]YuBT,ZhouLP,WangL,-GANs:edge-awaregenerativeadversarialnetworksforcross-modalityMRimagesynthesis[J].IEEETransMedImaging,2019,38(7):1750-62.[32]NingZY,ZhongSZ,FengQJ,-net:saliency-guidedmorphology-awareU-netforbreastlesionsegmentationinultrasoundimage[J].IEEETransMedImaging,2022,41(2):476-90.[33]KingmaDP",:amethodforstochasticoptimization"[EB/OL].2014:arXiv::///abs/1412.6980".[34]霍娇华.基于多序列MRI的脑胶质瘤IDH基因分型算法研究[D].西安:西安电子科技大学.[35]SinghG,ManjilaS,SaklaN,icsandradiogenomicsingliomas:acontemporaryupdate[J].BrJCancer,2021,125(5):641-57.[36]PaechD,WindschuhJ,OberhollenzerJ,ingthepredictabilityofIDHmutationandMGMTmethylationstatusingliomapatientsusingrelaxation-compensatedmultipoolCESTMRIat7.0T[J].Neuro-oncology,2018,20(12):1661-71.[37]HanY,WangW,YangY,rotontransferimaginginpredictingisocitratedehydrogenase1mutationstatusofgradeII/IIIgliomasbasedonsupportvectormachine[J].FrontNeurosci,2020,14(3):144.[38]KoikeH,MorikawaM,IshimaruH,tativechemicalexchangesaturationtransferimagingofamideprotontransferdifferentiatesbetweencerebellopontineangleschwannomaandmeningioma:preliminaryresults[J].IntJMolSci,2022,23(17):10187.[39]JooB,HanK,AhnSS,rotontransferimagingmightpredictsurvivalandIDHmutationstatusinhigh-gradeglioma[J].EurRadiol,2019,29(12):6643-52.(编辑:孙昌朋)Copyright©博看网. All Rights Reserved.