切换至 "中华医学电子期刊资源库"
浅表器官超声影像学

基于深度学习的乳腺超声应变弹性图像生成模型的应用研究

  • 李洋 1 ,
  • 蔡金玉 2 ,
  • 党晓智 1 ,
  • 常婉英 1 ,
  • 巨艳 1 ,
  • 高毅 2 ,
  • 宋宏萍 , 1,
展开
  • 1.710032 西安,空军军医大学第一附属医院(西京医院)超声医学科
  • 2.518073 深圳大学医学部生物医学工程学院
通信作者:宋宏萍,Email:

Copy editor: 汪荣

收稿日期: 2024-03-18

  网络出版日期: 2024-08-05

基金资助

国家自然科学基金面上项目(82071934)

陕西省科技计划项目国合重点项目(2020KWZ-022)

陕西省高等教育教学改革研究重点项目(21JZ009)

空军军医大学临床研究项目(2021LC2210)

版权

未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计,除非特别声明,本刊刊出的所有文章不代表中华医学会和本刊编委会的观点。本刊为电子期刊,以网刊形式出版。

Application value of a deep learning-based model for generating strain elastography images using breast grayscale ultrasound images

  • Yang Li 1 ,
  • Jinyu Cai 2 ,
  • Xiaozhi Dang 1 ,
  • Wanying Chang 1 ,
  • Yan Ju 1 ,
  • Yi Gao 2 ,
  • Hongping Song , 1,
Expand
  • 1.Department of Ultrasound, Xijing Hospital, the First Affiliated Hospital of Air Force Medical University, Xi'an 710032, China
  • 2.Department of Biomedical Engineering, School of Medicine, Shenzhen University, Shenzhen 518073, China
Corresponding author: Song Hongping, Email:

Received date: 2024-03-18

  Online published: 2024-08-05

Copyright

Copyright by Chinese Medical Association No content published by the journals of Chinese Medical Association may be reproduced or abridged without authorization. Please do not use or copy the layout and design of the journals without permission. All articles published represent the opinions of the authors, and do not reflect the official policy of the Chinese Medical Association or the Editorial Board, unless this is clearly specified.

摘要

目的

探讨基于深度学习模型生成乳腺超声应变弹性图像的应用价值。

方法

回顾性收集2019年5月至2022年6月在西京医院行乳腺超声检查的患者的超声图像共1336组,在神经网络中生成对抗网络(GAN)的基础上构建深度学习生成模型,使用训练集882组和验证集354组图像进行模型的训练和调整,另外100组测试集图像使用模型生成弹性图像,比较真实弹性图像和生成弹性图像的相似度。选取4位不同年资医师(高低年资医师各2名)比较两种弹性图像的差异。应用归一化互相关(NCC)值评价两种弹性图像的相似程度,并进行阅片医师真实性评分;基于Tsukuba 5分弹性评分标准,应用Kappa检验比较4位医师弹性评分的一致性,绘制ROC曲线评估不同医师分别结合两种弹性图像应用BI-RADS分类诊断乳腺病灶良恶性的效能。

结果

测试集中两种弹性图像相似度的NCC平均值为0.70±0.08,中位数0.70,范围0.50~0.86。真实性评价所有医师得分为0.49,低年资医师得分0.45,高年资医师得分0.53,均接近0.50。比较4位医师弹性评分的一致性Kappa值,生成图像高于真实图像(Kappa值:0.61 vs 0.57)。每位医师分别结合两种弹性图像应用BI-RADS分类的ROC曲线下面积差异无统计学意义(P>0.05),除1名高年资医师的特异度(P=0.0196)和阳性预测值(P=0.021)外,所有医师的敏感度、特异度、阳性预测值、阴性预测值结果差异均无统计学意义(P均>0.05)。

结论

基于深度学习构建的乳腺超声应变弹性图像生成模型,能够生成与真实弹性图像相似的弹性图像,并且生成图像在辅助诊断方面达到了与真实图像相近的临床价值。

本文引用格式

李洋 , 蔡金玉 , 党晓智 , 常婉英 , 巨艳 , 高毅 , 宋宏萍 . 基于深度学习的乳腺超声应变弹性图像生成模型的应用研究[J]. 中华医学超声杂志(电子版), 2024 , 21(06) : 563 -570 . DOI: 10.3877/cma.j.issn.1672-6448.2024.06.003

Abstract

Objective

To explore the application value of a deep learning-based model for generating strain elastography images using breast grayscale ultrasound images.

Methods

A total of 1336 sets of ultrasound images of patients who underwent breast ultrasound examination at Xijing Hospital from May 2019 to June 2022 were retrospectively collected. A deep learning-based model for generating strain elastography images was constructed on the basis of generative adversarial network (GAN) in neural network. Then, 882 sets of images from the training set and 354 sets of images from the validation set were used to train and adjust the model, and 100 sets of images from the test set were additionally used to generate strain elastography images. The similarity was compared between the real elastography images and the generated elastography images. Four physicians of different seniority (2 senior and 2 junior) were selected to compare the differences between the two kinds of elastography images. Normalized cross-correlation (NCC) values were used to evaluate the similarity of the two kinds of elastography images and the authenticity score of reading physicians was obtained. Based on the Tsukuba's 5-point elastography scoring scale, Kappa test was applied to test the consistency of elastography scores of the four physicians. Receiver operating characteristic (ROC) curves were plotted to evaluate the performance of breast imaging reporting and data system (BI-RADS) classification in the diagnosis of benign and malignant breast lesions by different physicians based on the two kinds of elastography images.

Results

The average NCC value for the similarity of the two kinds of elastography images in the test set was (0.70±0.08), with a median of 0.70 (range: 0.50 to 0.86). The average authenticity score of all the physicians was 0.49, with an average score of 0.45 for junior doctors and 0.53 for senior doctors, all of which were close to 0.50. The Kappa value of elastography scores of the four physicians was higher in the generated elastography image group than in the real elastography image group (Kappa values: 0.61 vs 0.57). There was no statistically significant difference in the area under ROC curve for each physician applying BI-RADS classification based on the two kinds of elastography images (P>0.05). Except for the specificity (P=0.0196) and positive predictive value (P=0.021) of one senior physician, there were no statistically significant differences in sensitivity, specificity, positive predictive value, or negative predictive value among other physicians (P>0.05).

Conclusion

The constructed deep learning-based model for generating strain elastography images using breast grayscale ultrasound images can generate elastography images similar to real elastography images, and the generated elastography images is comparable to real elastography in terms of diagnostic assistance.

乳腺癌是女性中发病率居首位的恶性肿瘤,全球每年约有68.5万名女性死于乳腺癌,病死率同样居首位[1]。早发现、早诊断、早治疗对于有效提高我国乳腺癌患者存活率和生活质量十分重要。超声是乳腺癌诊断的重要影像学检查方法,也是中国女性乳腺癌筛查的首选方法,具有快捷无创、安全无辐射、价格低廉等优势[2]。弹性成像因能够显示组织硬度信息成为乳腺超声检查重要的补充手段,结合灰阶图像能够提高良性与恶性病变的鉴别能力,提升诊断性能[3,4]。但由于弹性成像模式通常在高端超声设备中配备使用,而中低端超声仪器往往没有相应配置,并且弹性图像的采集和评价需要经过专业培训,依赖操作者的能力经验,因此弹性成像在临床中的应用受到一定限制。随着人工智能的快速发展,基于深度学习的医学图像合成技术逐渐应用到影像学领域[5],为临床应用问题提供了可行的解决方案。本研究旨在将基于神经网络中的生成对抗网络(generative adversarial network,GAN)模型的人工智能算法与乳腺超声灰阶图像相结合,生成二维弹性图像,并分析该模型的可行性和性能。

资料与方法

一、对象

回顾性选取2019年5月至2022年6月在空军军医大学第一附属医院(西京医院)行乳腺超声检查的680例患者的超声图像共1336组(灰阶图像+应变弹性图像为一组),划分为训练集882组(384例)、验证集354组(196例)和测试集100组(100例)。
纳入标准:(1)乳腺恶性病灶有明确病理结果,良性病灶有病理结果或随访1年以上证实良性;(2)根据美国放射学会(American College of Radiology,ACR)的乳腺影像报告和数据系统(breast imaging reporting and data system,BI-RADS)选择有阳性表现的BI-RADS 2~5类的病灶[6,7]。排除标准:(1)病灶无病理结果或良性病灶随访结果不足1年;(2)图像质量不佳;(3)正在进行或完成新辅助治疗后;(4)有假体的病例。本研究经空军军医大学第一附属医院(西京医院)伦理委员会审核后批准(批件号:KY20192119-F-1)。

二、仪器与方法

1.仪器:

采用GE Logiq E9和Samsung RS85超声诊断仪,分别配备ML6-15和L3-12A线阵探头,频率7~14 MHz。

2.方法:

患者取仰卧体位或者侧卧位,双臂上展充分暴露双侧乳房及腋窝以便于探头扫查,首先在二维灰阶超声模式下对乳房四个象限及腋窝进行仔细探查,采集患者乳腺病灶图像,然后使用应变弹性成像模式,取样框包含乳腺病灶及周围部分软组织,待质量控制条稳定在绿色时留存图像,将病灶灰阶图像和弹性图像从仪器中导出。

3.图像采集及质控:

所有的超声图像采集均由医院超声科乳腺组具有乳腺超声诊断经验超过3年的医师完成,并且弹性图像采集经过培训。患者的检查和灰阶图像采集均根据BI-RADS规范进行,应变弹性成像的取样由仪器显示的彩色编码弹性质量控制条判断图像质量,当控制条显示为绿色时弹性图像较好。由于超声图像获取存在操作者依赖性,同一病灶的多组图像之间也会存在差异,为了使模型能够更准确地学习病灶特点,在弹性图像质量合格的条件下每例患者可纳入多组超声图像;对于乳腺多发结节的患者,选取BI-RADS分类级别最高的病灶。

三、基于深度学习生成弹性成像的方法

深度学习模型是基于Python 3.7.3实现的,后端是Pytorch1.7.1,Nvidia Driver Version版本为455.23.04,CUDA Version版本为11.1。
首先是数据预处理,将获取的应变弹性图像的弹性区域进行裁剪,获得弹性与超声B模态的叠加图像,将对应大小区域的灰阶图像裁剪,获取超声B模态数据,即特征数据,将叠加图像中的B模态图像减去,获取了干净的弹性伪彩色图像为E模态图像(图1)。其中较硬组织用红色表示,较软组织用蓝色表示。E模态图像数据是根据组织的相对硬度值经过Jet映射获得的。为了限定E模态图像中不同颜色所代表的组织弹性的差异,减少颜色信息的学习数量,提高模型效率,利用色条对纯彩色图像进行解码,通过Jet逆映射统一获得解码后的映射后E模态图像,即弹性信息灰度图像。由于Jet映射和逆映射都是非线性的操作,因此过程会导致信息的丢失,为了应对这个问题,还需要基于深度学习建立映射后E模态与E模态之间的联系,完成二者之间的转换,所以映射后E模态图像和E模态图像一同作为标签数据(图2)。
图1 B模态和E模态图像的获取
图2 特征数据和标签数据图像。图a为特征数据:B模态;图b,c为标签数据:E模态和映射后E模态
其次是模型训练,应变弹性图像生成模型以GAN模型为基本架构。GAN是深度学习中一种常用的神经网络模型,特点在于其能够学习真实数据的分布并生成高度逼真的新数据,目前已广泛应用于图像生成、图像修复、超分辨率图片生成、图像转换等任务中。GAN主要包括生成器和判别器,生成器努力使生成图像更真实,判别器不断提升辨别能力,找出生成器输出的"假图像"。两部分在训练中不断地竞争,最终二者达到了一个动态平衡:生成器生成的图像接近于真实图像,而判别器识别不出真假图像[8]。本实验模型生成器包含了Transformer模型和UNet网络模型[9]。Transformer在图像处理领域的应用优点是可以学习到全局的图像特征,具有强大的特征提取和上下文建模能力,可以适应不同分辨率的图像,从而具有更好的适应性和可扩展性。UNet已被证实具有高准确性、可视化效果好等特点,且相较于其他网络,UNet网络需要的训练数据更少。图像预处理后,首先将B模态的特征数据输入Transformer模型,输出生成的映射后E模态图像,再将生成的映射后E模态图像输入UNet网络模型,输出生成的E模态图像,判别器分别识别E模态和映射后E模态的真假。在训练阶段,生成器与判别器交替进行调整更新。在测试阶段,只用生成器生成最终结果。整个框架结构见图3
图3 弹性图像生成模型的结构示意图。图像预处理后,将B模态图像输入模型中,通过Transformer和UNet网络,输出生成的映射后E模态图像和E模态图像,判别器分别识别E模态和映射后E模态的真假。两部分在训练中不断地竞争,最终二者达到动态平衡,模型训练完成。测试阶段,由生成器生成最终结果

四、生成图像评价方法

设计阅片实验,测试集100例患者按照随机数随机排序后,将每例灰阶图像分别与真实弹性图像和生成弹性图像匹配形成2组图像,每组将20例图像平均分成5份,重新交叉排列,形成新的组合图像用于实验阅片。4位超声医师作为阅片人参与研究,将阅片人分为两组,每组各一名高、低年资超声医师(以工作经历3年为界),交叉进行两次阅片,两次间隔为4周(图4)。通过相似性和辅助诊断两方面,综合评价生成弹性图像的图像质量,对模型的可行性和效果进行评估。
图4 阅片实验示意图

1.相似性评价:

(1)选择归一化互相关(normalized cross-correlation,NCC)作为技术性评价指标,它是计算两组样本数据相关性的匹配算法,相比基于特征的匹配方法,NCC能够很好地解决亮度变化的问题,适用于纹理模糊图像,并且匹配精度高,可进行相似性的判别,取值范围为(-1,1)。NCC值越大,图像的匹配程度越高,说明图像越相似。算法公式见图5。(2)图像真实性评价。阅片者对所见的弹性图像进行判断,选出自己认为是真实的弹性图像,若成功选出真实的得分为0,否则分数为1。如果模型生成图像能够准确模拟真实图像,则阅片者识别出真实图像的概率可看作是完全随机的,阅片者所得分数均值将为0.5。
图5 归一化互相关(NCC)计算公式。R为NCC计算后的输出匹配值,S为真实图像,MN为真实图像尺寸,E(Si, j)为(i, j)处子图的平均灰度值,T为生成图像,st为生成图像尺寸,E(T )为生成图像的平均灰度值。公式中分子是某点灰度值减去平均灰度值的求和,分母是两幅图像灰度标准偏差的乘积

2.辅助诊断效能评价:

(1)Tsukuba 5分弹性评分法。根据世界医学和生物学超声联合会(World Federation of Ultrasound in Medicine and Biology,WFUMB)制定的指南,Tsukuba评分是用于鉴别乳腺肿块良恶性的方法之一,通过对肿瘤内部和周围区域的颜色分析,从1到5分对组织相对硬度进行分级[10]。整个低回声病灶内应变均匀为1分;大部分低回声病变内应变,部分区域无应变为2分;在低回声病变周边有应变,病变中心无应变为3分;整个低回声病变内无应变为4分;整个低回声病变和周围区域无应变为5分。评价标准为:1~3分为良性,4~5分为恶性。(2)BI-RADS分类评价。参照ACR指南,分别结合真实和生成弹性图像对病灶进行BI-RADS分类,3类及以下判定为良性,4a类及以上判定为恶性,恶性病灶诊断以病理结果为金标准,良性病灶诊断以病理结果或随访1年无变化为金标准。

五、统计学分析

采用SPSS 26.0软件分析数据,计量资料以±s表示,以病理结果为金标准,绘制BI-RADS分类诊断病灶良恶性的ROC曲线并计算ROC曲线下面积(area under the curve,AUC),通过诊断敏感度、特异度、阳性预测值、阴性预测值、AUC值来比较每位阅片医师分别结合两种弹性图像进行BI-RADS分类的诊断效能,率的比较采用McNemar检验,AUC值的比较采用DeLong检验。阅片医师对两种弹性图像评分的一致性使用Kappa检验,Kappa值≤0.20表示一致性极低,0.21~0.40表示一致性一般,0.41~0.60表示一致性中等,0.61~0.80表示一致性良好,Kappa值≥0.8表示一致性高。以P<0.05为差异有统计学意义。

结果

一、图像样本情况

将1336组乳腺病灶超声图像分组为训练集882组、验证集354组和测试集100组,图像的一般特征和病灶病理结果见表1
表1 图像一般特征和病灶病理结果
特征 训练集 验证集 测试集
病例(例) 384 196 100
年龄(岁,±s 45.10±11.48 47.19±10.14 46.20±9.50
图像(组) 882 354 100
良性 420 161 60
恶性 462 193 40

二、NCC评价两种弹性图像相似程度

前期实验中已将训练集882组乳腺病灶的应变弹性图像交由模型进行自主训练并验证,使模型在训练中从图像获取乳腺病灶的弹性成像特征数据并学习,并不断自动调整参数使模型结构优化,模型通过验证得到定量评价指标NCC平均值为0.74±0.06,中位数0.76,范围0.61~0.82,95%置信区间(0.72,0.76)。
测试集100例患者的NCC值平均值为0.70±0.08,中位数0.70,范围0.50~0.86,95%置信区间(0.6811,0.7141)(图6)。
图6 乳腺病灶灰阶超声图像和两种弹性图像。图a、d为灰阶图像,图b、e为真实弹性图像,图c、f为生成弹性图像;图a~c为良性病灶,归一化互相关(NCC)值为0.50;图d~f为恶性病灶,NCC值为0.86

三、两种弹性图像评分及结合BI-RADS诊断乳腺病灶良恶性的效能比较

基于Tsukuba 5分弹性评分标准(1~3分为良性,4~5分为恶性),将弹性分数转换为二分类,比较4位医师弹性评分的一致性Kappa值,生成图像高于真实图像(Kappa值:0.61 vs 0.57)。阅片医师分别结合两种弹性图像进行BI-RADS分类,绘制ROC曲线并计算得到AUC值,同时比较敏感度、特异度、阳性预测值、阴性预测值,结果显示,每位医师分别结合两种弹性图像应用BI-RADS分类的AUC值差异无统计学意义(P>0.05,表2);除1名高年资医师的特异度(P=0.0196)和阳性预测值(P=0.021)外,所有医师的敏感度、特异度、阳性预测值、阴性预测值结果差异均无统计学意义(P均>0.05,表3),说明模型生成的弹性图像具有与真实弹性图像相似的辅助诊断作用。
表2 每位医师分别结合两种弹性图像应用BI-RADS分类诊断病灶良恶性的AUC值比较
医师 真实图像的AUC 生成图像的AUC Z P
低年资医师1 0.62 0.74 1.756 0.0790
低年资医师2 0.75 0.76 0.262 0.7934
高年资医师1 0.78 0.76 0.455 0.6488
高年资医师2 0.80 0.75 1.411 0.1583

注:AUC为ROC曲线下面积;BI-RADS为乳腺影像报告和数据系统

表3 每位医师分别结合两种弹性图像应用BI-RADS分类的诊断效能比较(%)
医师 敏感度 特异度 阳性预测值 阴性预测值
真实图像 生成图像 P 真实图像 生成图像 P 真实图像 生成图像 P 真实图像 生成图像 P
低年资医师1 90.00 95.00 0.4142 18.22 28.33 0.2008 42.35 46.91 0.1318 73.33 89.47 0.2470
低年资医师2 97.50 97.50 1.0000 36.67 33.33 0.5637 50.65 49.37 0.5930 95.65 95.24 0.9467
高年资医师1 85.00 82.50 0.6547 46.67 50.00 0.6831 51.52 52.38 0.8397 82.35 81.08 0.8240
高年资医师2 92.50 90.00 0.5637 48.33 36.66 0.0196 54.41 48.65 0.0210 90.63 84.62 0.3047

四、图像真实性评分

在测试中,所有阅片医师真实性评分平均得分为0.49,低年资医师平均得分0.45,高年资医师平均得分0.53,分数均接近0.5,表明不同年资医师阅片识别出真实弹性图像的概率均近似随机,难以判断生成图像和真实图像的不同,这说明模型生成的弹性图像和真实弹性成像在主观的视觉真实性上是相似的。

讨论

目前,中低端超声仪器基本没有配备弹性成像模式,这决定了弹性成像技术在临床应用中还不够普及,且超声检查对操作者的经验依赖性很强,不同年资医师的诊疗水平不同,会影响图像质量和诊断准确性,使部分患者诊断不及时或医疗过度,一定程度增加了社会的负担。本研究中,提出了一个基于GAN的应变弹性图像生成模型,能够基于二维超声灰阶图像生成弹性图像。经过实验验证,生成弹性图像与真实弹性成像具有较好的视觉一致性和临床价值,构建的深度学习模型初步得到了较好的预测效果,使医师能够在使用中低端超声设备时生成弹性图像,一定程度上可以弥补年轻医师经验和技术的不足,对于超声设备未配备弹性成像模式的医疗机构,有望通过模型弥补设备不足,提高诊疗水平。
目前基于深度学习的影像学研究发展迅速,Jin等[11]使用配对和非配对图像数据通过MR-GAN框架将脑CT图像转换为脑MR图像。Han等[12]提出了一种新的DCNN模型方法由单序列MR图像合成CT。这些研究证明了不同成像模式之间转换的可能。在超声影像的相关研究中,Wildeboer等[13]基于DCNN模型将前列腺灰阶图像转换为剪切波弹性成像,这提示了通过超声灰阶图像实现生成弹性图像的可能。本研究选择GAN模型为框架并结合Transformer模型和UNet网络模型,不仅可以学习灰度图像中隐含的纹理信息,捕捉图像中不同区域之间的依赖关系,也可以提取更全面的病灶综合信息,包括除病灶形状、边缘、大小等直观特征以外难以用肉眼察觉的细微变化。同时通过对图像进行高阶统计分析,可以得到更多关于图像结构和内容的详细信息。结合以上所述的图像信息,模型建立了灰阶图像到应变弹性成像的映射关系,输出生成的应变弹性图像。
由于临床工作中获取应变弹性图像时仅在病灶及附近区域,显示弹性信息区域有限,为了帮助医师获得更全面的病灶信息,通过模型处理对区域以外的弹性信息进行恢复,可获得完整区域的生成弹性图像。使用NCC值定量评价图片质量,结果表明真实图像和生成图像的相似性较好,模型较好地模拟了应变弹性图像的特征。同样使用真实性评分进行定性评价,不论是低年资医师还是高年资医师,评分结果均接近0.5,表明在主观视觉上两种弹性图像是相似的。在既往的其他研究中,低年资与高年资医师评分分别为0.73和0.53[14]。与之相比本研究低年资医师分数更接近0.5,表明在低年资医师的主观评价上,本研究中生成的弹性图像特征更加接近真实弹性图像;而高年资医师得分均大于0.5,说明对于有经验的超声医师,主观上生成图像更真实,不同资历医师评分的差异可能与临床经验的差异有关。
在临床诊疗过程中,乳腺病灶弹性图像会影响BI-RADS分类及患者后续治疗方案的制定。为比较模型生成的弹性图像和真实弹性成像对乳腺结节诊断的影响差异,本研究分别应用两种弹性图像结合BI-RADS分类诊断乳腺病灶良恶性,得到诊断结果的AUC值,两者统计学差异不显著(P>0.05),除1名高年资医师的特异度(P=0.0196)和阳性预测值外(P=0.021),所有医师的敏感度、特异度、阳性预测值、阴性预测值结果差异均无统计学意义(P>0.05),这表明生成弹性图像能够提供与真实弹性图像相近的辅助诊断作用。所有医师分别结合两种弹性图像应用BI-RADS分类诊断效能的结果中,虽然各类指标基本差异无统计学意义,但低年资医师应用基于生成图像的BI-RADS分类的评价指标总体上大于基于真实图像的BI-RADS分类的评价指标,而高年资医师总体则相反。考虑其原因可能是相对于真实弹性图像呈现出来的弹性信息,生成弹性图像更为简洁和典型,对于低年资医师反而一定程度起到了排除干扰的作用,有助于识别判断;而由于失去了一些细节信息,对于高年资医师评价有一定影响。这种可能性同样体现在弹性评分一致性上,4位医师弹性评分的Kappa值,生成图像高于真实图像(0.61>0.57),可能由于更"简洁"的弹性图像使评分更具一致性。此外,便携式超声具有较好的应用前景,但自身硬件的局限性一定程度限制了其推广普及,而本研究模型可以应用于便携式超声,生成具有辅助诊断作用的弹性图像,有望解决便携式超声的局限性问题,具有良好的应用潜力。Yao等[14]对此已进行了初步研究并证实了其可行性。
本研究存在以下局限性:(1)这是一项单中心研究,数据集数量有限,研究结果可能会存在一定程度的偏倚,需要进一步开展多中心研究并扩充数据集。(2)目前模型仅局限于应变弹性成像,没有将剪切波弹性成像纳入研究中,未来将尝试将该模型应用于剪切波弹性成像,以拓展本模型的适用范围。(3)本研究仅通过比较计算相关性的NCC值以及医师阅片的方式验证模型生成图像的效果,未来仍需通过比较真实图像与生成图像在其他图像质量评价指标方面的差异进一步验证该生成模型的性能。(4)在本研究结果中,虽然生成图像更为简洁和典型,但其呈现的信息量少于真实图像,缺失了部分细节,未来需要通过算法的改进缩小两种弹性图像的差距,进一步提高生成图像的相似度和信息量。
综上所述,本研究基于深度学习构建的乳腺超声应变弹性图像生成模型,能够生成与真实弹性图像相似的弹性图像,并且生成图像在辅助诊断方面具有与真实图像接近的临床价值。未来有望通过更深入的研究进一步优化和验证模型的可行性和性能。
1
Sung H, Ferlay J, Slegel RL, et al. Global cancer statistics 2020: GLOBOCAN estimates of incidence and mortality worldwide for 36 cancers in 185 countries[J]. CA Cancer J Clin, 2021, 71(3): 209-249.

2
沈松杰, 孙强, 黄欣, 等. 中国女性乳腺癌筛查指南(2022年版)[J]. 中国研究型医院, 2022, 9(2): 6-13.

3
Zhi H, Xiao XY, Ou B, et al. Could ultrasonic elastography help the diagnosis of small (≤2 cm) breast cancer with the usage of sonographic BI-RADS classification? [J]. Eur J Radiol, 2012, 81(11): 3216-3221.

4
Berg WA, Cosgrove DO, Dore CJ, et al. Shear-wave elastography improves the specificity of breast US: the BE1 multinational study of 939 masses[J]. Radiology, 2012, 262: 435-449.

5
Wang TH, Lei Y, Fu YB, et al. A review on medical imaging synthesis using deep learning and its clinical applications[J]. J Appl Clin Med Phys, 2021, 22(1): 11-36.

6
American College of Radiology. Breast Imaging Reporting and Data System(BI-RADS). Ultrasound [M]. 5th ed. Reston, VA: American College of Radiology, 2013: 221-362.

7
朱庆莉, 姜玉新. 乳腺影像报告与数据系统指南(第5版)超声内容更新介绍[J/CD]. 中华医学超声杂志(电子版), 2016, 13(1): 5-7.

8
Yi X, Walia E, Babyn P. Generative adversarial network in medical imaging: A review[J]. Med Image Anal, 2019, 58: 101552.

9
Chen X, Wang X, Zhang K, et al. Recent advances and clinical applications of deep learning in medical image analysis[J]. Med Image Anal, 2022, 79: 102444.

10
Barr RG, Nakashima K, Amy D, et al. WFUMB guidelines and recommendations for clinical use of ultrasound elastography: Part 2: breast[J]. Ultrasound Med Biol, 2015, 41(5): 1148-1160.

11
Jin CB, Kin H, Liu M, et al. Deep CT to MR synthesis using paired and unpaired data[J/OL]. Sensors, 2019, 19(10): 2361.

12
Han X. MR-based synthetic CT generation using a deep convolutional neural network method[J]. Med Phys, 2017, 44(4): 1408-1419.

13
Wildeboer RR, van Sloun RJG, Mannaerts CK, et al. Synthetic elastography using B-Mode ultrasound through a deep fully-convolutional neural network[J]. IEEE Trans Ultrason Ferroelectr Freq Control, 2020, 67(12): 2640-2648.

14
Yao Z, Luo T, Dong YJ, et al. Virtual elastography ultrasound via generative adversarial network for breast cancer diagnosis[J]. Nat Commun, 2023, 14(1): 788.

文章导航

/


AI


AI小编
你好!我是《中华医学电子期刊资源库》AI小编,有什么可以帮您的吗?