切换至 "中华医学电子期刊资源库"
专家论坛

人工智能在超声医学领域的应用研究进展

  • 余翔 ,
  • 袁鹰 ,
  • 李胜利 ,
展开
  • 528000 南方医科大学妇女儿童医学中心深圳市妇幼保健院超声科

通信作者:

李胜利,Email:

Copy editor: 汪荣

收稿日期: 2025-03-26

  网络出版日期: 2025-09-29

基金资助

国家重点研发计划项目(2022YFF0606300)

版权

未经授权,不得转载、摘编本刊文章,不得使用本刊的版式设计,除非特别声明,本刊刊出的所有文章不代表中华医学会和本刊编委会的观点。本刊为电子期刊,以网刊形式出版。

Advancements in application of artificial intelligence in ultrasound medicine

  • Xiang Yu ,
  • Ying Yuan ,
  • Shengli Li ,
Expand

Received date: 2025-03-26

  Online published: 2025-09-29

Copyright

Copyright by Chinese Medical Association No content published by the journals of Chinese Medical Association may be reproduced or abridged without authorization. Please do not use or copy the layout and design of the journals without permission. All articles published represent the opinions of the authors, and do not reflect the official policy of the Chinese Medical Association or the Editorial Board, unless this is clearly specified.

本文引用格式

余翔 , 袁鹰 , 李胜利 . 人工智能在超声医学领域的应用研究进展[J]. 中华医学超声杂志(电子版), 2025 , 22(08) : 698 -702 . DOI: 10.3877/cma.j.issn.1672-6448.2025.08.003

超声技术作为医学影像领域的重要支柱,凭借无创、实时、便携等优势,在临床诊断中占据不可替代的位置。从成人脏器评估到胎儿发育监测,从肌骨系统分析到乳腺、甲状腺等小器官的精细检查,超声影像的应用场景不断扩展,成为疾病筛查、诊断以及随访的核心工具。然而,传统超声诊断高度依赖医师的经验积累与主观判断,抓取图像需要医师双手进行操作并且保持稳定,导致操作效率参差、结果解读存在差异以及操作时间较长,尤其在基层医疗中,专业人才的匮乏进一步限制了超声技术的普惠性。这一现实问题为人工智能(artificial intelligence,AI)在医学超声领域的应用提供了广阔空间。
近年来,AI技术的突破性进展正在重塑医学超声领域的实践模式。通过深度学习、图像分析与模式识别等技术,AI不仅能够优化图像采集的标准化流程,还能辅助医师快速定位关键部位解剖结构、识别异常征象,甚至实现动态影像的实时解析。这种变革正在跨越学科边界,渗透至儿科、妇产科、心脏以及浅表器官等多个专科领域,推动超声从“经验依赖型”向“智能增强型”转变。本文以AI在妇产、儿科、心血管等领域的应用研究现状为切入点,探讨AI在这些领域发挥的重要作用以及讨论未来AI应用研究可能带来的机遇与挑战。

一、AI在超声医学中的应用

在超声医学领域,AI的应用聚焦于以下四大方向:(1)实时动态检测:采用轻量化模型架构,AI系统可对超声视频流中的解剖结构或病灶进行实时检测与追踪。该技术特别适用于监测器官动态变化(如肿瘤演进、炎症发展等),为临床决策提供实时依据1。(2)精准量化分析:通过先进的图像分割算法,AI不仅能自动完成对特定器官或病灶区域的精确分割,还可以自动完成关键参数测量(尺寸、体积、血流动力学指标等)。典型应用如胎儿心脏结构分析:通过分割心房、心室及瓣膜等结构,清晰呈现解剖关系,助力先天性心脏病(房间隔缺损、大血管转位等)的早期诊断。(3)智能辅助诊断:基于深度特征提取模型,为疾病良恶性判断提供建议(如乳腺影像报告与数据系统分级4a 级乳腺病变的恶性风险评估),输出量化诊断依据,达到有效降低不必要的侵入性检查(如穿刺活检)的效果。(4)结构化报告生成:随着AI技术的发展,其已经可以通过融合多模态技术实现理解医师口述诊断要点的语音内容,整合动态检测结果、量化测量数据及智能诊断结论,自动生成符合医疗规范的诊断报告。该技术已应用于甲状腺、乳腺、腹部等检查场景,在保证医疗质量的同时,显著提升了诊断效率和服务能力2-3

二、AI在超声医学领域的研究进展

(一)AI在妇产超声的应用

AI在产前超声的应用研究集中于标准切面的自动获取或质控以及生长参数的测量。目前,已有大量研究针对性地设计了实时动态检测及量化算法用于产前超声标准切面的自动识别4,且已有研究完成了临床的实践转化5。针对生长参数中孕龄的估算,Dan及其团队开发了一个名为DeepGA的全自动模型,该模型首先精确识别并分割胎儿的颅骨、腹部和股骨这三个关键部位,并自动提取这些区域的形态特征,最后采用深度回归模型基于提取的特征来估计孕龄。在一个包含7113名参与者共10 413张超声图像的大规模数据集上进行评估的结果显示,DeepGA模型的表现超越了传统测量方法,其平均绝对误差仅为5 d6
在胎儿畸形辅助诊断方面,Qi等7针对无脑畸形、脑膨出、全前脑畸形和脊柱裂等典型中枢神经系统畸形,提出了一种高性能AI诊断模型。该研究基于1662张异常图像、699段视频和3207张正常标准切面图像,采用ResNet34作为基线模型并结合迁移学习进行训练。最终,模型的图像级别分类准确率达73%,患者级别分类准确率达94.5%,异常识别率(80%)显著高于医师(25%),尤其在复杂病例中表现优异。针对胎儿闭合性脊柱裂的智能诊断,Gao等提出了一种基于语义增强和投影注意力的自动化筛查网络8。作者设计了多粒度深度监督框架,通过投票机制生成点特异性特征,抑制噪声并保留关键解剖标志信息。实验结果显示,该方法在自建和公开数据集中表现均优于现有模型,分类准确率达94.74%,且模型轻量化,支持实时部署,为闭合性脊柱裂的早期筛查提供了高效可靠的AI工具。
AI在妇科超声检查中也取得了显著成果,有效提升了妇科恶性肿瘤的早期诊断和精准管理能力9。在预后预测方面,Arezzo开发了一种基于超声特征和临床数据的机器学习模型,使用三种机器学习算法预测了12个月无进展生存期,首次实现了通过超声评估预测卵巢癌患者12个月无进展生存期的目标1
这些成果不仅提高了诊断效率和准确性,还降低了主观误差,尤其对医疗资源有限的地区具有重要临床意义,推动了妇科肿瘤诊疗向精准化方向发展。

(二)AI在儿科超声的应用

AI在儿科超声的应用主要集中于儿童髋关节发育评估、肺部疾病辅助诊断、泌尿系统疾病诊断以及急腹症等领域。评估儿童髋关节发育状况的经典方法是在髋关节标准冠状切面下结合超声Graf技术测量获取α和β角,并根据α和β角做出最终评估。然而,Sezer等10提出了利用卷积神经网络(convolutional neural network,CNN)直接鉴别正常髋关节、轻度发育性髋关节发育不良(developmental dysplasia of the hip,DDH)及重度DDH,且准确率高达97%。针对肺炎的早期诊断,Nti等11表示在传统AI模型帮助下,低年资医师在诊断儿童肺炎方面可以达到接近高年资医师的水平,表明AI模型可有效提升临床医师的诊断正确率以及不同年资医师间的诊断一致性。传统AI模型在儿童泌尿系统疾病的辅助诊断应用侧重于肾积水、先天性肾病和尿路畸形等方面12,其通过高性能分割模型分割关键结构,并利用特征提取模型进行诊断,AI模型在诊断肾积水方面的敏感度和特异度分别可达到90%和80%13。在儿童急腹症辅助诊断方面,传统AI模型已能实现儿童肠套叠的快速辅助诊断,如名为CIDNet的端到端模型达到了92.97%的正确率,接近专家的水平14

(三)AI在心血管超声的应用

胎儿心脏畸形与成人心血管疾病诊断是AI在心血管超声的主要应用场景。传统AI模型在胎儿房室间隔缺损、法洛四联症、艾勃斯坦异常、大动脉转位、左心发育不良综合征等复杂畸形诊断方面已经可以达到95%以上的准确率15。在成人心血管AI辅助诊断方面,AI模型可通过分割超声心动图,识别心脏异常结构,从而辅助医师识别心脏异常16。在半监督技术加持下,Madani等17在少量标注前提下,实现了心脏疾病的自动化筛查。

(四)AI在浅表器官超声的应用

在甲状腺和乳腺这两个重要浅表器官的超声诊断中,AI技术已取得重要突破。针对甲状腺结节诊断,Xu等18开发的多中心AI模型整合了来自208家医院的超声数据,采用CNN框架结合形态学和纹理特征分析,实现了0.98的检测精度、0.86的Dice分割系数以及0.90的分类ROC曲线下面积(area under the curve,AUC)值,显著提升了不同年资医师的诊断一致性。在乳腺疾病诊断领域,研究者分别在二维和三维超声数据上取得突破:Wang等19通过改进Inception-V3架构,在二维超声图像上实现了0.886的敏感度和0.876的特异度;Moon等20则创新性地开发了三维CNN模型,结合滑窗技术和Focal损失函数,在对81例病例的评估中获得了不低于90.9%的敏感度。
除甲状腺和乳腺外,AI技术在其他浅表器官的超声诊断中也展现出巨大潜力。在皮肤病变诊断方面,Haque等21的比较研究表明,CNN算法在视觉识别和分类任务中性能最优,但同时也指出当前数据集在肤色多样性、计算需求和病变类别分布等方面存在局限,可能影响模型的泛化能力。针对腮腺肿瘤诊断,Jiang等22利用ResNet18模型分析了来自907例患者的2211张超声图像,模型在内外部测试集上均保持了88%以上的正确率和0.9以上的AUC值。值得注意的是,在医师评估实验中,该模型能同时提升初级和高级医师的诊断水平,证实了其临床实用性。这些研究共同表明,虽然不同浅表器官的AI应用成熟度存在差异,但AI技术正在全面推动浅表器官超声诊断的精准化和标准化进程。

(五)AI在肌骨超声的应用

AI在肌肉骨骼超声诊断中的应用研究取得显著进展。Cheng等23采用高分辨率生成对抗网络增强掌指关节数据,其诊断系统结果优于临床医师。Chiu等24验证了CNN算法诊断冈上肌钙化性肌腱炎的可行性,DenseNet联合模型的准确率达91.32%。Marzola等25开发的深度学习算法实现横断面肌肉超声图像自动分割,精确率为0.88,能有效区分健康与异常肌肉。这些研究表明AI可自动识别肌肉骨骼异常,减少人为误差。

(六)AI在腹部超声的应用

AI技术在腹部超声诊断中的应用显著提升了疾病检测的效率和准确性。在脂肪肝诊断方面,Cha等26开发的CNN模型与医师评估的一致性达0.92,而Chou等27基于21 855张超声图像构建的分类模型AUC高达0.996。肝癌检测中,Karako等28采用Faster R-CNN实现了肝肿瘤实时检测,但0.549的平均精度仍有提升空间。针对胆囊疾病,Yu等29研发的轻量级模型(MobileNetV2)在急性胆囊炎和结石诊断中表现优于ResNet50,Kim等30的集成模型则能有效鉴别息肉良恶性(AUC=0.908)。此外,Intharah等31的研究表明,CNN辅助可使超声医师对胆道异常的诊断准确率从0.5显著提升至0.74。这些进展充分展现了AI在腹部超声诊断中的重要价值。

(七)AI在报告生成中的应用

超声诊断依赖医师手动撰写结构化报告,存在耗时长以及经验差异影响报告质量等问题。随着技术的发展,AI已经能在部分领域实现超声报告的自动生成。有研究者开发的智能内镜超声辅助系统通过创新性双路CNN架构,实现了病灶定位-穿刺记录-报告生成的全流程实时协同,报告完备性可达91.4%32-33。在产前超声自动化报告生成方面,石智红等34开发的“凤眼S-Fetus”系统,可以实现14个常用胎儿标准切面的自动获取以及12个生长参数的自动测量,最终自动生成检查报告。针对医疗报告特有的模板化结构和关键局部属性(如边界条件、肿瘤形态)描述难题,Yang等35提出的注意力机制将基于共识的图像描述评估指数提升1.4%。

三、AI大模型在超声医学中的研究进展

传统AI通过预设规则、统计学习及领域专精数据构建的高效算法,在特定场景中展现出强大的任务解决能力。其高度优化的模型可精准完成疾病诊断、病灶分割等专业任务,为医疗等领域提供稳定可靠的垂直场景解决方案。然而,传统AI算法的设计依赖特征工程、规则库构建或精标注数据集等强人工干预,其智能边界由人类先验知识划定,无法跨领域迁移认知。相较于传统AI的局限性,大模型展现出革命性的技术优势。通过海量数据预训练和自监督学习机制,大模型突破了传统AI的领域边界,实现了跨模态、跨任务的泛化能力。其核心突破体现在三个方面:首先,基于Transformer架构的语义理解能力使其可以同时处理医学图像和文本报告,建立多模态关联推理;其次,通过持续学习和人类反馈强化,大模型具备动态进化特性,能够不断扩展知识边界;最后,在小样本甚至零样本场景下,大模型通过提示工程即可完成复杂诊断任务,大幅降低对精标注数据的依赖。
与传统AI模型相比,大模型具有更突出的性能优势。在设计通用医学图像分割模型方面,Zhu等36开发的MedSAM-2模型在多个二维及三维公开数据集上均取得了最佳性能。类似的,Jiao等37开发了一个名为USFM的通用分割大模型,可用于分割不同超声模态下乳腺及甲状腺结节、胎体、胎盘、成人心脏等12种组织和器官,且性能优于传统AI分割模型。为了实现大模型在超声图像上的实时分割,Zhang等38开发了适配器模块用于增强大模型的域适应能力,实验结果表明,开发的模型在仅利用少量数据集的情况下仍能超过如nnUNet这样的传统模型性能,且每秒能处理77张图像。
在超声图像分析任务上,大模型展现出强大的临床应用潜力。针对图像-文本多模态数据分析,Bai等39首先构建了包含120 K 3D医学图像-文本对与662 K指令对的大规模数据集M3D-Data,在此基础上,研发了首个支持病灶定位与分割的通用3D医学多模态大模型M3D-LaMed(参数量6.9B),并建立覆盖8类任务的评测基准M3D-Bench,显著提升了3D医学影像分析性能(如视觉问答准确率75.8%),有助于推动临床诊断自动化发展。针对产前胎儿影像的分析,Maani等开发了一个名为FetalCLIP的专用大模型。在未经过任何自适应的情况下,该模型在来自不同医院的胎儿超声标准切面分类任务中表现出色,平均F1分数达到了87.1%,显著优于其他。此外,FetalCLIP在先天性心脏病检测以及胎儿解剖结构分割任务中均达到了先进水平。在先天性心脏病检测方面,FetalCLIP通过分析胎儿超声视频中的每个帧来提取图像特征,并将这些特征组合起来进行分类,以区分正常胎儿心脏和患有先天性心脏病胎儿的心脏。实验结果显示,FetalCLIP的平均AUC达到了78.72%,优于其他基础模型如CLIP、BiomedCLIP和UniMed-CLIP。在胎儿解剖结构分割方面,FetalCLIP在三个不同的胎儿切面中平均Dice相似系数达到84.22%。具体来说,在脑部视图、腹部视图以及四腔心视图的分割上,分别达到了97.92%、81.82%和72.91%,超越了UniMed-CLIP模型。针对前列腺癌的精准检测,Wilson等40在高分辨率微超声图像数据基础上,开发了名为ProstNFound的模型,该方法通过专门设计的辅助网络将超声成像和前列腺癌相关的领域特定知识以提示的方式提供给基础模型。在特异度为40%的情况下,ProstNFound模型达到了与专家级别放射科医师水平相当的敏感度(90%)。在心脏超声自动分析方面,Christensen等41开发了EchoCLIP用于构建超声心动图的多模态基础模型。该模型在心脏功能评估中展现出强大的零样本(未经显式训练)性能:左心室射血分数外部验证平均绝对误差低至7.1%;在心内植入装置识别,如起搏器与人工心脏瓣膜的识别方面,AUC达0.84~0.98。
尽管大模型在诸多领域表现出了一定的潜力,但据Le等42评估20个大视觉-语言模型后的结论表明,大模型在分类任务中表现出色,但在空间推理和临床文本生成方面仍存在持续的挑战,这为改进大视觉-语言模型在超声解读方面的表现提供了未来的研究方向。

四、小结与展望

AI在超声医学领域的应用正逐步改变着传统的医疗诊断模式,预示着未来将实现从数据采集到最终诊断的全面智能化转型。随着深度学习、计算机视觉等技术的进步,AI不仅能够自动识别和分类各种复杂的医学影像,还能够在早期发现疾病迹象,从而为患者提供更为及时有效的治疗方案。在未来,AI有望进一步优化超声成像过程,通过智能算法自动调整探头位置和扫描参数,以获得最佳图像质量,这对于减少人为操作误差至关重要。此外,AI还可以用于动态图像分析,实时监控病灶变化,为手术导航和介入治疗提供精准指导。这些技术的发展将极大提升医疗服务效率,缩短患者等待时间,并降低医疗成本。另外,在AI医疗应用的核心挑战中,伦理与数据隐私问题尤为关键。首先,医疗数据涉及患者敏感信息应采用加密技术、数据脱敏及权限管控,防止未授权访问。其次,算法透明度缺失严重制约临床可信度,无法解释诊断依据,可能导致医师误判。最后,伦理合规性要求必须贯穿始终,包括向患者明示AI辅助工具的局限性并获取知情同意,同时建立权责界定机制。因此,未来医疗AI发展需以安全为基石、透明为核心、伦理为边界,通过跨学科协作构建可信赖的框架。
尽管AI在医学超声领域展现出广阔前景,但其临床推广仍面临多重挑战:(1)标准化评估体系缺失:当前研究缺乏统一的模型性能评价标准与验证框架,导致跨机构结果可比性不足。目前大多数研究使用的是私有、数据量小的数据集,而在小数据集上获得的模型在鲁棒性及泛化性方面均可能存在不足。因此,未来需建立国际及国内共识性评估协议,通过多中心研究验证模型泛化性,并构建高质量、多模态、多中心的开放基准数据集(如涵盖不同设备、人群及病变亚型的超声数据库),为算法性能提供客观量化的“金标准”。(2)自主进化能力受限:AI大模型在垂直领域的深度应用仍面临领域知识瓶颈,表现为专业纵深理解不足、复杂场景适配性有限,需依赖人类专家经验补足关键决策盲区。未来应探索持续学习框架,设计抗灾难性遗忘的在线学习机制,支持模型在保护隐私前提下(如联邦学习)利用增量数据自主更新;或者利用元学习与自监督学习方面的优势,通过预训练-微调范式减少对标注数据的依赖,结合人类反馈强化学习实现模型与医师决策的协同进化。
1
Arezzo F, Cormio G, La Forgia D, et al. A machine learning approach applied to gynecological ultrasound to predict progression-free survival in ovarian cancer patients[J]. Arch Gynecol Obstet, 2022, 306(6): 2143-2154.

2
Ge S, Ye Q, Xie W, et al. AI-assisted method for efficiently generating breast ultrasound screening reports[J]. Curr Med Imaging, 2023, 19(2): 149-157.

3
Pang T, Li P, Zhao L. A survey on automatic generation of medical imaging reports based on deep learning[J]. Biomed Eng Online, 2023, 22(1): 48.

4
张梦雨. 基于人工智能的胎儿颅脑自动精细分割与轮廓提取[D]. 深圳: 南方医科大学, 2022.

5
谭莹, 文华轩, 彭桂艳, 等. 在线产科超声图像智能质量控制系统的临床应用价值[J/OL]. 中华医学超声杂志(电子版), 2022, 19(7): 649-655.

6
Dan T, Chen X, He M, et al. DeepGA for automatically estimating fetal gestational age through ultrasound imaging[J]. Artif Intell Med, 2023, 135: 102453.

7
Qi Y, Cai J, Lu J, et al. Multi-center study on deep learning-assisted detection and classification of fetal central nervous system anomalies using ultrasound imaging[DB/OL].(2025-01-01)[2025-03-26].

8
Gao Z, Ding Y, Zhu N, et al. Automated screening network for fetal closed spina bifida with semantic enhancement and projected attention[J]. IEEE J Biomed Health Inform, 2024.

9
Khan I, Khare BK. Exploring the potential of machine learning in gynecological care: a review[J]. Arch Gynecol Obstet, 2024, 309(6): 2347-2365.

10
Sezer A, Sezer HB. Deep convolutional neural network-based automatic classification of neonatal hip ultrasound images: a novel data augmentation approach with speckle noise reduction[J]. Ultrasound Med Biol, 2020, 46(3): 735-749.

11
Nti B, Lehmann AS, Haddad A, et al. Artificial intelligence-augmented pediatric lung POCUS: A pilot study of novice learners[J]. J Ultrasound Med, 2022, 41(12): 2965-2972.

12
Tsai MC, Lu HH, Chang YC, et al. Automatic screening of pediatric renal ultrasound abnormalities: deep learning and transfer learning approach[J]. JMIR Med Inform, 2022, 10(11): e40878.

13
Lin Y, Khong PL, Zou Z, et al. Evaluation of pediatric hydronephrosis using deep learning quantification of fluid-to-kidney-area ratio by ultrasonography[J]. Abdom Radiol(NY), 2021, 46(11): 5229-5239.

14
Chen X, You G, Chen Q, et al. Development and evaluation of an artificial intelligence system for children intussusception diagnosis using ultrasound images[J]. iScience, 2023, 26(4): 106456.

15
Nurmaini S, Partan RU, Bernolian N, et al. Deep learning for improving the effectiveness of routine prenatal screening for major congenital heart diseases[J]. J Clin Med, 2022, 11(21): 6454.

16
Ghorbani A, Ouyang D, Abid A, et al. Deep learning interpretation of echocardiograms[J]. NPJ Digit Med, 2020, 3: 10.

17
Madani A, Ong JR, Tibrewal A, et al.Deep echocardiography: data-efficient supervised and semi-supervised deep learning towards automated diagnosis of cardiac disease[J]. NPJ Digit Med, 2018, 1: 59.

18
Xu W, Jia X, Mei Z, et al. Generalizability and diagnostic performance of AI models for thyroid US[J]. Radiology, 2023, 307(5): e221157.

19
Wang Y, Choi EJ, Choi Y, et al. Breast cancer classification in automated breast ultrasound using multiview convolutional neural network with transfer learning[J]. Ultrasound Med Biol, 2020, 46(5): 1119-1132.

20
Moon WK, Huang YS, Hsu CH, et al. Computer-aided tumor detection in automated breast ultrasound using a 3-D convolutional neural network[J]. Comput Methods Programs Biomed, 2020, 190: 105360.

21
Haque S, Ahmad F, Singh V, et al. Skin cancer detection using deep learning approaches[J]. Cancer Biother Radiopharm, 2025, 40(5): 301-312.

22
Jiang T, Chen C, Zhou Y, et al. Deep learning-assisted diagnosis of benign and malignant parotid tumors based on ultrasound: a retrospective study[J]. BMC Cancer, 2024, 24(1): 510.

23
Cheng Y, Jin Z, Zhou X, et al. Diagnosis of metacarpophalangeal synovitis with musculoskeletal ultrasound images[J]. Ultrasound Med Biol, 2022, 48(3): 488-496.

24
Chiu PH, Boudier-Revéret M, Chang SW, et al. Deep learning for detecting supraspinatus calcific tendinopathy on ultrasound images[J]. J Med Ultrasound, 2022, 30(3): 196-202.

25
Marzola F, van Alfen N, Doorduin J, et al. Deep learning segmentation of transverse musculoskeletal ultrasound images for neuromuscular disease assessment[J]. Comput Biol Med, 2021, 135: 104623.

26
Cha DI, Kang TW, Min JH, et al. Deep learning-based automated quantification of the hepatorenal index for evaluation of fatty liver by ultrasonography[J]. Ultrasonography, 2021, 40(4): 565-574.

27
Chou TH, Yeh HJ, Chang CC, et al. Deep learning for abdominal ultrasound: A computer-aided diagnostic system for the severity of fatty liver[J]. J Chin Med Assoc, 2021, 84(9): 842-850.

28
Karako K, Mihara Y, Arita J, et al. Automated liver tumor detection in abdominal ultrasonography with a modified faster region-based convolutional neural networks (Faster R-CNN) architecture[J]. Hepatobiliary Surg Nutr, 2022, 11(5): 675-683.

29
Yu CJ, Yeh HJ, Chang CC, et al. Lightweight deep neural networks for cholelithiasis and cholecystitis detection by point-of-care ultrasound[J]. Computer Methods Programs Biomed, 2021, 211: 106382.

30
Kim T, Choi YH, Choi JH, et al. Gallbladder polyp classification in ultrasound images using an ensemble convolutional neural network model[J]. J Clin Med, 2021, 10(16): 3585.

31
Intharah T, Wiratchawa K, Wanna Y, et al. BiTNet: Hybrid deep convolutional model for ultrasound image analysis of human biliary tract and its applications[J]. Artif Intell Med, 2023, 139: 102539.

32
Zhang L, Lu Z, Yao L, et al. Effect of a deep learning–based automatic upper GI endoscopic reporting system: a randomized crossover study (with video)[J]. Gastrointest Endosc, 2023, 98(2): 181-190. e10.

33
Li X, Yao L, Wu H, et al. A deep learning–based, real-time image report system for linear EUS[J]. Gastrointest Endosc, 2025, 101(6): 1166-1173.e11.

34
石智红, 李胜利. 人工智能在产前超声中的应用和研究进展[J/OL]. 中华医学超声杂志(电子版), 2023, 20(1): 113-117.

35
Yang S, Niu J, Wu J, et al. Automatic ultrasound image report generation with adaptive multimodal attention mechanism[J]. Neurocomputing, 2021, 427: 40-49.

36
Zhu J, Hamdi A, Qi Y, et al. Medical sam 2: Segment medical images as video via segment anything model 2[DB/OL]. (2024-12-04)[2025-03-26].

37
Jiao J, Zhou J, Li X, et al. USFM: A universal ultrasound foundation model generalized to tasks and organs towards label efficient image analysis[J]. Med Image Anal, 2024, 96: 103202.

38
Zhang X, Chen EZ, Zhao L, et al. Adapting vision foundation models for real-time ultrasound image segmentation[DB/OL]. (2025-03-31)[2025-03-26].

39
Bai F, Du Y, Huang T, et al. M3d: Advancing 3d medical image analysis with multi-modal large language models[DB/OL]. (2024-03-31)[2025-03-26].

40
Wilson P, Minh N, Jamzad A, et al. ProstNFound: integrating foundation models with ultrasound domain knowledge and clinical context for robust prostate cancer detection[M]//Linguraru MG, Dou Q, Feragen A, et al. Medical Image Computing and Computer Assisted Intervention–MICCAI 2024. Cham: Springer, 2024.

41
Christensen M, Vukadinovic M, Yuan N, et al. Multimodal foundation models for echocardiogram interpretation[DB/OL]. (2023-09-02)[2025-03-26].

42
Le A, Liu H, Wang Y, et al. U2-BENCH: Benchmarking large vision-language models on ultrasound understanding[DB/OL]. (2025-05-30)[2025-03-26].

文章导航

/


AI


AI小编
你好!我是《中华医学电子期刊资源库》AI小编,有什么可以帮您的吗?