暨南大学融媒体中心讯 我国是人口大国,有约8.8亿妇女和儿童,城乡发展不平衡,随着人口结构、生活方式和疾病谱的变化,妇幼健康需求日益多元化、差异化,构建与中国式现代化要求相适应的高质量妇幼健康服务体系,迫切需要创新思路、创新模式、创新技术。近日,在科技部国家重点研发计划项目“分娩监护仪关键技术及其产业化研发”等项目资助下,暨南大学信息科学技术学院联合暨南大学第一附属医院(华侨医院)、广州市妇女儿童医疗中心、中山大学第三附属医院等多所知名高校与医疗机构,严格遵循《医疗保健领域可信和可部署的人工智能国际共识指南—FUTURE-AI》(发表于2025《BMJ》),首次提出面向临床应用的产时超声视频多任务自动测量框架,相关成果发表于新一期《医学图像分析》杂志。该技术为产程进展的客观、精准、可视化评估提供了全新AI解决方案,将有效助力降低分娩相关母婴风险,推动生育友好型社会建设,为我国妇幼健康事业高质量发展注入科技动能。
全球每年约有28.7万例孕产妇死亡、240万例新生儿死亡和190万例死产,其中45%发生在分娩阶段,中低收入国家受影响尤为严重。产时超声生物测量是监测分娩进展的关键手段,其核心指标(进展度和进展距离)能有效预测分娩结局、降低不必要剖宫产率。然而,传统人工评估方式不仅耗时费力、主观性强,还依赖专业超声医师的操作,在医疗资源有限的地区难以普及。同时,产时超声视频中存在的图像伪影、胎体动态运动、解剖结构变形等问题,也为自动化分析带来了巨大技术挑战。
为攻克上述难题,暨南大学陆尧胜教授、白杰云副教授团队联合牛津大学、曼彻斯特大学、悉尼大学、巴塞罗那大学、奥克兰大学、凯斯西储大学等全球数十家机构,依托国际医学图像计算和计算机辅助干预协会(MICCAI)的产时超声(IUGC)挑战赛,开展了基于产时超声视频的分娩进展评估深度学习系统性研究。研究团队构建了目前全球规模最大的多中心产时超声视频数据集。该数据集涵盖来自3家医院的774段视频,严格遵循国际妇产超声学会(ISUOG)采集规范,并设置了明确的纳入与排除标准,保证了数据的临床代表性和可靠性。
基于该数据集,研究团队设计了融合标准平面分类、胎头-耻骨联合分割、生物参数测量的多任务自动测量框架,实现了从超声视频中端到端提取分娩进展关键指标。该框架突破了传统单张超声图像分析的局限,充分挖掘视频的时空特征,利用多维度时空互补信息,显著提升了分娩进展评估的准确性和鲁棒性。
该研究为解决资源匮乏地区超声专业人员短缺、分娩进展评估效率低下等临床痛点提供了全新的深度学习解决方案,推动智能围产保健技术向更贴近临床的视频分析方向迈进。
相关论文信息:https://doi.org/10.1016/j.media.2026.104043
责编:常凯丽
#list>
