全网唯一标准王
(19)国家知识产权局 (12)发明 专利申请 (10)申请公布号 (43)申请公布日 (21)申请 号 202210781857.6 (22)申请日 2022.07.04 (71)申请人 濮阳大数据与人工智能研究院 地址 457001 河南省濮阳市华龙区北园路 与公园东环路交叉口西北角 申请人 浙江大学 浙江中医药大学  浙江省中 医院、 浙江中 医药大学附 属第一医院 (浙江省东方医院)   海盐县南北湖医学 人工智能研究院 (72)发明人 王斯盛 李璐 张丽霞 徐彩云  (74)专利代理 机构 上海雍灏知识产权代理事务 所(普通合伙) 31368 专利代理师 沈汶波 (51)Int.Cl. G06T 7/00(2017.01)G06T 7/11(2017.01) G06V 10/764(2022.01) G06V 10/774(2022.01) G06V 10/80(2022.01) G06V 10/82(2022.01) G06N 3/04(2006.01) G06N 3/08(2006.01) (54)发明名称 基于深度学习的卵巢癌图像处理方法及系 统 (57)摘要 本发明提供了一种基于深度学习的卵巢癌 图像处理方法及系统, 卵巢癌图像处理方法包括 以下步骤: 获取第一测试卵巢肿瘤图像, 并经图 像混合后形成第一混合图像; 将第一混合图像分 别输入至四个不同的分类神经网络模 型, 确定最 优分类神经网络模型; 获取第二测试卵巢肿瘤图 像, 并经病灶混合后形成第二混合图像; 将第二 混合图像分别输入至四个不同的分割神经网络 模型, 确定最优分割神经网络模型; 将最优分割 神经网络模型与基于病灶边缘的KiteNet分割网 络集成, 确定最终分割神经网络模型; 基于最优 分类神经网络模型对CT ‑PET卵巢癌图像分类, 并 基于最终分割神经网络模型对CT ‑PET卵巢癌图 像作病灶分割。 采用上述技术方案后, 可对卵巢 癌图像作最优条件下的图像处 理。 权利要求书4页 说明书10页 附图3页 CN 115222680 A 2022.10.21 CN 115222680 A 1.一种基于深度学习的卵巢癌图像处 理方法, 其特 征在于, 包括以下步骤: 获取至少2份第一测试卵巢肿瘤图像, 并经图像混合后形成第一混合图像; 将所述第一混合图像分别输入至四个不同的分类神经网络模型, 作五折交叉验证, 并 根据每一分类神经网络型的分类评价标准精确率确定最优分类神经网络模型; 获取至少2份第二测试卵巢肿瘤图像, 并经病灶混合后形成第二混合图像; 将所述第二混合图像分别输入至四个不同的分割神经网络模型, 作五折交叉验证, 并 根据每一分割神经网络型的分割评价标准精确率确定最优分割神经网络模型; 将所述最优分割神经网络模型与基于病灶边缘的KiteNet分割网络集成, 确定最终分 割神经网络模型; 基于所述最优分类神经网络模型对CT ‑PET卵巢癌图像分类, 并基于最终分割神经网络 模型对CT ‑PET卵巢癌图像作病灶分割。 2.如权利要求1所述的卵 巢癌图像处理方法, 其特征在于, 将所述第 一混合图像分别 输 入至四个不同的分类神经网络模型, 作五折交叉验证, 并根据每一分类神经网络型 的分类 评价标准精确率确定最优分类神经网络模型的步骤 包括: 将所述第一混合图像分别输入至ConvNeXt 分类神经网络模型、 Swin ‑Transformer分类 神经网络模型、 DenseNet分类神经网络模型、 Ef ficientNet分类神经网络模型; ConvNeXt分类神经网络模型、 Swin ‑Transformer分类神经网络模型、 DenseNet分类神 经网络模型、 Ef ficientNet分类神经网络模型分别将所述第一混合图像随机分为5份; ConvNeXt分类神经网络模型、 Swin ‑Transformer分类神经网络模型、 DenseNet分类神 经网络模型、 EfficientNet分类神经网络模型分别挑选其中1份作为测试集, 剩余4份作为 训练集用于模 型训练, 并再重复4次挑选未被选择测试集中1份作为测试集, 剩余4份作为训 练集用于训练; 于ConvNeXt分类神经网络模型、 Swin ‑Transformer分类神经网络模型、 DenseNet分类 神经网络模型、 EfficientNet分类神经网络模型内, 在每个训练集上训练后得到一个第一 初始模型, 并利用所述第一初始模型在对应的测试集上测试, 计算并保存第一初始模型 的 分类评价标准精确率; 选取具有最高分类评价标准精确率的第一初始模型对应的神经网络模型为最优分类 神经网络模型。 3.如权利要求1所述的卵巢癌图像处理方法, 其特征在于, 获取至少2份第二测试卵巢 肿瘤图像, 并经病灶混合后形成第二混合图像的步骤 包括: 获取至少2份第二测试卵巢肿瘤图像, 并分别提取第二测试卵巢肿瘤图像内的病灶特 征; 提取第二测试卵巢肿瘤图像之一具有病灶特征 的区域图像, 并将所述区域图像与第二 测试卵巢肿瘤图像另一的对应区域叠加形成所述第二混合图像。 4.如权利要求3所述的卵 巢癌图像处理方法, 其特征在于, 将所述第 二混合图像分别 输 入至四个不同的分割神经网络模型, 作五折交叉验证, 并根据每一分割神经网络型 的分割 评价标准精确率确定最优分割神经网络模型 得步骤包括: 将所述第二混合图像分别输入至U ‑Net‑VGG分割神经网络模型、 U ‑Net‑MobileNetv3分 割神经网络模 型、 U‑Net分割神经网络模 型、 FCN分割神经网络模型、 Deeplabv3+分割神经网 络模型;权 利 要 求 书 1/4 页 2 CN 115222680 A 2U‑Net‑VGG分割神经网络模型、 U ‑Net‑MobileNetv3分割神经网络模型、 U ‑Net分割神经 网络模型、 FCN分割神经网络模 型、 Deeplabv3+分割神经网络模 型分别将所述第二混合图像 随机分为5份; U‑Net‑VGG分割神经网络模型、 U ‑Net‑MobileNetv3分割神经网络模型、 U ‑Net分割神经 网络模型、 FCN分割神经网络模型、 Deeplabv3+分割神经网络模型分别挑选其中1份作为测 试集, 剩余4份作为训练集用于模型训练, 并再重复4次挑选未被选择测试集中1份作为测试 集, 剩余4份作为训练集用于训练; 于U‑Net‑VGG分割神经网络模型、 U ‑Net‑MobileNetv3分割神经网络模型、 U ‑Net分割神 经网络模型、 FCN分割神经网络模型、 Deeplabv3+分割神经网络模型内, 在每个训练集上训 练后得到一个第二初始模型, 并利用所述第二初始模型在对应的测试集上测试, 计算并保 存初始模型的分割评价标准精确率; 选取具有最高分割评价标准精确率的初始模型对应的神经网络模型为最优分割神经 网络模型。 5.如权利要求1所述的卵巢癌图像处 理方法, 其特 征在于, 将所述最优分割神经网络模型与基于病灶边缘的KiteNet分割网络集成, 确定最终分 割神经网络模型的步骤 包括: 基于交叉熵和Dice损失函数确定最终损失函数; 将所述最终损失函数融入所述 最终分割神经网络模型; 并基于最终分割神经网络模型对CT ‑PET卵巢癌图像作病灶分割的步骤 包括: 基于最终分割神经网络模型对CT ‑PET卵巢癌图像作病灶分割, 以获得第一输出 特征; 对CT‑PET卵巢癌图像缩放后作病灶分割, 并还原至初始大小, 以获得第二输出 特征; 将第一输出 特征和第二输出 特征融合形成分割图像。 6.一种基于深度学习的卵巢癌图像处 理系统, 其特 征在于, 包括: 第一混合单元, 获取至少2份第 一测试卵巢肿瘤图像, 并经图像混合后形成第 一混合图 像; 第一建模单元, 将所述第一混合图像分别输入至四个不同的分类神经网络模型, 作五 折交叉验证, 并根据每一分类神经网络型的分类评价标准精确率确定最优分类神经网络模 型; 第二混合单元, 获取至少2份第 二测试卵巢肿瘤图像, 并经病灶混合后形成第 二混合图 像; 第二建模单元, 将所述第二混合图像分别输入至四个不同的分割神经网络模型, 作五 折交叉验证, 并根据每一分割神经网络型的分割评价标准精确率确定最优分割神经网络模 型, 并将所述最优分割神经网络模 型与基于病灶边缘的KiteNet分割网络集成, 确定最终分 割神经网络模型; 处理单元, 基于所述最优分类神经网络模型对CT ‑PET卵巢癌图像分类, 并基于最终分 割神经网络模型对CT ‑PET卵巢癌图像作病灶分割。 7.如权利要求6所述的卵巢癌图像处 理系统, 其特 征在于, 第一建模单元将所述第一混合图像分别输入至ConvNeXt分类神经网络模型、 Swin ‑ Transformer分类神经网络模型、 Den seNet分类神经网络模型、 EfficientNet分类神经网络权 利 要 求 书 2/4 页 3 CN 115222680 A 3

.PDF文档 专利 基于深度学习的卵巢癌图像处理方法及系统

文档预览
中文文档 18 页 50 下载 1000 浏览 0 评论 309 收藏 3.0分
温馨提示:本文档共18页,可预览 3 页,如浏览全部内容或当前文档出现乱码,可开通会员下载原始文档
专利 基于深度学习的卵巢癌图像处理方法及系统 第 1 页 专利 基于深度学习的卵巢癌图像处理方法及系统 第 2 页 专利 基于深度学习的卵巢癌图像处理方法及系统 第 3 页
下载文档到电脑,方便使用
本文档由 人生无常 于 2024-03-18 17:30:25上传分享
友情链接
站内资源均来自网友分享或网络收集整理,若无意中侵犯到您的权利,敬请联系我们微信(点击查看客服),我们将及时删除相关资源。