“中国软件杯”3D智慧医疗赛题要求基于百度飞桨,完成3D医疗数据分割算法及WEB解析平台开发。算法需用PaddleSeg的MedicaSeg,以AMOS2025数据集(含11个器官标注)训练,采用nnunet模型;平台需实现数据导入、分割等功能。baseline提供了克隆仓库、数据处理、训练推理等全流程操作及权重快速推理方案。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜
“中国软件杯”大学生软件设计大赛是一项面向中国在校学生的公益性赛事,是2025年全国普通高校大学生竞赛榜单内竞赛。大赛由国家工业和信息化部、教育部、江苏省人民政府共同主办,致力于正确引导我国在校学生积极参加软件科研活动,切实增强自我创新能力和实际动手能力,为我国软件和信息技术服务业培养出更多高端、优秀的人才。
为进一步加强新一代智能技术与医学的深度融合,百度设立了“基于百度飞桨的3D 医疗数据解析平台”的企业赛题,将来自智慧医疗产业一线的系统建设需求,与高校赛训内容相结合,以助力高校复合交叉型AI人才培养,更好促进我国未来智慧医疗产业的健康发展。
医学影像是临床疾病诊断的重要方式,高效精准的从影像中识别出器官结构或病变,是医学影像学中重要的课题。根据成像原理,医疗影像可以粗略分为两类:
2D成像:一种是在可见光下获取的RGB彩照,如眼底彩照、皮肤彩照等;
3D成像:借助非可见光或其它物理效应,由计算机辅助成像,如CXR/DR(X-Ray),CT,核磁共振(MRI)等。如CT与MRI数据是多个2D切片沿第三个空间维度堆叠而成的;
其中,3D影像能够更直观辅助医生提升诊断效率。然而,医疗影像的读片工作对专业知识要求高,这样繁重且重复性较高的阅片工作,仅能由专业的影像科医生完成。另一方面,医疗影像在医学检查中愈发常见,对阅片专家的需求也在增加。随着深度学习技术的发展,我们看到了使用AI技术辅助医生快速分析阅片、减轻阅片工作负担的可能性。
本次竞赛抽取AMOS2025数据集中的部分数据作为训练和评测数据。 注意:本比赛只允许使用提供的数据集。
为更好满足医疗从业者快速构建医疗识别模型及高效进行图像分析的需求,参赛选手需利用深度学习和软件开发技术实现以下两部分内容:
多器官数据集共有11个器官的标注,包括脾脏、右肾、左肾、胆囊、食道、肝、胃、主动脉、下腔静脉、胰腺、膀胱。本数据集共包含160个训练数据,40个测试数据。
PaddleSeg是基于飞桨PaddlePaddle的端到端图像分割套件,内置45+模型算法及140+预训练模型,支持配置化驱动和API调用开发方式,打通数据标注、模型开发、训练、压缩、部署的全流程,提供语义分割、交互式分割、Matting、全景分割四大分割能力,助力算法在医疗、工业、遥感、娱乐等场景落地应用。
本baseline使用PaddleSeg的MedicaSeg开发,github地址:https://github.com/PaddlePaddle/PaddleSeg
老爷们,动动发财的小手,点点star为我们助力,您的支持就是我们的动力~~
本baseline使用nnunet 的cascade lowres模型,nnunet包含大量的trick,能够获得很高的精度。
本baseline仅包含部分使用内容,完整的nnunet使用方案请参考:
nnunet教程: https://aistudio.baidu.com/aistudio/projectdetail/4884907?contributionType=1
# step 1: 克隆PaddleSeg仓库%cd ~/ !git clone --branch develop --depth 1 https://github.com/PaddlePaddle/PaddleSeg.git %cd ~/PaddleSegIn [ ]
# step2: 解压数据到~/PaddleSeg/contrib/MedicalSeg/data/raw_data!mkdir ~/PaddleSeg/contrib/MedicalSeg/data !unzip -oq ~/data/data204195/base_train.zip -d ~/PaddleSeg/contrib/MedicalSeg/data/raw_dataIn [ ]
# step 3: 删除原本的数据集压缩包,节约内存!rm -rf ~/data/data204195/base_train.zipIn [ ]
# 删除掉数据集中一个没用的文件夹,否则会报错!rm -rf ~/PaddleSeg/contrib/MedicalSeg/data/raw_data/.ipynb_checkpointsIn [ ]
###### step 4: 安装依赖包%cd ~/PaddleSeg/contrib/MedicalSeg/ !pip install -r requirements.txt !pip install medpyIn [ ]
# step 5: nnunet cascade lowres训练,混合精度训练快一些,五折训练,这里使用fold 2,一共有0,1,2,3,4共五个fold。# 在训练之前,会先对数据进行预处理,如果觉得耗时过久怀疑出错,可以看一下PaddleSeg/contrib/Medicalseg/data目录里面是否有decathlon、preprocessed、cropped 3个文件夹# 没有这3个文件夹请耐心等待。# 为什么会报错json文件缺失?# 预处理的过程不可中断,如果中断可能导致部分文件丢失,可以把decathlon、preprocessed、cropped报错的文件夹删除,重新生成即可。# 什么是交叉训练?# 假设有100条数据,使用五折交叉验证训练。可以把数据集分为 |20|20|20|20|20|,每次训练的时候,把其中一个作为验证集,其他作为训练集,这样可以得到5个模型,他们的验证集不重复。%cd ~/PaddleSeg/contrib/MedicalSeg/
!python train.py --config ~/configs/nnunet_fold2.yml \
--log_iters 20 --precision fp16 --nnunet --save_dir output/cascade_lowres/fold2 --save_interval 2000 --use_vdl # --resume_model output/cascade_lowres/fold2/iter_30000
In [ ]
# 为了防止内存溢出,请替换cascade预测下一阶段的部分代码!mv ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/cascade_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/cascade_utils_backup.py !cp ~/cascade_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/In [ ]
# step 6: fold2的数据集划分验证一下精度,运行一下,生成下个命令需要用的json,如果不使用后处理策略可以不运行# 有的数据很大,可能导致内存溢出,可以切换A100环境预测下一阶段# 可以除去--predict_next_stage参数,不预测该数据的下一阶段# predict_next_stage的作用是什么?# cascade unet分为2阶段,第一阶段会把分辨率降低进行训练,增强模型的感受野。第二阶段会把第一阶段的模型预测结果和原始数据一起作为输入,所以训练low resolution模型后,# 需要预测下一阶段的输入数据。# 交叉验证和二阶段训练结合为什么这么难懂?# 一阶段交叉训练:|20|20|20|20|20|# 二阶段交叉训练:|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|# 为了训练第二阶段,需要使用五个模型预测整个数据集,这样二阶段才能训练。%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/single_fold_eval.py --config ~/configs/nnunet_fold2.yml \
--model_path output/cascade_lowres/fold2/iter_30000/model.pdparams --val_save_folder output/cascade_lowres_val \
--precision fp16 --predict_next_stage
In [ ]
## 可选步骤:先运行step 7,如果提示内存溢出则运行此命令,替代原本的推理代码!mv ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils_old.py !cp ~/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/In [ ]
# step 7: 推理# 为什么要用json文件?# nnunet采用了后处理策略对预测结果进行修正,但是后处理策略是否一定会涨点呢?对每个类别,对比使用了后处理和不使用后处理策略的精度,这样就可以决定每个类别是否使用后处理策略。# 需要后处理涨点的类别存放在json中,这是json的作用。# 是否一定要该折对应的json?# 不是,json只是决定某个类别是否使用后处理,即使使用其他折的json,也可以预测,但是后处理的类别可能会错误,这个时候后处理的预测结果不可靠。# 不希望使用后处理策略怎么办?# 命令中加上--disable_postprocessing即可%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/predict.py --image_folder data/decathlon/imagesTs \
--output_folder ~/submit \
--plan_path data/preprocessed/nnUNetPlansv2.1_plans_3D.pkl \
--model_paths output/cascade_lowres/fold2/iter_30000/model.pdparams \
--postprocessing_json_path output/cascade_lowres_val/postprocessing.json --model_type cascade_lowres \
--num_threads_preprocessing 1 --num_threads_nifti_save 1
In [ ]
# step 8: 打包提交,生成submit.zip,在/home/aistudio目录下!zip -j ~/submit.zip ~/submit/*.nii.gz
使用提供的权重,快速进行推理提交
In [ ]# step 1: 克隆PaddleSeg仓库--已有请忽略%cd ~/ !git clone https://github.com/PaddlePaddle/PaddleSeg.git %cd ~/PaddleSegIn [ ]
# step2: 解压数据到~/PaddleSeg/contrib/MedicalSeg/data/raw_data --- 如果已经运行过数据预处理,请忽略。~/PaddleSeg/contrib/MedicalSeg/data这个目录下是否有decalthon和preprocess这2个文件夹!mkdir ~/PaddleSeg/contrib/MedicalSeg/data !unzip -oq ~/data/data204195/base_train.zip -d ~/PaddleSeg/contrib/MedicalSeg/data/raw_dataIn [ ]
# step 3: 删除原本的数据集压缩包,节约内存!rm -rf ~/data/data204195/base_train.zipIn [ ]
# 删除掉数据集中一个没用的文件夹,否则会报错!rm -rf ~/PaddleSeg/contrib/MedicalSeg/data/raw_data/.ipynb_checkpointsIn [ ]
# step 4: 安装依赖包 --- 已安装请忽略%cd ~/PaddleSeg/contrib/MedicalSeg/ !pip install -r requirements.txt !pip install medpyIn [ ]
# step 5: fold2的数据集验证一下精度,这里的目的是触发数据预处理,不然step 6没法推理,如果PaddleSeg/contrib/MedicalSeg/data/decathlon文件夹存在,可以跳过%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/single_fold_eval.py --config ~/configs/nnunet_fold2.yml \
--model_path ~/baseline_model/model.pdparams --val_save_folder output/cascade_lowres_val \
--precision fp16
In [ ]
## 可选步骤:先运行step 6,如果提示内存溢出则运行此命令,替代原本的推理代码!mv ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils_old.py !cp ~/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/In [ ]
# step 6: 使用提供的权重推理,nnunet默认使用tta策略,速度比较慢%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/predict.py --image_folder data/decathlon/imagesTs \
--output_folder ~/submit \
--plan_path data/preprocessed/nnUNetPlansv2.1_plans_3D.pkl \
--model_paths ~/baseline_model/model.pdparams \
--postprocessing_json_path ~/baseline_model/postprocessing.json --model_type cascade_lowres \
--num_threads_preprocessing 1 --num_threads_nifti_save 1 --precision fp16
In [ ]
# step 7: 打包提交,生成submit.zip,在/home/aistudio目录下!zip -j ~/submit.zip ~/submit/*.nii.gz
相关文章:
AI写作助手性能大揭秘,文心一言与同类产品全面对比实测,ai大会主题
创新与传统交锋,文心一言与豆包的对话篇章,ai修复后的姚景元
AI绘画,从模型到风格的革新之旅,ai5307112
网站设置关键词的关键技巧与优化策略
文心一言,轻松实现内容二次创作与创意再出发,ai轨道旋转
360ai答题-赋能教育,开启智能学习新纪元,ai 果汁
豆包AI智能软件下载,引领智能生活新潮流,设计师怎么创建ai
AI赋能动画制作,开启动画行业新的技术革新,用ai写作 好不好
突破AI前沿,揭秘高效更新最大模型的关键路径,象棋ai 人类
豆包AI,全能助手,聊天与表格制作两不误,ai大模型私有化部署
文心一言攻略,畅游全球文化交流地,讨厌ai到使用ai
文心一言新功能亮相,提词器助创作者灵感飞扬,curbase ai
2025年AI绘画革新盘点,热门模型推荐一览,栅格 ai
AI豆包,未来科技美食,智能生活新伙伴一键体验,夏新ai版闹钟怎么连接ai
AI网站开发与代码创新:引领未来数字化变革的关键,ai ay规则
SEO与SEM的不同:深度解析两大网络营销手段的优势与应用
清华AI突破,智谱模型的创新揭秘,AI智能写作官方教材最新
AI聊天新,下载新型聊天模型,体验智能交互,AI新兴
360刷排名工具选哪家?揭秘2025年最强排名优化工具!,ai写作网站哪个好一点
AI赋能未来,行业变革的AI数据模型训练力量,恋爱机器人ai
小艺AI大模型升级,实时翻译突破语言障碍,AI XLPE
文心一言,人工智能写作领域的性突破与当前水平解析,ai男团账号
文章缩写AI:高效编辑的未来之光
豆包AI明星,明星与虚拟AI的跨界奇遇,免费中文版ai写作神器
文心一言官网轻松上手,高效创作指南一网打尽,幼ai编程课文案
首页排名优化,助你轻松登顶百度搜索榜单!
全球领先AI开源大模型软件,开启人工智能新时代,手机上ai怎么转pdf
人工智能的语言艺术揭秘,AI大模型的表达力探析,mugen ai等级
释放网站潜力,外链发布工具助力SEO优化
AI赋能漫画创作革新,揭秘智能漫画模型选择与优化,ai编程软件
解码Token智慧,文心一言引领AI新领域探索,美国反对ai写作
常用AI工具,高效智能生活
AI技术前沿,模型解析与应用探索,ai 锂电
AI绘画新境界,文心一言开启照片转绘画,ai的阴影在哪
一键生成原创文章,轻松写作从此开启
AI赋能艺术,一键下载场景原画模型,引领数字创作新时代,ai 亚马逊 选品
SEOChinaz:让您的网站在搜索引擎中脱颖而出
怎么用AI写出高质量科普文章?揭秘新时代创作利器!
文心一言语音功能详解,轻松体验智能语音交互魅力,ai复原古画
文心一笑,搞笑对话段子掀起狂潮,ai大和
ChatGPT网页版免费版:开启智能对话的全新体验
好用的人工智能AI软件推荐,让你的生活更智能!
文章AI指令提升写作效率的智能助手
一键掌握,AI语言模型下载与使用指南,蔚来智能ai
免费好用的AI写作工具,让创作更轻松!
AI模型软件下载,跟随美漫风潮,开启创意无限之旅,绿色ai
网页插件TOP推荐:提升效率、打造流畅浏览体验的必备工具
文心一言解密,接收时长之谜,开启沟通新篇章,初爱ai
AI赋能艺术,大模型绘画,解锁无限创意之门,实时热点ai写作软件
AI艺术创作新,SD模型引领人工智能绘画,AI生文