【论文阅读笔记】ChestX-ray8: Hospital-scale Chest X-ray Database and Benchmarks on Weakly-Supervised Classif
2018-02-02 11:27
441 查看
CVPR2017 paper
文用自然语言处理和深度卷积神经网络处理临床胸片,从中判别和定位8中胸部疾病:
1.Introduction
文章introduction部分就提出现在做深度医学分析的一个主要问题就是数据量小,不能满足大数据分析的要求,因此模型分析结果的泛化能力其实不能保证。因此本文采用了自建的数据库,“ChestX-ray8”,包含了从1992-2015年的32717幅胸片中的108948幅正面胸片。难得的是这些影响学数据已经公开,翻墙登录https://nihcc.app.box.com/v/ChestXray-NIHCC可以下载,更多数据库细节可以看https://www.cc.nih.gov/drd/summers.html。
2.ChestX-ray8的构建
基于NLP对胸片报告进行自动挖掘分析,先使用NLTK进行处理,将报告转变为句子,然后用Bllip Parser对句子进行解析,从中分析出报告中指出的疾病种类。文中还使用了两类挖掘影像学报告中的病理的工具:DNORM和MetaMap。通过挖掘病理报告,生成的8类疾病的关系图,其中有很多疾病不是单一存在,也就是说一张X光图,可能同时关联多种疾病,是一个多分类任务。
3.检测模型
文章中提出一种Weakly-Supervised PathologyLocalization,使用了经典CNN模型结构及其中大部分卷积层的权重参数,对经典模型中的全连接层进行了移除,加入了Transition Layer和全局Pooling Layer,样本的标记采用专家和NLP处理检测报告得到。Transition Layer主要用于将经典DCNN中训练过来的特征图转换为统一得格式。
全局池化层中使用Log-Sum-Exp (LSE) pooling,文中说这种Polling是max-pooling和average-pooling的过渡状态,通过超参数r来控制偏向MAX还是average,其中S=s*s时候S区域内
总的小区域。
损失函数层加在网络最后,没有采用常用的欧拉损失或者交叉熵损失,采用的是the
weighted CEL (W-CEL)。
4.实验结果
训练采用Caffe和装有4块Titan X GPU的Linux Server,从实验结果看,采用ResNet-50预训练,r=10的Global Pooling以及W-CEL测试效果较好,但结果中对于胸片病理中包含小物体如结节,或者肺炎等样本数较少的病例,效果还不太好。文中也提出更大的标注数据量对于提升模型准确性的重要性。
文用自然语言处理和深度卷积神经网络处理临床胸片,从中判别和定位8中胸部疾病:
1.Introduction
文章introduction部分就提出现在做深度医学分析的一个主要问题就是数据量小,不能满足大数据分析的要求,因此模型分析结果的泛化能力其实不能保证。因此本文采用了自建的数据库,“ChestX-ray8”,包含了从1992-2015年的32717幅胸片中的108948幅正面胸片。难得的是这些影响学数据已经公开,翻墙登录https://nihcc.app.box.com/v/ChestXray-NIHCC可以下载,更多数据库细节可以看https://www.cc.nih.gov/drd/summers.html。
2.ChestX-ray8的构建
基于NLP对胸片报告进行自动挖掘分析,先使用NLTK进行处理,将报告转变为句子,然后用Bllip Parser对句子进行解析,从中分析出报告中指出的疾病种类。文中还使用了两类挖掘影像学报告中的病理的工具:DNORM和MetaMap。通过挖掘病理报告,生成的8类疾病的关系图,其中有很多疾病不是单一存在,也就是说一张X光图,可能同时关联多种疾病,是一个多分类任务。
3.检测模型
文章中提出一种Weakly-Supervised PathologyLocalization,使用了经典CNN模型结构及其中大部分卷积层的权重参数,对经典模型中的全连接层进行了移除,加入了Transition Layer和全局Pooling Layer,样本的标记采用专家和NLP处理检测报告得到。Transition Layer主要用于将经典DCNN中训练过来的特征图转换为统一得格式。
全局池化层中使用Log-Sum-Exp (LSE) pooling,文中说这种Polling是max-pooling和average-pooling的过渡状态,通过超参数r来控制偏向MAX还是average,其中S=s*s时候S区域内
总的小区域。
损失函数层加在网络最后,没有采用常用的欧拉损失或者交叉熵损失,采用的是the
weighted CEL (W-CEL)。
4.实验结果
训练采用Caffe和装有4块Titan X GPU的Linux Server,从实验结果看,采用ResNet-50预训练,r=10的Global Pooling以及W-CEL测试效果较好,但结果中对于胸片病理中包含小物体如结节,或者肺炎等样本数较少的病例,效果还不太好。文中也提出更大的标注数据量对于提升模型准确性的重要性。
相关文章推荐
- 【论文阅读笔记】CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning
- [论文笔记] On Construction of Cloud IaaS for VM Live Migration Using KVM and OpenNebula (ICA3PP, 2012)
- 论文阅读笔记:R-CNN:Rich feature hierarchies for accurate object detection and semantic segmentation
- 【论文阅读笔记】Rocket Launching: A Universal and Efficient Framework for Training Well-performing Light Net
- 论文阅读笔记 - MapReduce : Simplified Data Processing on Large Clusters
- 论文阅读:Three-dimensional reconstruction of teeth and jaws based on segmentation of CT images using wat
- 输入法论文阅读一:Effects of Language Modeling and its Personalization on Touchscreen Typing Performance
- 论文阅读笔记-ClusType: Effective Entity Recognition and Typing by Relation Phrase-Based Clustering
- 【论文阅读笔记】Deep Learning based Recommender System: A Survey and New Perspectives
- 论文and代码 阅读笔记
- 1604.Joint Detection and Identification Feature Learning for Person Search论文阅读笔记
- 读论文笔记:Object Co-Segmentation Based on Shortes Path Algorithm and Saliency Mode
- 【论文阅读笔记】CVPR2015-Long-term Recurrent Convolutional Networks for Visual Recognition and Description
- 论文笔记之Spectral Networks and Deep Locally Connected Networks on Graphs
- [论文笔记] Evaluation on crowdsourcing research: Current status and future direction (Information Systems Frontiers, 2012) (第一部分)
- 【论文阅读笔记】Deep Learning in Medical Imaging: Overview and Future Promise of an Exciting New Technique
- Feed Forward and Backward Run in Deep Convolution Neural Network 论文阅读笔记
- [论文笔记] Evaluation on crowdsourcing research: Current status and future direction (Information Systems Frontiers, 2012) (第二部分)
- 阅读笔记-OpenCL:Parallel Computing on the GPU and CPU(Aaftab Munshi)
- 论文阅读笔记:Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey