论文阅读之: Hierarchical Object Detection with Deep Reinforcement Learning
2016-11-15 15:48
585 查看
Hierarchical Object Detection with Deep Reinforcement Learning
NIPS 2016 WorkShop
Paper : https://arxiv.org/pdf/1611.03718v1.pdf
Project Page : https://github.com/imatge-upc/detection-2016-nipsws
摘要: 我们提出一种基于深度强化学习的等级物体检测方法 (Hierarchical Object Detection). 关键点在于: 专注于图像的含有更多信息量的区域, 并且放大该区域. 我们训练一个 intelligent agent, 给定一个图像窗口, 能够确定将注意力集中于预先设定的五个区域中的哪一个. 这个过程迭代的提供了一个等级的图像分析. 我们对比了两个不同的候选 proposal 策略来引导图像搜索: with and without overlap. 此外, 我们的方法对比了两种不同的策略来提取特征: 第一种是对每一个 region proposal 计算新的 feature map ; 另一种方法是对于整幅图像计算 feature maps 并为后续的每一个 region proposal 提供 crop 的feature map.
模型 Hierarchical Object Detection Model :
我们定义了物体检测问题当做是序列决策过程 (the sequential decision process). 每一个时间步骤, agent 应该决定图像的哪个区域应该集中注意力, 以便于少量的步骤内找到物体. 我们将这个问题看作是 Markov Decision Process , 提供了一个框架来建模 decision making.
MDP formulation :
作者首先定义了 MDP 的大致过程 : state, actions, reward :
State : 当前区域 和 记忆向量 构成, 即: the current region and a memory vector. 描述符定义了两个模型: the Image-Zooms model and the Pool45-Crops model . 状态的记忆向量(memory vector)捕获了agent 搜索物体当中,已经选择的过去 4 个 actions. 由于 agent 是学习一个 bounding box 的 refinement procedure, 一个记忆向量编码了这个 refinement procedure 的状态 用来稳定搜索轨迹. 我们将过去的 4 个 actions 编码成一个 one-shot vector. 由于本文定义了 6 个 actions, 所以向量的维度是 24.
Actions : 跟 ICCV 2015 年的那个检测的方法一样, 这里的action 也是定义成了图像变换的操作 和 停止操作.
Rewards : 此处的设计 与 ICCV 2015 仍然是一致的.
Model :
我们讨论了两种提取特征的方法, 上面就是所用的大致网络框架. Image-Zooms model and the Pool45-Crops model.
对于 Image-Zooms model 来说, 每一个区域都 resize 成 224*224 的大小, 然后抽取 VGG-16 的 Pool 5 layer 的特征.
对于 Pool45-Crops model, 图像是 full-resolution 传给 VGG-16 的 Pool 5 layer.
像 Faster RCNN 的 ROI Pooling 的方法一样, 本文也是采用这种思路, 只是抽取 ROI 的 feature . 像 SSD 一样, 我们根据 ROI 的尺寸来选择 feature map. 对于较大的物体, 本文的方法就选择较深的 feature map, 而较小的物体, 本文就选择较浅的 feature map .
NIPS 2016 WorkShop
Paper : https://arxiv.org/pdf/1611.03718v1.pdf
Project Page : https://github.com/imatge-upc/detection-2016-nipsws
摘要: 我们提出一种基于深度强化学习的等级物体检测方法 (Hierarchical Object Detection). 关键点在于: 专注于图像的含有更多信息量的区域, 并且放大该区域. 我们训练一个 intelligent agent, 给定一个图像窗口, 能够确定将注意力集中于预先设定的五个区域中的哪一个. 这个过程迭代的提供了一个等级的图像分析. 我们对比了两个不同的候选 proposal 策略来引导图像搜索: with and without overlap. 此外, 我们的方法对比了两种不同的策略来提取特征: 第一种是对每一个 region proposal 计算新的 feature map ; 另一种方法是对于整幅图像计算 feature maps 并为后续的每一个 region proposal 提供 crop 的feature map.
模型 Hierarchical Object Detection Model :
我们定义了物体检测问题当做是序列决策过程 (the sequential decision process). 每一个时间步骤, agent 应该决定图像的哪个区域应该集中注意力, 以便于少量的步骤内找到物体. 我们将这个问题看作是 Markov Decision Process , 提供了一个框架来建模 decision making.
MDP formulation :
作者首先定义了 MDP 的大致过程 : state, actions, reward :
State : 当前区域 和 记忆向量 构成, 即: the current region and a memory vector. 描述符定义了两个模型: the Image-Zooms model and the Pool45-Crops model . 状态的记忆向量(memory vector)捕获了agent 搜索物体当中,已经选择的过去 4 个 actions. 由于 agent 是学习一个 bounding box 的 refinement procedure, 一个记忆向量编码了这个 refinement procedure 的状态 用来稳定搜索轨迹. 我们将过去的 4 个 actions 编码成一个 one-shot vector. 由于本文定义了 6 个 actions, 所以向量的维度是 24.
Actions : 跟 ICCV 2015 年的那个检测的方法一样, 这里的action 也是定义成了图像变换的操作 和 停止操作.
Rewards : 此处的设计 与 ICCV 2015 仍然是一致的.
Model :
我们讨论了两种提取特征的方法, 上面就是所用的大致网络框架. Image-Zooms model and the Pool45-Crops model.
对于 Image-Zooms model 来说, 每一个区域都 resize 成 224*224 的大小, 然后抽取 VGG-16 的 Pool 5 layer 的特征.
对于 Pool45-Crops model, 图像是 full-resolution 传给 VGG-16 的 Pool 5 layer.
像 Faster RCNN 的 ROI Pooling 的方法一样, 本文也是采用这种思路, 只是抽取 ROI 的 feature . 像 SSD 一样, 我们根据 ROI 的尺寸来选择 feature map. 对于较大的物体, 本文的方法就选择较深的 feature map, 而较小的物体, 本文就选择较浅的 feature map .
相关文章推荐
- 【论文阅读笔记】CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning
- 论文笔记之:Active Object Localization with Deep Reinforcement Learning
- 论文阅读:Deep Neural Networks for Object Detection
- 论文阅读-《CoupleNet:Coupling Global Structure with Local Parts for Object Detection》
- 论文阅读学习 - Deep Representation Learning with Target Coding
- 论文笔记之:Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning
- 论文阅读:Deep Neural Networks with Multitask Learning(多任务模型应w用到自然语言处理)
- 论文阅读笔记:Xception: Deep Learning with Depthwise Separable Convolutions
- 论文笔记之:Playing Atari with Deep Reinforcement Learning
- 论文笔记之:Deep Reinforcement Learning with Double Q-learning
- 1604. Learning deep feature representations with domain guided dropout for re-id论文阅读笔记
- 论文笔记 A Large Contextual Dataset for Classification,Detection and Counting of Cars with Deep Learning
- 【CV论文阅读】Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
- 论文阅读--PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection
- 论文阅读笔记:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
- 论文阅读-《RON-Reverse Connection with Objectness Prior Networks for Object Detection》
- 论文阅读《DeNet: Scalable Real-time Object Detection with Directed Sparse Sampling》
- 论文笔记:Towards perspective-free object counting with deep learning
- MSCNN 论文解析(A Unified Multi-scale Deep Convolutional Neural Network for Fast Object Detection
- 论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection