行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器学习 正文

一文看尽16篇目标检测最新论文

前言
半个月前 Amusi 整理了 目标检测(Object Detection)较为值得关注的论文:
一文看尽8篇目标检测论文(EfficientDet/EdgeNet/ASFF/RoIMix/SCL/EFGRNet等)
 
没想到目标检测的论文更新频率这么快(都9102年,还有这么多人玩检测),本文再次更新值得关注的检测论文。这次分享的paper将同步推送到 github上,欢迎大家 star/fork(点击阅读原文,也可直接访问):
 
https://github.com/amusi/awesome-object-detection
 
注意事项:
本文分享的目标检测论文既含刷新Anchor-free mAP的目标检测论文,也有追求 mAP 和 FPS trade-off的论文
论文发布时间段:2019年11月23日-2019年12月6日
 
目标检测论文
【1】多方向目标检测:水平边界框上的滑动顶点
《Gliding vertex on the horizontal bounding box for multi-oriented object detection》
时间:20191123
作者团队:华科(白翔组)&武大&上交
链接:https://arxiv.org/abs/1911.09358
注:本论文性能优于CAD-Net、R2CNN++,在DOAT上53.49mAP/10.0FPS!表现SOTA!

 

 

网络结构

 

 
【2】SM-NAS:结构到模块的神经体系结构搜索以进行目标检测
《SM-NAS: Structural-to-Modular Neural Architecture Search for Object Detection》
时间:20191125(AAAI 2020)
作者团队:华为诺亚&中山大学
链接:https://arxiv.org/abs/1911.09929
注:又一篇用NAS做目标检测的论文,在COCO上可达42.8mAP/20FPS!较高可达45.9mAP,优于同类的NAS-FPN和DetNAS

 

 

SM-NAS Pipeline

 

 
【3】基于PSNet和边框回归的弱监督目标检测(WSOD)
《WSOD with PSNet and Box Regression》
时间:20191127
作者团队:清华大学
链接:https://arxiv.org/abs/1911.11512
注:性能优于WSRPN、PCL等弱监督目标检测方法,表现SOTA!

 

 
WSOD 网络结构
 
【4】带有可见IoU和Box Sign预测器的遮挡性行人检测
《Occluded Pedestrian Detection with Visible IoU and Box Sign Predictor》
时间:20191127
作者团队:清华大学
链接:https://arxiv.org/abs/1911.11449
注:性能优于OR-CNN等网络
 

 

网络结构

 

 
【5】CSPNet:可以增强CNN学习能力的新型Backbone
《CSPNet: A New Backbone that can Enhance Learning Capability of CNN》
时间:20191128
作者团队:中央研究院資訊科學研究所&台湾交通大学
链接:https://arxiv.org/abs/1911.11929
https://github.com/WongKinYiu/CrossStagePartialNetworks
注:很棒的backbone,在检测任务上性能优于YOLOv3-tiny,CSPPeleeNet在Jetson TX2速度高达41FPS!现已开源

 

 

 

【6】ReBiF:残差双融合特征金字塔网络,用于较精确的Single-shot目标检测
《Residual Bi-Fusion Feature Pyramid Network for Accurate Single-shot Object Detection》
时间:20191128
作者团队:台湾交通大学&阿联酋大学
链接:https://arxiv.org/abs/1911.12051
注:ReBiF在mAP和FPS上都优于YOLOv3和RFBNet等网络

 

 
Residual bi-fusion feature pyramid network 

 

 

 

【7】目标检测的性能上界讨论
《Empirical Upper-bound in Object Detection and More》
时间:20191128
作者团队:西弗吉尼亚大学&MarkableAI
链接:https://arxiv.org/abs/1911.12451
注:在作者的计算方式下,PASCAL VOC (test2007) 的上界可以达到 91.6%,COCO (val2017) 可以达到 78.2%, OpenImages V4 (val) 可以达到 58.9%,它们的上界离现在所能达到的较佳的性能仍有很大的差距
解读:目标检测的性能上界讨论

 

 
【8】DIoU Loss:更快更好地学习边界框回归
《Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression》
时间:20191129(AAAI 2020)
作者团队:天津大学&中国人民公安大学
链接:https://arxiv.org/abs/1911.08287
注:DIoU Loss对YOLOv3、SSD、Faster R-CNN都有明显涨点,现已开源!
解读:DIoU YOLOv3:更加稳定有效的目标框回归损失

 

 

 

【9】CoAE:用于One-Shot目标检测的共同注意和共同激励
《One-Shot Object Detection with Co-Attention and Co-Excitation》
时间:20191202(NeurIPS 2019)
作者团队:国立清华大学&中央研究院等
链接:https://arxiv.org/abs/1911.12529
代码:https://github.com/timy90022/One-Shot-Object-Detection

 

 
网络结构
 
【10】SAPD:Soft Anchor-Point目标检测
《Soft Anchor-Point Object Detection》
时间:20191202
作者团队:卡耐基梅隆大学(CMU)
链接:https://arxiv.org/abs/1911.12448
注:SAPD:目前最强Anchor-free目标检测网络,性能高达47.4mAP/4.5FPS!性能秒杀FreeAnchor、CenterNet、FSAF、FCOS和FoveaBox等

 

 
COCO test-dev Speed vs mAP

 

 
Training strategy

 

 
【11】MMOD:基于混合模型的目标检测边界框密度估计
《Mixture-Model-based Bounding Box Density Estimation for Object Detection》
时间:20191202
作者团队:首尔大学
链接:https://arxiv.org/abs/1911.12721
注:MMOD性能可达38.7 mAP/26FPS!但还是不如ASFF,代码即将开源

 

 
MMOD 网络结构

 

 
【12】IENet:方向性航空目标检测的One Stage Anchor Free检测器
《IENet: Interacting Embranchment One Stage Anchor Free Detector for Orientation Aerial Object Detection》
时间:20191203
作者团队:哈尔滨工程大学
链接:https://arxiv.org/abs/1912.00969
注:IENet用于旋转性边界框(OBB)的One Stage Anchor Free目标检测新网络

 

 
IENet Head
 
 
【13】MnasFPN:用于移动设备上目标检测的延迟感知的金字塔体系结构
《MnasFPN: Learning Latency-aware Pyramid Architecture for Object Detection on Mobile Devices》
时间:20191204
作者团队:谷歌AI&谷歌大脑(Quoc V. Le大佬)
链接:https://arxiv.org/abs/1912.01106
注:MnasFPN无论mAP还是FPS均优于MobileNetV3+SSDLite和NAS-FPNLite
 

 

IMnasFPN 网络结构

 

 
【14】IPG-Net:用于目标检测的图像金字塔引导网络
《IPG-Net: Image Pyramid Guidance Network for Object Detection》
时间:20191205
作者团队:北京理工大学&三星
链接:https://arxiv.org/abs/1912.00632
注:在COCO上可达45.7mAP,在VOC上可达85.9,性能优于CenterNet、FSAF和SNIPER等网络

 

 
Model Backbone

 

 
【15】MAL:用于目标检测的多Anchor学习
《Multiple Anchor Learning for Visual Object Detection》
时间:20191206
作者团队:CMU&中科院等
链接:https://arxiv.org/abs/1912.02252
注:在single/multi-scale下,one-stage系列的MAL性能分别可达45.9/47.0 mAP!优于FreeAnchor、CenterNet等网络
 

 

MAL 思想

 

MAL 网络结构

 

 
【16】ATSS:缩小Anchor-free和Anchor-based的性能差距:通过自适应训练样本选择
《Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection》
时间:20191206
作者团队:中科院&国科大&北邮等
链接:https://arxiv.org/abs/1912.02424
代码:https://github.com/sfzhang15/ATSS
注:ATSS在COCO上,single/multi scale分别可达47.7和50.7mAP!很强势,现已开源!

 

 

 
声明:文章收集于网络,版权归原作者所有,为传播信息而发,如有侵权,请联系小编删除,谢谢!
 
 

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部