RepPointsV2:更多的监督任务,更强的性能 | NIPS 2020

2021-07-01
阅读 4 分钟
1.6k
RepPointsV2的整体思想类似与Mask R-CNN,加入更多的任务来监督目标检测算法的学习。虽然在创新性上可能不够新颖,但论文的通用性还是很不错的,而且将角点任务的输出用于联合推理,从对比实验上看提升不少   来源:晓飞的算法工程笔记 公众号
封面图

RepPoints:微软巧用变形卷积生成点集进行目标检测,创意满满 | ICCV 2019

2021-06-30
阅读 4 分钟
1.7k
RepPoints的设计思想十分巧妙,使用富含语义信息的点集来表示目标,并且巧用可变形卷积来进行实现,整体网络设计十分完备,值得学习   来源:晓飞的算法工程笔记 公众号
封面图

CornerNet-Lite:CornerNet粗暴优化,加速6倍还提点了 | BMVC 2020

2021-06-29
阅读 4 分钟
1.8k
论文对CornerNet进行了性能优化,提出了CornerNet-Saccade和CornerNet-Squeeze两个优化的CornerNet变种,优化的手段具有很高的针对性和局限性,不过依然有很多可以学习的地方   来源:晓飞的算法工程笔记 公众号
封面图

SaccadeNet:使用角点特征进行two-stage预测框精调 | CVPR 2020

2021-06-28
阅读 3 分钟
1.3k
SaccadeNet基于中心点特征进行初步的目标定位,然后利用初步预测框的角点特征以及中心点特征进行预测框的精调,整体思想类似于two-stage目标检测算法,将第二阶段的预测框精调用的区域特征转化为点特征。SaccadeNet在精度和速度上都可圈可点,整体思想十分不错   来源:晓飞的算法工程笔记 公众号
封面图

CSP:Object as Point同会议论文,相似思想用于人脸和行人检测 | CVPR 2019

2021-06-23
阅读 3 分钟
1.2k
CSP将目标定义为中心点和尺寸,通过网络直接预测目标的中心和寸尺,相对于传统的RCNN类型检测算法轻量化了不少。整体思想与Object as Points撞车了,真是英雄所见略同   来源:晓飞的算法工程笔记 公众号
封面图

CentripetalNet:更合理的角点匹配,多方面改进CornerNet | CVPR 2020

2021-06-17
阅读 5 分钟
1.7k
CentripetalNet的核心在于新的角点匹配方式,额外学习一个向心偏移值,偏移值足够小的角点即为匹配,相对于embedding向量的匹配方式,这种方法更为鲁棒,解释性更好。另外论文提出的十字星变形卷积也很好地贴合角点目标检测的场景,增强角点特征   来源:晓飞的算法工程笔记 公众号
封面图

ExtremeNet:通过极点进行目标检测,更细致的目标区域 | CVPR 2019

2021-06-16
阅读 3 分钟
1.6k
ExtremeNet检测目标的四个极点,然后以几何的方式将其组合起来进行目标检测,性能与其它传统形式的检测算法相当。ExtremeNet的检测方法十分独特,但是包含了较多的后处理方法,所以有很大的改进空间,感兴趣可以去看看论文实验中的错误分析部分   来源:晓飞的算法工程笔记 公众号
封面图

FBNet/FBNetV2/FBNetV3:Facebook在NAS领域的轻量级网络探索 | 轻量级网络

2021-06-02
阅读 9 分钟
2.1k
FBNet系列是完全基于NAS方法的轻量级网络系列,分析当前搜索方法的缺点,逐步增加创新性改进,FBNet结合了DNAS和资源约束,FBNetV2加入了channel和输入分辨率的搜索,FBNetV3则是使用准确率预测来进行快速的网络结构搜索   来源:晓飞的算法工程笔记 公众号

NetAdapt:MobileNetV3用到的自动化网络简化方法 | ECCV 2018

2021-05-31
阅读 4 分钟
1.2k
NetAdapt的思想巧妙且有效,将优化目标分为多个小目标,并且将实际指标引入到优化过程中,能够自动化产生一系列平台相关的简化网络,不仅搜索速度快,而且得到简化网络在准确率和时延上都于较好的表现   来源:晓飞的算法工程笔记 公众号

DARTS:基于梯度下降的经典网络搜索方法,开启端到端的网络搜索 | ICLR 2019

2021-05-28
阅读 4 分钟
1.4k
DARTS是很经典的NAS方法,它的出现打破了以往的离散的网络搜索模式,能够进行end-to-end的网络搜索。由于DARTS是基于梯度进行网络更新的,所以更新的方向比较准确,搜索时间相当于之前的方法有很大的提升,CIFAR-10的搜索仅需要4GPU days。   来源:晓飞的算法工程笔记 公众号

IGC系列:全分组卷积网络,分组卷积极致使用 | 轻量级网络

2021-05-27
阅读 8 分钟
2.1k
IGC系列网络的核心在分组卷积的极致运用,将常规卷积分解成多个分组卷积,能够减少大量参数,另外互补性原则和排序操作能够在最少的参数量情况下保证分组间的信息流通。但整体而言,虽然使用IGC模块后参数量和计算量降低了,但网络结构变得更为繁琐,可能导致在真实使用时速度变慢   来源:晓飞的算法工程笔记 公众号

ChannelNets: channel-wise卷积,在channel维度进行卷积滑动 | NeurIPS 2018

2021-01-29
阅读 4 分钟
2.6k
Channel-wise卷积在channel维度上进行滑动,巧妙地解决卷积操作中输入输出的复杂全连接特性,但又不会像分组卷积那样死板,是个很不错的想法   来源:晓飞的算法工程笔记 公众号
封面图

ESPNet/ESPNetV2:空洞卷积金字塔 | 轻量级网络

2021-01-28
阅读 5 分钟
2.7k
ESPNet系列的核心在于空洞卷积金字塔,每层具有不同的dilation rate,在参数量不增加的情况下,能够融合多尺度特征,相对于深度可分离卷积,深度可分离空洞卷积金字塔性价比更高。另外,HFF的多尺度特征融合方法也很值得借鉴   来源:晓飞的算法工程笔记 公众号
封面图

PeleeNet:精修版DenseNet,速度猛增至240FPS | NeurIPS 2018

2021-01-21
阅读 4 分钟
1.4k
PeleeNet是DenseNet的一个变体,没有使用流行的深度可分离卷积,PeleeNet和Pelee仅通过结构上的优化取得了很不错的性能和速度,读完论文可以学到很多网络设计的小窍门。   来源:晓飞的算法工程笔记 公众号
封面图

AmoebaNet:经费在燃烧,谷歌提出基于aging evolution的神经网络搜索 | AAAI 2019

2021-01-20
阅读 4 分钟
1.4k
论文提出aging evolution,一个锦标赛选择的变种来优化进化算法,在NASNet搜索空间上,对比强化学习和随机搜索,该算法足够简洁,而且能够更快地搜索到更高质量的模型,论文搜索出的AmoebaNet-A在ImageNet上能达到SOTA  来源:【晓飞的算法工程笔记】 公众号
封面图

Objects as Points:预测目标中心,无需NMS等后处理操作 | CVPR 2019

2021-01-19
阅读 4 分钟
2.2k
论文基于关键点预测网络提出CenterNet算法,将检测目标视为关键点,先找到目标的中心点,然后回归其尺寸。对比上一篇同名的CenterNet算法,本文的算法更简洁且性能足够强大,不需要NMS等后处理方法,能够拓展到其它检测任务中   来源:晓飞的算法工程笔记 公众号
封面图

CPNDet:粗暴地给CenterNet加入two-stage精调,更快更强 | ECCV 2020

2021-01-18
阅读 4 分钟
2k
本文为CenterNet作者发表的,论文提出anchor-free/two-stage目标检测算法CPN,使用关键点提取候选框再使用两阶段分类器进行预测。论文整体思路很简单,但CPN的准确率和推理速度都很不错,比原本的关键点算法更快,源码也会公开,到时可以一试   来源:晓飞的算法工程笔记 公众号
封面图

CenterNet:Corner-Center三元关键点,检测性能全面提升 | ICCV 2019

2021-01-15
阅读 4 分钟
1.6k
为了解决CornerNet缺乏目标内部信息的问题,提出了CenterNet使用三元组进行目标检测,包含一个中心关键点和两个角点。从实验结果来看,CenterNet相对于CornerNet只增加了少量推理时延,但带来了将近5个点的AP提升   来源:晓飞的算法工程笔记 公众号

CornerNet:经典keypoint-based方法,通过定位角点进行目标检测 | ECCV2018

2021-01-14
阅读 5 分钟
1.8k
论文提出了CornerNet,通过检测角点对的方式进行目标检测,与当前的SOTA检测模型有相当的性能。CornerNet借鉴人体姿态估计的方法,开创了目标检测领域的一个新框架,后面很多论文都基于CorerNet的研究拓展出新的角点目标检测   来源:晓飞的算法工程笔记 公众号

DDBNet:Anchor-free新训练方法,边粒度IoU计算以及更准确的正负样本 | ECCV 2020

2020-11-24
阅读 5 分钟
1.8k
论文针对当前anchor-free目标检测算法的问题提出了DDBNet,该算法对预测框进行更准确地评估,包括正负样本以及IoU的判断。DDBNet的创新点主要在于box分解和重组模块(D&R)和语义一致性模块,分别用于解决中心关键点的回归不准问题以及中心关键点与目标语义不一致问题。从实验来看,DDBNet达到了SOTA,整篇论文可圈可...

Dynamic ReLU:微软推出提点神器,可能是最好的ReLU改进 | ECCV 2020

2020-11-08
阅读 4 分钟
1.3k
论文提出了动态ReLU,能够根据输入动态地调整对应的分段激活函数,与ReLU及其变种对比,仅需额外的少量计算即可带来大幅的性能提升,能无缝嵌入到当前的主流模型中   来源:晓飞的算法工程笔记 公众号

APReLU:跨界应用,用于机器故障检测的自适应ReLU | IEEE TIE 2020

2020-11-05
阅读 3 分钟
1.2k
论文的工作属于深度学习在工业界的应用,借鉴计算机视觉的解决方法,针对机器故障检测的场景提出自适应的APReLU,对故障检测的准确率有很大的提升。论文整体思想应该也可以应用于计算机视觉,代码也开源了,大家可以尝试下   来源:晓飞的算法工程笔记 公众号

AABO:自适应Anchor设置优化,性能榨取的最后一步 | ECCV 2020 Spotlight

2020-10-13
阅读 6 分钟
1.9k
论文提出超参数优化方法AABO,该方法核心基于贝叶斯优化和Sub-Sample方法,能够自适应的搜索最优的anchor设置。从实验结果来看,AABO能够仅通过anchor设置优化,为SOTA目标检测方法带来1.4%~2.4%的性能提升   来源:晓飞的算法工程笔记 公众号

CSG:清华大学提出通过分化类特定卷积核来训练可解释的卷积网络 | ECCV 2020 Oral

2020-10-09
阅读 5 分钟
1.5k
论文提出类特定控制门CSG来引导网络学习类特定的卷积核,并且加入正则化方法来稀疏化CSG矩阵,进一步保证类特定。从实验结果来看,CSG的稀疏性能够引导卷积核与类别的强关联,在卷积核层面产生高度类相关的特征表达,从而提升网络的性能以及可解释性   来源:晓飞的算法工程笔记 公众号

PIoU Loss:倾斜目标检测专用损失函数,公开数据集Retail50K | ECCV 2020 Spotlight

2020-09-09
阅读 5 分钟
2.1k
论文提出从IoU指标延伸来的PIoU损失函数,能够有效地提高倾斜目标检测场景下的旋转角度预测和IoU效果,对anchor-based方法和anchor-free方法均适用。另外论文提供了Retail50K数据集,能够很好地用于评估倾斜目标检测算法的性能   来源:晓飞的算法工程笔记 公众号

简单的特征值梯度剪枝,CPU和ARM上带来4-5倍的训练加速 | ECCV 2020

2020-09-08
阅读 4 分钟
1.4k
论文通过DBTD方法计算过滤阈值,再结合随机剪枝算法对特征值梯度进行裁剪,稀疏化特征值梯度,能够降低回传阶段的计算量,在CPU和ARM上的训练分别有3.99倍和5.92倍的加速效果   来源:晓飞的算法工程笔记 公众号

Jigsaw pre-training:摆脱ImageNet,拼图式主干网络预训练方法 | ECCV 2020

2020-09-01
阅读 5 分钟
1.3k
Jigsaw pre-training以拼图的方式从检测数据集中生成用于主干网络预训练的数据集,而不需要额外的预训练数据集,如ImageNet。另外为了让网络更好的适应拼图数据,论文提出ERF-adaptive密集分类方法,能够很好地扩大预训练主干网络的有效感受域。整体而言,Jigsaw pre-training方便且高效,性能比使用ImageNet预训练模型...

DGC:真动态分组卷积,可能是解决分组特征阻塞的最好方案 | ECCV 2020 Spotlight

2020-08-18
阅读 5 分钟
1.6k
近期,动态网络在加速推理这方面有很多研究,DGC(Dynamic Group Convolution)将动态网络的思想结合到分组卷积中,使得分组卷积在轻量化的同时能够加强表达能力,整体思路直接清晰,可作为网络设计时的一个不错的选择   来源:晓飞的算法工程笔记 公众号

S2DNAS:北大提出动态推理网络搜索,加速推理,可转换任意网络 | ECCV 2020 Oral

2020-08-17
阅读 5 分钟
1.6k
S2DNAS最核心的点在于设计了丰富而简洁的搜索空间,从而能够使用常规的NAS方法即可进行动态推理网络的搜索,解决了动态推理网络的设计问题,可进行任意目标网络的转换  来源:晓飞的算法工程笔记 公众号

Gradient Centralization: 一行代码加速训练并提升泛化能力 | ECCV 2020 Oral

2020-08-06
阅读 5 分钟
1.5k
梯度中心化GC对权值梯度进行零均值化,能够使得网络的训练更加稳定,并且能提高网络的泛化能力,算法思路简单,论文的理论分析十分充分,能够很好地解释GC的作用原理   来源:晓飞的算法工程笔记 公众号