본문 바로가기

분류 전체보기51

SQUEEZENET: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size SQUEEZENET: AlexNet-level accuracy with 50x fewer parameters and 16channel로 squeeze하고, 다시 1x1 conv에서 16->64 channel로 3x3 conv에서 16->64 channel로 만들어 이 2개의 결과를 concat하여 초기 input channel인 128과 동일하게 ouput channel을 만든다. 이러한 방식을 통하여 weight의 사이즈를 줄이면서 성능은 AlexNet과 동일하거나, 그 이상인 네트워크를 만들어 낼 수 있었다. 2020. 6. 1.
MoblieNets: Efficient Convolutional Neural Networks for Mobile Vision Application. MoblieNets: Efficient Convolutional Neural Networks for Mobile Vision Application. Authors: A. G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, M. Andreetto, and H. Adam. - 본 논문에서는 depthwise separable convolution과 2개의 hyper parameter을 통해 네트워크를 가볍게 설계하고, 이를 통해서 모바일이나 vision application에 쉽고 적합하게 적용될 수 있는 mobileNet을 제안했다. - 첫번째 기법인 depthwise separable convolution은 기존 normal convolut.. 2020. 6. 1.
Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave (CVPR 2020) Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave (CVPR 2020) Authors: Yunpeng Chen, Haoqi Fan, Bing Xu, Zhicheng Yan, Yannis Kalantidis, Marcus Rohrbach, Shuicheng Yan, Jiashi Feng - 본 논문에서는 Vanilla Convolution(가장 기본 Convolution)의 문제점인 spatial redundancy를 줄이기 위한 Octave Feature Representation과 Mix된 feature map을 low frequency, high frequency’s feature maps으로.. 2020. 6. 1.
Aggregated Residual Transformations for Deep Neural Networks (IEEE 2017) Aggregated Residual Transformations for Deep Neural Networks (IEEE 2017) Authors: Saining Xie, Ross Girshick, PiotrDollar, Zhuowen Tu, Kaiming He -본 논문에서는 동일한 block을 반복적으로 구성하여 더 적은 파라미터를 통해 성능을 향상시키는 ResNeXt을 제안한다. ResNext는 multi-branch ResNet의 형태를 가지며 기존 residual block의 activation의 순서를 변경하고 convolution filter의 수를 변화시켰다. 또한 cardinality라는 개념을 소개한다. Cardinality는 같은 형태의 블록의 개수를 의미한다. - 그림 1의 좌측이 R.. 2020. 6. 1.