본문 바로가기
논문리뷰

Deep Pyramid Residual Networks. (CVPR 2017)

by Park Hyun Kook 2020. 6. 1.

Deep Pyramid Residual Networks. (CVPR 2017)

  Authors: Dongyoon Han, Jiwhan Kim, Junmo Kim.

- 본 논문에서는 ResNet downsampling 급격하게 변하는 feature map dimension 초점을 두었다. ResNet 경우 pooling layer에서 feature map size 절반으로 줄이고 feature map channel 2 늘리지만, 논문에서 제안한 pyramidnet 모든 layer에서 channel 수가 변하도록, 점차적으로 네트워크의 width 변화를 주었다.

Figure 1.  좌측  ResNet,  우측  PyramidNet

- 좌측 그림이 ResNet이며, 우측 그림이 PyramidNet이다. 파란색 선이 downsampling 일어나는 layer이다. 그림에서 처럼 좌측 ResNet downsampling시점에 성능이 급격하게 저하되는 것을 확인할 있다. 대조적으로 우측 pyramidnet 모든 layer에서 성능저하가 동일하다.

 

Figure 2. 좌측 PyramidNet 구조,  가운데 multiplicative방식, 우측 additive방식

- 기존의 네트워크는 downsampling layer 제외하고 다른 모든 layer에서 convolution filter수가 동일했다면, PyramidNet에서는 모든 layer에서 filter수를 증가시켜 점차적으로 width 늘리며 pyramid형태를 보인다.

 

- 그림 2 가운데와 우측 그림과 같이 PyramidNet에서 layer width 넓히는 방식은 2가지가 있다. 번째는 가운데 그림과 같이 multiplicative 방식으로 지수배로 늘린다. 번째는 우측 그림으로 additive 방식으로 전체 layer에서 얼마나 width 늘릴지 a 정하고, 이전 width 비해 a/N만큼 늘린다. N residual block 개수이다.

 

Figure 3. (a) original pre-activation ResNet, (b) pre-activation ResNets removing the first ReLU, (c) pre-activation ResNet with a BN layer after the final conv layer, (d) pre-activation ResNets removing the first ReLU with a BN layer after the final conv layer

- 또한 논문에서는 Residual block안에 ReLU 많으면 성능저하를 만들며, 그림 3 (b), (d) 같이 번째 ReLU 제거했다. 또한 이렇게 ReLU 제거하면 conv layer 사이에 non-linearity 사라져서 representation power 약해질수 있으므로 bathnormalization layer 하나 추가했다. 이는 그림 3 (d) 통해 확인할 있다.

댓글