본문 바로가기
논문리뷰

Aggregated Residual Transformations for Deep Neural Networks (IEEE 2017)

by Park Hyun Kook 2020. 6. 1.

Aggregated Residual Transformations for Deep Neural Networks (IEEE 2017)

  Authors: Saining Xie, Ross Girshick, PiotrDollar, Zhuowen Tu, Kaiming He

-본 논문에서는 동일한 block 반복적으로 구성하여 적은 파라미터를 통해 성능을 향상시키는 ResNeXt 제안한다. ResNext multi-branch ResNet 형태를 가지며 기존 residual block activation 순서를 변경하고 convolution filter 수를 변화시켰다. 또한 cardinality라는 개념을 소개한다. Cardinality 같은 형태의 블록의 개수를 의미한다.

 

그림  1.  좌측  ResNet,  우측  ResNeXt

- 그림 1 좌측이 ResNet이며 우측이 ResNeXt이다. 그림에서 처럼 residual block 여러 것을 확인할 있다.

 

그림  2. (a) Aggregated residual transformation  누적   잔차 , (b) (a) 보다  concatenate 을   빨리   한다 , (c) (a),(b) 와   동일한   그룹화된  conv

- 그림 2 같이 3가지 ResNeXt 모델을 제안했다. ResNeXt residual block 모든 block path마다 동일한 구조를 가지고 dimension 모두 동일하기 때문에 사용하기 편리하다는 장점 또한 가진다.

댓글