본문 바로가기
논문리뷰

Moire Pattern Removal via Attentive Fractal Network (CVPR Workshop 2020) top 2 in Track2 NTIRE 2020

by Park Hyun Kook 2020. 7. 8.

Moire Pattern Removal via Attentive Fractal Network (CVPR Workshop 2020) top 2 in Track2 NTIRE 2020

- Authors: Dejia Xu, Yihao Chu, Qingyan Sun

 

-본 논문에서는 영상의 Moire artifact 제거하기 위해 AFN(Attentive Fractal Network) 제안한다. AFN Encoder, AFB(Attentive Fractal Block), Decoder, Global Residual Learning 4가지로 구성된다. 이를 도식화하면 아래 equation 1 같다.

 

Figure 1:  제안하는  AFN 의  architecture

 

Equation 1: AFN  도식화

-모아레 이미지는 Encoder 통해 multi-channel feature map 되며 AFB 입력된다. Encoded feature AFB 통해 refinement되며 다시 Decoder 통해 3-channel image 되고 input image 다시 합하는 global residual learning 통해 네트워크를 안정화한다.

 

Figure 2:  High-level AFB 의  Architecture

-High-level AFB 각각 아래 Figure 3 Low-level AFB 구성된다. High-level AFB progressively feature fusion Channel Wise Attention 그리고 local residual learning으로 구성된다.

 

 1) Progressively feature fusion는 점진적으로 초기 단계의 intermediate feature들을 전달하고 제일 마지막에 모두 fuse한다. 동일한 levelfeature들을 fuse함으로 서로 다른 stage들의 풍부한 information들이 network의 학습에 도움을 준다.

 2) Channel Wise Attention은 과도한 양의 channel들이 network에 혼동을 줄 수 있기 때문에 SE(Squeeze and Excitation) block으로 adopt channel-wise attention을 진행한다. Learnable weight를 곱하며 fusion feature mapweightessentialfeature들에 초점을 두며 re-weight가 진행된다.

 3) Local Residual Learning network 안정화를 위해 사용된다.

 

 

Figure 3: Low-level AFB의 Architecture

-Low-level AFB convolution layer Leaky ReLU 지난다. 더불어 Local Shortcut 통해 network 부담을 경감시킬 있다.

 

 

- Progressive fusion of intermediate feature 통해 네트워크는 풍부한 information으로 성능이 향상되며, adopted attention mechanism 네트워크가 essential feature 초점을 맞추도록 가이드한다. 더불어 AFB 특징인 Residual in Residual(Residual Group Residual block 있는것) 통해 Network global structure high-frequency detail feature map 추출할 있다.

 

-Shortcut global, local residual connection gradient vanishing문제를 해결하고 네트워크가 중요 feature 학습하도록 돕는다.

댓글