본문 바로가기

논문리뷰35

C3NET: Demoireing Network Attentive in Channel, Color and Concatenation. (CVPRW 2020) NTIRE 2020 6th C3NET: Demoireing Network Attentive in Channel, Color and Concatenation. (CVPRW 2020) NTIRE 2020 6th - Authors: Sangmin Kim, Hyungjoon Nam, Jisu Kim, Jechang Jeong. -본 논문에서는 moire를 제거하기 위해 C3Net(Channel, Color, Concatenation)을 제안했다. 본 논문에서는 최근 우수한 성능을 보이는 attention mechanism(e.g. channel attention, spatial attention)에서 channel attention을 사용한다. 이는 moire를 제거하는 것은 color-related 문제이며, RGB채널 안의 정보가 모.. 2020. 7. 7.
ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design (CVPR 2018) ShuffleNet V2: Practical Guidelines for Efficient CNN Architecture Design (CVPR 2018) Authors: Ningning Ma, Xiangyu Zhang, Hai-Tao Zheng, Jian Sun - 본 논문에서는 현재까지 뉴럴 네트워크들은 연산량의 효율에 초점을 두고 efficient Network를 개발하고 있지만, 실제로 시간당 영상 처리나 속도를 비교했을 때 그러한 계산 연산량이 실제 처리 속도와 결과가 다르다는 것에 초점을 두었다. 이러한 차이는 이유는 몇가지 중요한 factor들이 연산량에는 포함되지 않기 때문이다. 예를 들어 memory access cost(메모리를 몇번 반복해서 들어가냐) 플랫폼(GPU,CPU) 등이 계산량.. 2020. 6. 4.
ShuffleNet: An Extremely Efficient Convolutional Neural Network for Moblie Devices (CVPR 2018) ShuffleNet: An Extremely Efficient Convolutional Neural Network for Moblie Devices (CVPR 2018) Authors: Xiangyu Zhang, Xinyu Zhou, Mengxiao Lin, Jian Sun - AlexNet 이후로 CNN 기반의 네트워크들이 성능 향상을 위해 깊고 큰 네트워크를 만들어왔다. 하지만 점점 방대한 크기의 네트워크를 만드는 것이 아닌 모바일 환경이나 임베디드 환경에 네트워크를 적용하기 위해, 네트워크 크기를 줄이면서 성능을 유지하는 네트워크들이 등장하기 시작했다. 본 논문에서는 state of the art Network들이 방대한 네트워크 구조와 계산량으로 제한된 자원에서 좋은 성능을 내지 못하는 것을 확인.. 2020. 6. 4.
SQUEEZENET: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size SQUEEZENET: AlexNet-level accuracy with 50x fewer parameters and 16channel로 squeeze하고, 다시 1x1 conv에서 16->64 channel로 3x3 conv에서 16->64 channel로 만들어 이 2개의 결과를 concat하여 초기 input channel인 128과 동일하게 ouput channel을 만든다. 이러한 방식을 통하여 weight의 사이즈를 줄이면서 성능은 AlexNet과 동일하거나, 그 이상인 네트워크를 만들어 낼 수 있었다. 2020. 6. 1.