DRLN [Kor]
(Description) Saeed Anwar, Nick Barnes / Densely Residual Laplacian Super-Resolution / IEEE 2019
1. Problem definition
์๋์ ์ผ๋ก ๋ฎ์ ํด์๋์ ์ด๋ฏธ์ง๋ฅผ ๋ณด๋ค ๋์ ํด์๋๋ก ๋ณต์ํ๋ ์์ ์ ์ดํด์ํ(Super-Resolution)๋ผ๊ณ ํ๋ค. ์ต๊ทผ ์๋ ๊ฐ, ์ดํด์ํ ์์ ์ ๊ณ ํด์๋ ์ด๋ฏธ์ง๋ฅผ ์ํ๋ ์์ ๋ค์ ์ํด ์ฐ๊ตฌ ์์๊ฐ ์ฆ๊ฐํ์๋ค. ์ด ๋ ผ๋ฌธ์์๋ ๋จ์ผ ์ ํด์๋ ์ด๋ฏธ์ง๋ฅผ ์ดํด์ํํ๋ ์์ ์ธ Single Image Super-Resolution (SISR)์ ๋ชฉํ๋ก ํ๋ค. ์ด๋ฏธ์ง ์ดํด์ํ๋ ์ ๋ ฅ๋๋ ์ ํด์๋ ์ด๋ฏธ์ง์ ๋์ํ๋ ๊ณ ํด์๋ ์ด๋ฏธ์ง ์ถ๋ ฅ์ ํฌ๊ธฐ๊ฐ ๋ฌ๋ผ์ 1๊ฐ์ ์ ์ผํ ํด๊ฐ ์กด์ฌํ๋ ๊ฒ์ด ์๋ ์ฌ๋ฌ ํด๊ฐ ์กด์ฌํ๊ฒ ๋๋ ๋ถ๋์กฐ๊ฑด๋ฌธ์ (ill-posed problem)๊ฐ ๋ฐ์ํ๋ค. ์ด๋ฌํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ์ฌ์ธต ์ปจ๋ณผ๋ฃจ์ ์ ๊ฒฝ๋ง(Deep Convolutional Neural Network,Deep CNN)์ด ์ ์ฉ๋์๊ณ ํ์ฌ๊น์ง ๋ง์ ์ข ๋ฅ์ ์๊ณ ๋ฆฌ์ฆ์ด ์ฐ๊ตฌ๋์ด ์๋ค. ์ด ๋ ผ๋ฌธ์์๋ ํ์กดํ๋ ์ดํด์ํ ๋ฅ๋ฌ๋ ์๊ณ ๋ฆฌ์ฆ๋ณด๋ค ๋ ์ ํํ๊ณ ์คํ ์๊ฐ์ด ๋น ๋ฅธ ๋ชจ๋ธ์ ์ฐ๊ตฌํ์๋ค.
2. Motivation
Related work
ํ์กดํ๋ ์ดํด์ํ๋ฅผ ์ํ Deep CNN ์๊ณ ๋ฆฌ์ฆ(SRCNN, RCAN ๋ฑ)์ ๋งค์ฐ ๋ณต์กํ ๊ตฌ์กฐ๋ฅผ ๊ฐ์ง๊ณ ์์ผ๋ฉฐ, ๋ณต์กํ(Deep) ๋คํธ์ํฌ์ผ ์๋ก ๊ธด ์คํ์๊ฐ์ ๋นํจ์จ์ ์ธ ๊ฒฐ๊ณผ๋ฅผ ๋ณด์ฌ์ค๋ค. ์ด์ ๋ฐ๋ผ ๋คํธ์ํฌ์ ๊น์ด๋ฅผ ์ค์ฌ ํจ์จ์ฑ์ ๋์ธ ๋ชจ๋ธ๋ค(DRCN, DRRN ๋ฑ)์ด ์ฐ๊ตฌ๋์๋ค. ํ์ง๋ง ์ด๋ฐ ๋ชจ๋ธ๋ค์ ์ด parameter์๋ ๊ฐ์ํ๋๋ผ๋ ์ด ์ฐ์ฐ๋์ ์ฆ๊ฐํ๊ฒ๋๋ ๋ฌธ์ ๋ฅผ ๊ฐ๊ณ ์๋ค. ๋ค์ด์ด ์ปจ๋ณผ๋ฃจ์ ๊ณ์ธต ๊ฐ์ denseํ ์ฐ๊ฒฐ์ ์ด์ฉํ SRDenseNet๊ณผ RDN, parameter ์์ ์ฐ์ฐ์๋๋ฅผ ๋ชจ๋ ์ต์ ํํ๊ธฐ ์ํด group ์ปจ๋ณผ๋ฃจ์ ์ ์ฌ์ฉํ CARN์ด ๋ฑ์ฅํ์ผ๋, ๋๋ถ๋ถ์ CNN ๋ชจ๋ธ์ ํ๋์ ์ค์ผ์ผ์ ์ฌ์ฉํ๊ฑฐ๋ ์ฌ๋ฌ ์ค์ผ์ผ์ ์ฌ์ฉํ๋๋ผ๋ ๊ฐ ์ค์ผ์ผ์ ๊ฐ์ค์น๋ฅผ ๋์ผํ๊ฒ ๋ถ์ฌํ๊ธฐ์ ๋ค์ํ ํด์๋์ ๋ฐ๋ฅธ ์ ์๋ ฅ์ด ๋จ์ด์ง๋ค.
Idea
์ดํด์ํ์ ์ ํ๋ ํฅ์์ ์ํด ์ ํด์๋์ ์ ๋ณด๋ฅผ ์ถฉ๋ถํ ์ด์ฉํ๋ ๋ฐฉ๋ฒ์ ์ ์ฉํ์๋ค.
Densely connected residual block์์๋ ์ฌ๋ฌ๋ฒ shortcut์ ์ฌ์ฉํ์ฌ ์๋ ์ด๋ฏธ์ง์ ์ ๋ณด๋ฅผ ํฌํจํ feature๋ฅผ ๋์์ ํ์ตํ๋ค.
Laplacian attention network๋ฅผ ํตํด ์ฌ๋ฌ ์ค์ผ์ผ์ feature ์ ๋ณด๋ฅผ ํ์ตํ๋ฉฐ, ๋ชจ๋ธ๊ณผ feature ์ฌ์ด์ ์์กด๋๋ฅผ ํ์ตํ๋ค.
3. Method
๋คํธ์ํฌ ๊ตฌ์กฐ
์ฌ์ฉ๋ ๋คํธ์ํฌ๋ ํฌ๊ฒ 4๊ฐ์ ๊ตฌ์กฐ(Feature ์ถ์ถ, Residual ๊ตฌ์กฐ ์ฐ์ ์งํ, Upsampling, ์ด๋ฏธ์ง ์ฌ๊ตฌ์ฑ)๋ก ์ด๋ฃจ์ด์ ธ ์๋ค.
์ ์ฒด ์์ค ํจ์๋ N๊ฐ์ batch์์ ์ถ๋ ฅ ์ด๋ฏธ์ง ํ๋ ฌ๊ณผ ๋ผ๋ฒจ ์ด๋ฏธ์ง ํ๋ ฌ์ ์ฐจ์ด๋ฅผ L1 norm์ ํตํด ๊ณ์ฐํ๋๋ฐ, ์ด๋ L1-์์ค ํจ์๋ฅผ ์ฌ์ฉํ๋ ๋ค๋ฅธ SOTA ๋ฐฉ๋ฒ๋ค๊ณผ ์๊ณ ๋ฆฌ์ฆ ์ฑ๋ฅ ๋น๊ต๋ฅผ ์ฉ์ดํ๊ฒ ํ๊ธฐ ์ํจ์ด๋ค.



Residual ๋ธ๋ก ์ฐ์ ์งํ ๋ถ๋ถ์ ์ฌ๋ฌ๊ฐ์ ์ฐ์ ๋ธ๋ก์ผ๋ก ์ด๋ฃจ์ด์ ธ ์๋ค. ๊ฐ ์ฐ์๋ธ๋ก์ ์ด์ ์ ๋ณด๋ฅผ ๊ฐ์ ธ์ค๋ ์ฌ๋ฌ skip-connection๋ค๊ณผ feature concatenation, ๊ทธ๋ฆฌ๊ณ dense residual Laplacian module(DRLM)๋ก ์ด๋ฃจ์ด์ ธ ์๋ค. ๊ทธ๋ฆฌ๊ณ ๊ฐ DRLM ๋ธ๋ก๋ค์ residual ์ ๋๋ค์ ์ด์ดํ ์ฐ๊ฒฐํ๋ ๋ถ๋ถ๊ณผ ์์ถํ๋ ๋ถ๋ถ, ๊ทธ๋ฆฌ๊ณ Laplacian pyramid attention ์ ๋์ผ๋ก ๊ตฌ์ฑ๋์ด ์๋ค.
Laplacian attention

Laplacian attention์ ์ฌ์ฉํ๋ฉด ์ด๋ฏธ์ง ์ดํด์ํ์ ํ์์ ์ธ feature๋ค ์ฌ์ด์ ๊ด๊ณ๋ฅผ ๋ ์ ์ ์ํ์ฌ ํ์ต ํจ๊ณผ๋ฅผ ์ฆ๊ฐ์ํจ๋ค.
์ ์ฒด ์ด๋ฏธ์ง์์์ ํต๊ณ๋ฅผ
์ ๋ ฅ๋ ์ ํด์๋ ์ด๋ฏธ์ง ํ๋ ฌ์ x, ํ์ตํ ๋์ ์ ๋ ฅ ์ด๋ฏธ์ง์ ํด๋นํ๋ ๊ณ ํด์๋ ๋ผ๋ฒจ ์ด๋ฏธ์ง ํ๋ ฌ์ y, ์ถ๋ ฅ๋๋ ์ดํด์ํ๋ ์ด๋ฏธ์ง ํ๋ ฌ์ \y^hat, convolution ๊ณ์ธต์ f, ๋น์ ํ ํ์ฑํํจ์(ReLU)๋ฅผ ฯ๋ผ๊ณ ํ์๋, feature ์ถ์ถ์์์ convolution layer๋ f_0=H_f(x)
์ด ๋ ผ๋ฌธ์์๋ ๊ฐ ์ฐ์ ๋ธ๋ก์ 3๊ฐ์ DRLM์ ์ฌ์ฉํ์๊ณ , ๊ฐ DRLM ์์ 3๊ฐ์ Residual ๋ธ๋ก์ 3x3
4. Experiment & Result
Experimental setup
ํ์ต ๋ฐ์ดํฐ์ : DIV2K, Flicker2K + ๋ฐ์ดํฐ augmentation(๋๋ค ํ์ ) ํ ์คํธ ๋ฐ์ดํฐ์ : SET5, SET14, URBAN100, B100, MANGA109 + ์ด๋ฏธ์ง degradation(Bicubic, blur) ํ๊ฐ ๋ฐฉ๋ฒ: YCbCr ์๊ณต๊ฐ์์ ๋ฐ๊ธฐ ์ฑ๋์ PSNR๊ณผ, SSIM ๋น๊ต ๋น๊ต๊ตฐ: SOTA CNN ์๊ณ ๋ฆฌ์ฆ - SRCNN, FSRCNN, VDSR, SCN, SPMSR, LapSRN, MSLapSRN, MemNet, EDSR, SRMDNF, D-DBPN, IRCNN, RDN, RCAN, CARN
batch: 16 ์ ํด์๋ ์ ๋ ฅ ์ด๋ฏธ์ง ํฌ๊ธฐ: 48 X 48 ์ต์ ํํจ์: ADAM(ฮฒ1=0.9, ฮฒ2=0.999, ฮต=10e-08) Learning rate: ์ฒ์์ 10e-04, ๋งค 2x10e05 ๋ฐ๋ณต๋ง๋ค ์ ๋ฐ์ผ๋ก ๊ฐ์ ํ๋ ์์ํฌ: PyTorch GPU: Tesla P100
Result


5. Conclusion
๋ณธ ๋ ผ๋ฌธ์์๋ ๋์ ์ ํ๋์ ์ด๋ฏธ์ง ์ดํด์ํ ์์ ์ ์ํ ๋ชจ๋ํ๋ CNN์ ์ ์ํ์๋ค. ์ดํด์ํ์ ์ฑ๋ฅ์ ๊ฐํํ๊ธฐ ์ํด ์ฌ๋ฌ ์์๋ฅผ ์ ์ฉํ์๋ค.
Long skip connection, short skip connection, local connection์ ์ด์ฉํด residual ๊ตฌ์กฐ๋ฅผ ๋ง๋ค๊ณ ๊ทธ ๊ตฌ์กฐ๋ฅผ ์ฐ์์ ์ผ๋ก ์งํํ๋ ๋ฐฉ๋ฒ์ ์ฑ์ฉํจ์ผ๋ก์จ, ์ ํด์๋์ ์ ๋ณด์ ํ๋ฆ์ ์ด์ฉํด ๋คํธ์ํฌ๊ฐ ๊ณ ํด์๋, ์ค๊ฐ ํด์๋์ ์ ๋ณด๋ฅผ ํ์ตํ ์ ์๋๋ก ํ์๋ค.
Feature๋ฅผ ๊ณ์ฐํ๋๋ฐ ์ฌ์ฉํ residual ๋ธ๋ก์ ๋ฐ์ ํ๊ฒ ์ฐ๊ฒฐํ์ฌ ์๋ฌต์ ์ธ "deep supervision"๊ณผ ๋์ ๋จ๊ณ์ ๋ณต์กํ feature๋ค๋ก๋ถํฐ์ ํ์ต ๋ฑ์ ์ฅ์ ์ ๊ฐ๊ฒ ๋์๋ค.
Laplacian attention์ ์ด์ฉํ์ฌ ์ฌ๋ฌ ์ค์ผ์ผ์์์ ์ฃผ์ feature๋ฅผ ์์ฑํ๊ณ ๊ฐ feature map ์ฌ์ด์ ์์กด๋๋ฅผ ํ์ตํ ์ ์๊ฒ ํ์๋ค.
์ค๊ณ๋ ๋คํธ์ํฌ์ ๋ํด ์ข ํฉ์ ์ธ ํ๊ฐ๋ฅผ ๋ถ์ํ์ฌ ์ฑ๋ฅ์ ์ ์ฆํ์๋ค. ๋ ธ์ด์ฆ๋ฅผ ๊ฐ๋ ์ ํด์๋ ์ด๋ฏธ์ง๋ค๊ณผ unknown blur downsampling์ ๊ฑฐ์น ์ค์ ์ด๋ฏธ์ง๋ฅผ ํฌํจํ ์ดํด์ํ ๋ฐ์ดํฐ์ ์ ์ด์ฉํ์ฌ ๋ชจ๋ธ ์ฑ๋ฅ์ ํ๊ฐํ์๋ค. Bicubic ๋ฐ์ดํฐ์ ๊ณผ blur-down kernel์ ๋ํ ๊ฒฐ๊ณผ๋ฅผ ํตํด ๋ชจ๋ธ ํจ์จ์ฑ์ ์ ์ฆํ ์ ์์๊ณ , ๊ฐ๊ธฐ ๋ค๋ฅธ ๋ฐฉ๋ฒ์ผ๋ก ์ดํด์ํํ ์ด๋ฏธ์ง๋ค์ ๋ํด ๊ฐ์ฒด์ธ์ ์ฑ๋ฅ์ ๋ถ์ํ์๋ค. ์ด ๋ ผ๋ฌธ์์๋ ์ดํด์ํ์ ๋ํ DRLN ๋ชจ๋ธ ์ฑ๋ฅ์ ๋ถ์ํ์ง๋ง, ์ฌ์ฉ๋ ๋ฐฉ๋ฒ์ด ์ผ๋ฐ์ ์ด๊ธฐ์ ์ด๋ฏธ์ง ๋ณต์, ํฉ์ฑ, ๋ณํ ๋ฑ์ ๋ค๋ฅธ low-level ๋น์ ์์ ์๋ ์ ์ฉํ ์ ์์ ๊ฒ์ด๋ผ ๊ธฐ๋ํ๋ค. ์ ์ฉ๋ ์์ค ํจ์๋ L1 norm์ ์ด์ฉํ ๋ฐฉ๋ฒ์ด์๋๋ฐ, ์ด๋ Residual ๋ธ๋ก ์ฐ์ ์งํ๊ณผ Laplacian attention ์๊ณ ๋ฆฌ์ฆ์ ์ฑ๋ฅ ๋ณํ๋ฅผ ๋ณด๊ธฐ ์ํจ์ด์๋ค. ๋ค๋ฅธ ์์ค ํจ์๋ฅผ ์ ์ฉํ์๋์ ๊ฒฐ๊ณผ๊ฐ ๊ธฐ๋๊ฐ ๋๋ค. ๋ํ ์ ๋ ฅ ์ด๋ฏธ์ง๋ฅผ ๋๋์ด์ ๋ชจ๋ธ์ ํต๊ณผ์ํค๊ณ ๋ค์ ํฉ์น๋ ์์ ์ ํ๋ฉด ์คํ์๋์ ์ ํ๋์ ํฅ์์ด ๋ ํด ๊ฒ์ผ๋ก ๋ณด์ธ๋ค.
Take home message (์ค๋์ ๊ตํ)
All men are mortal.
Socrates is a man.
Therefore, Socrates is mortal.
Author / Reviewer information
Author
์ค์์ค (Sangyoon Oh)
Affiliation (KAIST Mechanical Engineering)
E-mail: bulsajyo@kaist.ac.kr
Reviewer
Reference & Additional materials
S. Anwar and N. Barnes, "Densely Residual Laplacian Super-Resolution" in IEEE Transactions on Pattern Analysis & Machine Intelligence, vol. , no. 01, pp. 1-1, 5555.
https://github.com/saeed-anwar/DRLN
Citation of related work
Other useful materials
...
Last updated
Was this helpful?