[DEEPNOID ์ํฌ์ธํธ๋ ์จ]_3_Classifcation 1. ResNet/DenseNet
220125 ์์ฑ
<๋ณธ ๋ธ๋ก๊ทธ๋ DEEPNOID ์ํฌ์ธํธ๋ ์จ์ ์ฐธ๊ณ ํด์ ๊ณต๋ถํ๋ฉฐ ์์ฑํ์์ต๋๋ค>
์ธ๊ณต์ง๋ฅ | Deepnoid
DEEPNOID๋ ์ธ๊ณต์ง๋ฅ์ ํตํ ์ธ๋ฅ์ ๊ฑด๊ฐ๊ณผ ์ถ์ ์ง ํฅ์์ ๊ธฐ์ ์ด๋ ์ผ๋ก ํ๊ณ ์์ต๋๋ค. ๋ฅ๋ ธ์ด๋๊ฐ ๊ฟ๊พธ๋ ์ธ์์, ์๋ฃ ์ธ๊ณต์ง๋ฅ์ด ์ง๊ธ๋ณด๋ค ํจ์ฌ ๋์ ๋ฒ์์ ์งํ์ ์ฐ๊ตฌ, ์ง๋จ, ์น๋ฃ์ ๋์
www.deepnoid.com
1. ResNet
: Deep residual learning for image recognition
: Very Deep networks utilsing residual connection (Up to 152 layers)
: Shortcut Connectionnnn
: Residual Learning
: ์ ๋ ฅ๊ฐ์ ์ถ๋ ฅ๊ฐ์ ๋ํด์ค ์ ์๋๋ก ์ง๋ฆ๊ธธ(shortcut)
: F(x) + x๋ฅผ ์ต์ํํ๋ ๊ฒ์ ๋ชฉ์
: x๋ ํ์์ ์์ ๋ณํ ์ ์๋ ๊ฐ
: F(x) = H(x) - x์ด๋ฏ๋ก F(x)๋ฅผ ์ต์๋ก ํด์ค๋ค๋ ๊ฒ์ H(x) - x๋ฅผ ์ต์๋ก ํด์ฃผ๋ ๊ฒ๊ณผ ๋์ผํ ์๋ฏธ
=> H(x) - x๋ฅผ ์์ฐจ(residual)
=> ์์ฐจ๋ฅผ ์ต์๋ก ํด์ฃผ๋ ๊ฒ์ด๋ฏ๋ก ResNet
=> Skip connection์ ์ฉํ์ฌ ๊ธฐ์ธ๊ธฐ์์ค๋ฌธ์ ํด๊ฒฐํ๋ฉด์, ๋งค์ฐ ๊น์ ๋คํธ์ํฌ(152Layer) ํ์ตํ์ฌ ์ฑ๋ฅ ์์น
2. DenseNet
: To further improve model compactness
: Dense Connectivity
: Composite Function (BN-ReLU-Conv)
: Polling Layers
: Growth Rate
: Bottleneck Layers
: Compression
- ์ฅ์
: gradeint ๋ฌธ์ ๊ฐ์
: eas of feature propagation, feature reuse
: Regluarization effect
: high parameter efficiency
=> ์งํ๋ Skip connection๊ณผ bottleneck layers๋ฅผ ์ ์ฉํ๋ฉด์, Feature๋ง ๊ฐ์ง ๋งค์ฐ ๊น์ ๋คํธ์ํฌ๋ฅผ ํ์ตํ์ฌ ์ฑ๋ฅ ์์น
1) Resnet์ Skip-connection์์ ๋ฐ์ ๋ Dense-connection
2) Densenet์ Bottleneck layers๋ฅผ ์ ์ฉ
: layer๋ง๋ค ๋ชจ๋ ์ด์ feature-map์ ์๋ก์ด feature-map์ ๊ณ์ concatenation
3) Transition Layer
๋ค์ด์ํ๋ง
: feature map์ ๊ฐ๋ก, ์ธ๋ก ์ฌ์ด์ฆ๋ฅผ ์ค์ฌ์ฃผ๊ณ feature map์ ๊ฐ์๋ฅผ ์ค์ฌ์ค
โ4) Classification Layer
fully connected layer๋ฅผ ์ฌ์ฉํ์ง ์์ผ๋ฉด์ ํ๋ผ๋ฏธํฐ ์ ๊ฐ์
์ข ๋ ์ฐธ๊ณ ํด์ ๊ณต๋ถํด๋ณด์์๋๋น
https://warm-uk.tistory.com/46
[CNN ๊ฐ๋ ์ ๋ฆฌ] CNN์ ๋ฐ์ , ๋ชจ๋ธ ์์ฝ์ ๋ฆฌ 2 (ResNet, DenseNet)
* ์ฐธ๊ณ ์๋ฃ ๋ฐ ๊ฐ์ - cs231n ์ฐ๋ฆฌ๋ง ํด์ ๊ฐ์ https://www.youtube.com/watch?v=y1dBz6QPxBc&list=PL1Kb3QTCLIVtyOuMgyVgT-OeW0PYXl3j5&index=6 - Coursera, Andrew Ng๊ต์๋ ์ธํฐ๋ท ๊ฐ์ * ๋ชฉ์ฐจ 1. ๋ชจ๋ธ ๋ฐ์ ..
warm-uk.tistory.com