😎 κ³΅λΆ€ν•˜λŠ” μ§•μ§•μ•ŒνŒŒμΉ΄λŠ” μ²˜μŒμ΄μ§€?

[AI]_21_κ³Όν•™μŠ΅ 막기! λ³Έλ¬Έ

πŸ‘©‍πŸ’» 인곡지λŠ₯ (ML & DL)/AI

[AI]_21_κ³Όν•™μŠ΅ 막기!

μ§•μ§•μ•ŒνŒŒμΉ΄ 2022. 3. 27. 21:44
728x90
λ°˜μ‘ν˜•

 220327 μž‘μ„±

<λ³Έ λΈ”λ‘œκ·ΈλŠ” λ‘μš°μš°λΆ€λ‹˜μ˜ μ•ŒκΈ°μ‰¬μš΄ AI λΈ”λ‘œκ·Έλ₯Ό μ°Έκ³ ν•΄μ„œ κ³΅λΆ€ν•˜λ©° μž‘μ„±ν•˜μ˜€μŠ΅λ‹ˆλ‹€>

https://doooob.tistory.com/88?category=825950 

 

[μ•ŒκΈ°μ‰¬μš΄ AI - 21] κ³Όν•™μŠ΅μ„ β€‹β€‹λ§‰λŠ” 방법

μ‹œμž‘ν•˜κΈ° μΈκ°„μ—κ²ŒλŠ” ego와 업보가 μžˆλ“―μ΄, 기계 ν•™μŠ΅μ—κ²ŒλŠ” κ³Όν•™μŠ΅ μ΄λΌλŠ” 것이 λΆ™μ–΄ λ‹€λ‹™λ‹ˆλ‹€. μˆ™λͺ…이라고 ν•  수 μžˆμ§€μš”. λ”°λΌμ„œ 졜근의 신경망 λΌμ΄λΈŒλŸ¬λ¦¬λŠ” κ³Όν•™μŠ΅μ„ λ°©μ§€ν•˜κΈ° μœ„ν•œ λͺ‡ 가지

doooob.tistory.com

 

 

 

 

 

 

 

1. μ •κ·œν™” (Regularization)

: κ³Όν•™μŠ΅μ˜ 원인은

νŠΉμ • ν•™μŠ΅ λ°μ΄ν„°λ‘œλ§Œ ν•™μŠ΅μ„ μ§€λ‚˜μΉ˜κ²Œ ν•΄μ„œ λ―Έμ§€μ˜ 데이터에 λŒ€ν•œ 였차(μΌλ°˜ν™” 였차)κ°€ μ—­μœΌλ‘œ 증가해 λ²„λ¦¬λŠ” 것

 

: μ •κ·œν™”λž€

 "극단적이라 μƒκ°λ˜λŠ” μ˜κ²¬μ€ 듣지 μ•ŠλŠ”λ‹€"

λͺ¨λΈμ„ λ³΅μž‘ν•˜κ²Œ ν•˜λŠ” κ°€μ€‘μΉ˜λŠ” κ·Έ 양에 λ”°λ₯Έ νŽ˜λ„ν‹°λ₯Ό λΆ€μ—¬ν•˜μ—¬ λͺ¨λΈμ΄ λ³΅μž‘ν•΄μ§€μ§€ μ•Šλ„λ‘ ν•˜λŠ” 것

 

- L1 κ·œλ²” μ •κ·œν™” (Lasso νšŒκ·€) : 극단적인 λ°μ΄ν„°μ˜ κ°€μ€‘μΉ˜λ₯Ό 0으둜 
- L2 κ·œλ²” μ •κ·œν™” (Ridge νšŒκ·€) : 극단적인 λ°μ΄ν„°μ˜ κ°€μ€‘μΉ˜λ₯Ό 0에 κ°€κΉκ²Œ 

 

 

νšŒκ·€ λΆ„μ„μ΄λž€?
: 'λ§Žμ€ 데이터λ₯Ό νŽΌμ³€μ„ λ•Œ κ·Έ 관계λ₯Ό λ‚˜νƒ€λ‚΄λŠ” μ„ (ν•¨μˆ˜)을 μ°ΎλŠ” 것'
: μ„ ν˜•(1μ°¨ ν•¨μˆ˜)둜 ν‘œμ‹œν•˜λ©΄ μ„ ν˜• νšŒκ·€μ΄μ§€λ§Œ, 2μ°¨ μ΄μƒμ˜ κ³‘μ„ μœΌλ‘œ λ‚˜νƒ€λ‚  λ•ŒλŠ” λΉ„μ„ ν˜• νšŒκ·€λ‘œ, κ·Έ 선을 'νšŒκ·€ 곑선'

normeμ΄λž€?
: 벑터 κ³΅κ°„μ—μ„œμ˜ 거리 κ°œλ…
: νšŒκ·€μ„ κ³Ό 점과의 거리

νšŒκ·€ 곑선

 

Q. μ •κ·œν™”μ™€ 일반 νšŒκ·€μ˜ 차이점은?

A. 일반 νšŒκ·€λŠ” λ°μ΄ν„°μ˜ 였차(ν”Œλ‘― μ„ κ³Όμ˜ 거리 : norme)λ₯Ό μ€„μ΄λŠ” μ‹μœΌλ‘œ 계산

A. norme의 크기에 관계없이 ν”Œλ‘―μ€ 영ν–₯도가 κ°™μŒ

A. μ •κ·œν™”λŠ” μ˜€μ°¨μ— λ”°λ₯Έ νŽ˜λ„ν‹°(κ°€μ€‘μΉ˜λ₯Ό 0 λ˜λŠ” 0에 κ°€κΉκ²Œ)λ₯Ό λΆ€μ—¬

 

 

=> 일반적인 νšŒκ·€λŠ” λΉ„상식적인 μ˜κ²¬λ„ ν‰λ“±ν•˜κ²Œ λ“£λŠ” κ²ƒ

=> μ •κ·œν™”μ˜ 경우 κ±°κΈ°μ— λ”ν•˜μ—¬ λΉ„μƒμ‹μ˜ 정도에 따라 λ¬΄μ‹œν•˜κ±°λ‚˜(L1)반만 λ“£λŠ”(L2) 

 

 

 

 

 

 

 

2. λ“œλ‘­μ•„μ›ƒ(Drop out)

: "랜덀으둜 λ…Έλ“œλ₯Ό λΉ„ν™œμ„±ν™”ν•˜μ—¬ ν•™μŠ΅" μ²˜λ¦¬

ex) νšŒκ·€ κ³‘μ„ μœΌλ‘œ λ§ν•˜λ©΄, ν”Œλ‘―μ„ λ°”νƒ•μœΌλ‘œ 선을 κΈ‹λŠ” λŒ€μ‹ μ— μ–΄λŠ 정도 μ„ λ³„λœ ν”Œλ‘―μ— λŒ€ν•˜μ—¬ νšŒκ·€μ„ μ„ κΈ‹λŠ” 것

λ“œλ‘­μ•„μ›ƒ

 

 

 

"기계 ν•™μŠ΅μ€ 같은 ν›ˆλ ¨ λ°μ΄ν„°μ—μ„œ μ—¬λŸ¬ 번 ν•™μŠ΅μ„ λ°˜λ³΅ν•œλ‹€λŠ” κ²ƒ" 

 

: λ“œλ‘­μ•„μ›ƒμ˜ μ›λ¦¬λŠ” ν•™μŠ΅ λ•Œλ§ˆλ‹€ λ¬΄μž‘μœ„λ‘œ λΉ„ν™œμ„±ν™”λ˜λŠ” λ…Έλ“œκ°€ μ„ νƒλ˜κΈ° λ•Œλ¬Έμ— 싀상은 같은데 맀번 λ‹€λ₯Έ κ°€μ€‘μΉ˜ 적용

 

앙상블 ν•™μŠ΅ (Ensemble learning) μ΄λž€?
: κ°œλ³„ ν•™μŠ΅ν•œ μ—¬λŸ¬ ν•™μŠ΅κΈ°λ₯Ό μœ΅ν•©μ‹œμΌœ μΌλ°˜ν™” λŠ₯λ ₯을 ν–₯μƒμ‹œν‚¨ κΈ°κ³„ν•™μŠ΅ 기술
ex) 기계 ν•™μŠ΅μ—μ„œ 자주 μ‚¬μš©λ˜λŠ” 랜덀 ν¬λ ˆμŠ€νŠΈλŠ” μ—¬λŸ¬ μ˜μ‚¬ κ²°μ • 트리의 κ²°κ³Όλ₯Ό ν‰κ· ν™”ν•˜λŠ” 앙상블 ν•™μŠ΅μ„ μ΄μš©ν•œ 방법

λ“œλ‘­μ•„μ›ƒμ€?
: ν•˜λ‚˜μ˜ ν•™μŠ΅κΈ°μΈλ° 맀번 λ¬΄μž‘μœ„λ‘œ λΉ„ν™œμ„±ν™” λ…Έλ“œλ₯Ό κ²°μ •ν•˜μ—¬ ν—ˆμœ„λ‘œ 앙상블 ν•™μŠ΅μ„ μ‹€μ‹œν•˜κ³  μžˆλŠ” 것

 

 

 

 

3. KλΆ„ν•  ꡐ차 검증(K-fold cross-validation)

데이터 집합을 K개둜 λ‚˜λˆ„μ–΄ 각각 ν•™μŠ΅ν•œ κ²°κ³Όλ₯Ό μ’…ν•©ν•΄μ„œ ν‰κ°€ν•˜λŠ” κ²ƒμœΌλ‘œ μΌμ’…μ˜ 앙상블 ν•™μŠ΅

: 평가λ₯Ό 높이기 μœ„ν•΄ μ—¬λŸ¬ 번 데이터λ₯Ό 돌린 κ²°κ³Ό(κ³Όν•™μŠ΅μ΄ λ˜μ§€ μ•Šμ„ μ •λ„λ‘œ) 졜고의 평가λ₯Ό 얻은 κ³³μ—μ„œ ν•™μŠ΅ 1이 끝남

K λΆ„ν•  ꡐ차 검증

 

 

Q. K λΆ„ν•  ꡐ차 검증은
ν…ŒμŠ€νŠΈ λ°μ΄ν„°λŠ” λ”°λ‘œ μ„€μ •ν•  ν•„μš”κ°€ μžˆμ„κΉŒμš”?
A. "YES"

 ν•™μŠ΅ 1 ~ ν•™μŠ΅ n의 각 νšŒμ „λ§ˆλ‹€ 평가 데이터 값이 높아지도둝 μ‘°μ •ν•˜λŠ” κ²ƒμ΄λ―€λ‘œ,
λ§ˆμ§€λ§‰μ— ν…ŒμŠ€νŠΈ λ°μ΄ν„°λ‘œ ν™•μΈν•˜μ§€ μ•ŠμœΌλ©΄ μ§„μ •ν•œ μ„±λŠ₯을 μΈ‘μ •ν•  수 μ—†μŒ

 

 

 

 

 

 

 

728x90
λ°˜μ‘ν˜•
Comments