😎 κ³΅λΆ€ν•˜λŠ” μ§•μ§•μ•ŒνŒŒμΉ΄λŠ” μ²˜μŒμ΄μ§€?

[Deep Learning]_1_λ¨Έμ‹ λŸ¬λ‹ μˆ˜ν•™ λ³Έλ¬Έ

πŸ‘©‍πŸ’» 인곡지λŠ₯ (ML & DL)/ML & DL

[Deep Learning]_1_λ¨Έμ‹ λŸ¬λ‹ μˆ˜ν•™

μ§•μ§•μ•ŒνŒŒμΉ΄ 2022. 1. 28. 00:05
728x90
λ°˜μ‘ν˜•

220128 μž‘μ„±

<λ³Έ λΈ”λ‘œκ·ΈλŠ” λ‘μš°μš°λΆ€λ‹˜μ˜ λ”₯λŸ¬λ‹ μž…λ¬Έ λΈ”λ‘œκ·Έλ₯Ό μ°Έκ³ ν•΄μ„œ κ³΅λΆ€ν•˜λ©° μž‘μ„±ν•˜μ˜€μŠ΅λ‹ˆλ‹€>

https://doooob.tistory.com/189

 

[λ”₯λŸ¬λ‹ μž…λ¬Έ - 2] λ¨Έμ‹  λŸ¬λ‹μ— μ‚¬μš©λ˜λŠ” μˆ˜ν•™

λ‹€μŒ μž₯λΆ€ν„° 3νšŒμ— 걸쳐 λ”₯λŸ¬λ‹μ„ ν¬ν•¨ν•œ λ¨Έμ‹  λŸ¬λ‹μ— ν•„μš”ν•œ μˆ˜ν•™μ˜ 기초둜 'λ―ΈλΆ„', 'μ„ ν˜• λŒ€μˆ˜ν•™', 'ν™•λ₯  톡계'의 3가지에 λŒ€ν•œ μš”μ μ„ 짧게 μ†Œκ°œν•˜κ² μŠ΅λ‹ˆλ‹€. κ·Έ 전에, 이 μž₯μ—μ„œλŠ” 기계 ν•™μŠ΅(mach

doooob.tistory.com

 

 

 

 

 

 

 

1. 기계 ν•™μŠ΅μ΄λž€?

: 주어진 λ°μ΄ν„°μ—μ„œ μ•Œ 수 μ—†λŠ” 데이터에 λŒ€ν•˜μ—¬ νŠΉμ • κ·œμΉ™μ΄λ‚˜ νŒ¨ν„΄μ„ μΆ”μΆœν•˜κ³ , 이λ₯Ό λ°”νƒ•μœΌλ‘œ λ―Έμ§€μ˜ 데

이터λ₯Ό λΆ„λ₯˜ν•˜κ±°λ‚˜ 예츑

 

 

2. 지도 ν•™μŠ΅

: λ¬Έμ œμ— λŒ€ν•œ 닡이 있고, μ˜ˆμƒλœ 응닡과 μ‹€μ œ μ‘λ‹΅μ˜ 간극이 μž‘μ•„μ§„λ‹€

AI ·

κ°€λ‘œμΆ• x, μ„Έλ‘œμΆ• t

인곡지λŠ₯/λ”₯λŸ¬λ‹ Tutorial

: 주어진 λ°μ΄ν„°μ—μ„œ 관계λ₯Ό μ˜ˆμƒν•˜λ©° λ―Έμ§€μ˜ 데이터에 λŒ€ν•΄ 쒋은 전망 μ„Έμš°κΈ°

 

 

 

 

2.1 직선에 μ˜ν•œ 근사

f(x) = wx + b

 

: input x κ°€ 주어지면 ν•˜λ‚˜μ˜ 좜λ ₯을 λ°˜ν™˜

: 기울기 w 와 절편 b 의 λ‘κ°œ νŒŒλΌλ―Έν„°λ‘œ 이뀄짐

: 겹쳐 보면 음 λ³„λ‘œ 관계가 이뻐보이지 μ•ŠλŠ”λ‹€

: wκ³Ό bλ₯Ό 잘 κ²°μ •ν•˜μ—¬ λΉ¨κ°„ 점에 μ΅œλŒ€ν•œ κ·Όμ ‘ν•œ 직선을 찾을 수 μžˆλ‹€λ©΄ μƒˆλ‘œμš΄ x κ°€ μ£Όμ–΄μ§ˆ λ•Œ t κ°’ 예츑 κ°€λŠ₯

=> λ―Έμ§€μ˜ 데이터에 λŒ€ν•΄μ„œ μ •λ°€ν•˜κ²Œ 예츑이 κ°€λŠ₯ν•œ 것을 μΌλ°˜ν™” μ„±λŠ₯(generalizability)이 λ†’λ‹€

 

: λ§€κ°œλ³€μˆ˜λ₯Ό μ‚¬μš©ν•˜μ—¬ μ–΄λ–€ 계산을 μ‹€μ‹œ, 즉 주어진 λ°μ΄ν„°μ˜ νŠΉμ§•κ³Ό 관계성을 λ‚˜νƒ€λ‚΄λŠ” 것을 λͺ¨λΈ(model)이라 λΆ€λ₯΄μž

 

 

 

2.2 λͺ©μ  ν•¨μˆ˜

: 쒋은 νŒŒλΌλ―Έν„°λ₯Ό μžλ™μœΌλ‘œ μ°Ύμ•„λ‚΄κΈ° μœ„ν•΄μ„œλŠ” 무엇이 쒋은 맀개 λ³€μˆ˜μΈκ°€ ! μ§€ν‘œλ₯Ό μ •μ˜

: μ§€ν‘œλ₯Ό λ‚˜νƒ€λ‚΄λŠ” ν•¨μˆ˜λ₯Ό λͺ©μ  ν•¨μˆ˜(objective function)

 

 f(x) = wx + b

: x λ₯Ό μž…λ ₯ λ³€μˆ˜ (input variable)

: y λ₯Ό 좜λ ₯ λ³€μˆ˜ (output variable)

: 식에 주어진 ꡬ체적인 x 값을 μž…λ ₯κ°’ (input value)

: 맀개 λ³€μˆ˜ x, b λ₯Ό μ΄μš©ν•œ 계산 결과둜 μ–»μ–΄μ§€λŠ” ꡬ체적인 y 값을 μ˜ˆμΈ‘κ°’ (predicted value)

: λΉ¨κ°„ 점이 κ°–λŠ” t, μ˜ˆμΈ‘ν•˜κ³ μžν•˜λŠ” λͺ©ν‘œκ°’ (target value)

 

=> λͺ©μ ν•¨μˆ˜λŠ” λͺ¨λΈμ˜ μ˜ˆμΈ‘κ°’κ³Ό λͺ©ν‘œκ°’을 λ°›κ³  κ·Έ μ‚¬μ΄μ˜ μ°¨λ₯Ό μΈ‘μ •ν•˜μ—¬ λ°˜ν™˜

=> 차이가 μž‘μ„ 수둝 λͺ¨λΈμ˜ 예츑이 λ§žλ‹€ ( μ΅œμ†Œν™”ν•˜λŠ” νŒŒλΌλ―Έν„° μ°ΎκΈ° )

 

 

 

 

 

2.3 제곱 였차 ν•¨μˆ˜

ex) μ’Œν‘œκ°’ (x, t) λ₯Ό 200 개 μžˆλ‹€

x1, x2, --- x200 (μž…λ ₯κ°’) μ—μ„œ t1, t2, --- t200 (λͺ©ν‘œκ°’) 을 μ˜ˆμΈ‘ν•΄μ•Όν•¨

 

: f(x) = wx + b에 μ˜ν•œ 예츑치 yλ₯Ό κ³„μ‚°ν•œ κ²°κ³Ό, y1, y2, ---, y200 μ–»μŒ

: 예츑치의 정확도λ₯Ό, ν•΄λ‹Ή λͺ©ν‘œκ°’ μ‚¬μ΄μ˜ 차이의 μ˜ν•΄ μΈ‘μ • => 제곱 였차 ν•¨μˆ˜ (squared error function)

: n 개의 μ˜ˆμΈ‘κ°’μ„ yn, λͺ©ν‘œμΉ˜λ₯Ό tn 이라 ν•˜λ©΄

n의 데이터에 λŒ€ν•œ μ˜ˆμΈ‘κ°’κ³Ό λͺ©ν‘œκ°’μ˜ 차이

: λ§Žμ€ 데이터에 λŒ€ν•΄ μ˜ˆμΈ‘μ„ ν•˜κΈ° μœ„ν•΄μ„œλŠ” 제곱 였차λ₯Ό ν•©ν•˜κ³  ν‰κ· μœΌλ‘œ νŒλ‹¨

평균 제곱 였차

=> 평균 제곱 였차 (mean squared error) : 연속 값을 예츑 (νšŒκ·€μ—μ„œ 많이 μ“°μž„)

: 예츑 κ°’κ³Ό λͺ©ν‘œ 값이 λͺ¨λ‘ nμ—μ„œ μ™„μ „νžˆ μΌμΉ˜ν•  λ•Œ 0, κ·Έμ™Έ λ°˜λ“œμ‹œ μ–‘μˆ˜

 

 

 

 

 

2.4 λͺ©μ  ν•¨μˆ˜ μ΅œμ ν™”

: ν•¨μˆ˜λ₯Ό μ΅œμ†Œν™”ν•˜λŠ” μž…λ ₯ λ³€μˆ˜κ°’μ„ κ΅¬ν•˜λŠ” 것을 μ΅œμ ν™”

μž…λ ₯값을 λ„£κ³ , κ·Έ 값이 μž‘μ•„μ§€λŠ” λ°©ν–₯으둜 μ‘°κΈˆμ”© 움직이기

 

 

 

 

 

 

2.5 기계 ν•™μŠ΅μ— μ‚¬μš©λ˜λŠ” μˆ˜ν•™

: μ΅œμ ν™”λ₯Ό μˆ˜ν–‰ν•˜λŠ”λ° ν•„μš”ν•œ 것은 λ―ΈλΆ„ (differential)

: μž…λ ₯값을 μ–Όλ§ˆλ‚˜ 움직이면 좜λ ₯값이 μž‘μ•„μ§ˆκΉŒ~~~??

 

 

 

 

728x90
λ°˜μ‘ν˜•
Comments