DeepLearning_Lec03 - 8BitsCoding/RobotMentor GitHub Wiki
Hypothesis๋ H(x)์ ๊ฐ์ด ์ฃผ์ด์ง๊ณ
cost(W, b) ํจ์๋ ์์ ๊ฐ์ด ์ฃผ์ด์ง๋ฉฐ ์ฐ๋ฆฌ๋ cost๋ฅผ ์ต์ํ ํ๋ คํ๋ค.
์ข ๋ ๋ฌธ์ ๋ฅผ ๊ฐ๋จํ ํด๋ณด์.
bias(b) ํ ์ ์์ ๊ณ costํจ์๋ฅผ ๋์ถํ๋ฉด ์์ ๊ฐ๋ค
์ ์์ ๋ฐํ์ผ๋ก cost๋ฅผ ์ต์ํ ํด๋ณด์
W์ ๋ฐ๋ฅธ cost๊ฐ์ ๊ทธ๋ํ๋ฅผ ๊ทธ๋ ค๋ณด์
๋ชฉํ๋ cost๊ฐ ์ต์๊ฐ ๋๋ ๊ฐ์ ์ฐพ๋ ๊ฒ์ด๋ค.
์ฌ๊ธฐ์ ๋ง์ด ์ฌ์ฉ๋๋ ์๊ณ ๋ฆฌ๋ฌ์ด Gradient descent algorithm
Gradient(๊ฒฝ์ฌ) descent(๋ด๋ ค๊ฐ๋) ์๊ณ ๋ฆฌ์ฆ = ๊ฒฝ์ฌ๋ฅผ ๋ฐ๋ผ ๋ด๋ ค๊ฐ๋ ์๊ณ ๋ฆฌ์ฆ
์ด๋ป๊ฒ ๊ณ์ฐํ๋?
๋ฏธ๋ถ์ ์์ํ๊ฒ ํ๊ธฐ ์ํด์ 1/2๋ฅผ ํ๊ณ ๋ฏธ๋ถ์ ์ํ
Gradient descent algorithm์ ์์ ๊ฐ์ด ์ ์ ํ ์ ์๋ค.
Convex function
์ต ์ ์ ์ด ์ค์ง ํ๋์ธ ํจ์ -> Gradient descent algorithm์์ ํญ์ ์ข์ ๊ฒฐ๊ณผ๋ฅผ ์ฐพ์ ์ ์์.
ํญ์ cost function์ ๋ชจ์์ด Convex function์ธ์ง๋ฅผ ํ์ธํด์ผํ๋ค.