모든 강의내용은 김성훈 교수님의 ‘모두를 위한 딥러닝’을 기반으로 한다. 저번 시간에는 cost function 중 결과값과 예측값의 오차를 제곱하는 MSE loss function을 배웠다. lec03에서는 이 cost를 어떻게 최소화 할 수 있는지를 알아본다. 이전에는 weight과 cost 두 가지의 변수를 가지는 hypothesis 배웠다. 하지만 이번 강의에서는 cost 최소화를 위해 hypothesis를 bias가 없는 형태로 단순화하여 배운다. 이전에 배웠던 데이터를 이용해본다. 위의 단순화된 가설을 이용하여 W=0, W=1, W=2 일 때 각각의 cost를 구해보자. 영상에는 나와있지 않지만 W=2일 때도 계산을 해보면 cost = 4.67이 된다. x축을 W, y축을 cost로 두고 그래..