딥러닝/모두를 위한 딥러닝 시즌1

[모두를 위한 딥러닝 시즌1] Lec04. Multi-Variable linear regression

CoGam 2024. 2. 7. 20:33
728x90

저번 시간까지는 선형회귀의 가설을

H(x) = Wx + b

의 1차식 형태로 세워서 살펴보았다.

 

또한 이때 해당하는 Cost function과

그 cost를 최소화시키는 Gradient Descent Algorithm에 대해서 알아보았다.

 

만약 변수가 x 하나가 아니고 여러개가 되면 어떻게 될까?

 

 

예를 들어, 3개의 시험을 본다면 3개의 변수를 가지게 된다.

 

 

 

H(x)의 가설 식을 다시 세워보자.

 

 

 

H(x)를 구했으면 저번 시간에 배운 MSE loss function을 통해 cost 식을 세워볼 수 있다.

 

여기까지가 변수가 여러개일 때 선형회귀의 기본적인 틀이다.

 

 

 

만약 무수히 많은 변수가 있다면 우리는 가설 식을 일자로 쭉 써봐야할까?

이때 Matrix, 행렬을 이용할 수 있다.

 

 

Matrix를 쓸 때 보통 column을 기준으로 쓰는 것이 default 이므로

H(X) = XT(X의 전치행렬) W

로 쓰는 경우도 있으니 헷갈리지 말자.

 

또 하나 유의할 점은 dot product를 수행할 때 

[5,3] * [3,1] = [5,1] 의 예시를 보면 알 수 있듯이

[행1,열1] * [행2, 열2] = [행1, 열2] 에서

(편의상 *는 dot product를 나타낸다)

열1 = 행2 가 되어야 dot product가 성립될 수 있다는 것을 주의해야한다.

반응형