-
[모두를 위한 딥러닝 시즌2][Lab 4] Multi variable linear regression모두를 위한 딥러닝 시즌2 2021. 10. 24. 15:21
이전까지는 One-variable(One-feature)에 대해서만 공부해봤다.
이번 시간에는 입력값(변수)이 여러 개인 Multi variable linear regression에 대해 알아보자.
Hypothesis(가설 함수)는 늘어난 변수(x)의 개수만큼 가중치(w)의 개수도 늘어난다.
만약 변수가 많이 늘어나게 되면 표현하는데 어려움이 있기 때문에
Hypothesis를 matrix로 표현을 바꿔서 입력한다.
행렬과 행렬의 곱 dot product
X := matrix x W := matrix w
dot product 연산에서는 앞 행렬의 열과 뒷 행렬의 행의 원소의 개수가 일치해야 하기 때문에 XW로 표현한다.
XW = [n×m] · [m×k] = [n×k] (n: 데이터 개수, m: 변수 개수, k: 출력 개수)
변수가 몇 개 든, data가 몇 개 든 H(x) = XW로 동일하게 나타낼 수 있다는 것이 matrix표현의 가장 큰 장점이다.
파이썬 코드 ↓
[5×3] 행렬 x(입력 값)와 [5×1] 행렬 y(출력 값) 데이터 입력은 이렇게 표현된다.
x는 각 배열에서 처음부터 뒤에서 2번째 까지 값을 받고, y는 각 배열에서 마지막 값이라는 뜻이다.
행렬 w의 행 개수와 행렬 x의 열의 개수가 같도록
w는 [3×1] 행렬로 만들어 준다.
출처
[모두를 위한 딥러닝 시즌2] - 유튜브 링크
☞ https://www.youtube.com/watch?v=qPMeuL2LIqY&list=PLQ28Nx3M4Jrguyuwg4xe9d9t2XE639e5C&index=2
'모두를 위한 딥러닝 시즌2' 카테고리의 다른 글
[모두를 위한 딥러닝 시즌2][Lab 6] Softmax Regression (0) 2021.10.27 [모두를 위한 딥러닝 시즌2][Lab 5] Logistic Regression (0) 2021.10.25 [모두를 위한 딥러닝 시즌2][Lab 3] Liner Regression and How to minimize cost (0) 2021.10.24 [모두를 위한 딥러닝 시즌2][Lab2] Simple Liner Regression (0) 2021.10.09 [모두를 위한 딥러닝 시즌2][Lab1] 기본적인 Machine Learning 의 용어와 개념 설명 (0) 2021.10.01