일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 회귀
- sklearn
- 선형 회귀
- Deep learning
- data
- csv
- machine learning
- iris
- 강화학습
- Neural network
- convolutional neural network
- Logistic
- 딥 러닝
- 기울기 감소 알고리즘
- RL
- cost function
- 비용 함수
- CNN
- Sigmoid Function
- 정리
- Gradient descent algorithm
- Logistic regression
- 논리 회귀
- 시그모이드 함수
- Kaggle
- reinforcement learning
- Q-Learning
- regression
- 요약
- 합성곱 신경망
- Today
- Total
컴공돌이의 스터디 블로그
[시즌1].Lecture 04 - 여러개의 입력의 Linear Regression 본문
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다.
기본적인 Linear Regression
기본적인 Linear Regression(선형 회귀)의 Hypothesis(가설)은 으로 표현하고 여기서 사용하는 Cost Function(비용 함수)는 으로 표현합니다.
Multi-Variable Linear Regression
기본적인 Linear Regression은 1개의 입력 변수를 사용하는 Regression 입니다. 하지만 수많은 Linear한 현상들 중에서 1개의 변수에 따라 결과가 달라지는 것 보다는 여러개의 변수의 영향에 의해 결과가 달라지는 현상이 더 많습니다. 예를들어 학생이 1학기 동안 2번의 퀴즈와 1번의 중간고사를 보았는데 이 3개의 점수들을 가지고 기말고사의 성적을 예측하는 문제는 3개의 변수를 갖는 Linear Regression 입니다. 이렇듯 Multi-Variable Linear Regression(여러 변수를 갖는 선형 회귀)는 이름 그대로 여러개의 변수를 갖는 Linear Regression 이라고 할 수 있습니다.
Multi-Variable Linear Regression의 기본적인 개념은 일반 Linear Regression과 같습니다. 한가지 주의해야 할 점은 여러개의 변수를 갖기 때문에 각각의 변수마다 다른 W 값을 가져야 한다는 점 입니다. 이것을 유의해서 Multi-Variable Linear Regression의 Hypothesis를 적어보면와 같은 형태의 공식임을 확인할 수 있습니다. 물론 Hypothesis를 Cost Function에 대입하는 것도 같기 때문에 Multi-Variable Linear Regression의 Cost Function은 와 같은 형태의 공식임을 확인할 수 있습니다.
이것으로도 충분히 계산이 가능하지만 학습을 위한 Training Data Set이 많을 경우 Hypothesis를 일일이 적는것은 어렵습니다. 하지만 입력데이터와 W를 행렬의 형태로 둔다면 1개의 식만으로 모든 데이터의 가설을 표현할 수 있습니다. 위에서 살펴본 Multi-Variable Linear Regression의 Hypothesis는
인데 여기서 는 으로 표현이 가능 합니다.
즉, 라고 볼 수 있습니다.(간단하게 보기 위해 b 생략)
하지만 위의 식은 1개의 Training Data만을 표현한 것입니다. 이것을 m개의 데이터들 중에서 첫번째 데이터라고 생각하고 다시 표현한다면 로 바꿀수 있고 m개의 모든 데이터들을 전부 이 배열식의 형태로 합치면 의 형태로 표현이 가능합니다.
즉, , 이고 가 m개의 Training Data Set의 Hypothesis 입니다.
* Summary *
1. Multi-Variable Linear Regression(여러 변수를 갖는 선형 회귀)는 이름 그대로 여러개의 변수를 갖는 Linear Regression 입니다.
2. Multi-Variable Linear Regression(여러 변수를 갖는 선형 회귀)의 Hypothesis(가설)은 으로 표현한다.
3. Multi-Variable Linear Regression(여러 변수를 갖는 선형 회귀)의 Cost Function(비용 함수)은 으로 표현한다.
4. m개의 Training Data Set의 Hypothesis(가설)은 , , 이고 으로 표현한다.
'강의 Study > 모두를 위한 머신러닝과 딥러닝 강의' 카테고리의 다른 글
[시즌1].Lecture 05_2 - Logistic Classification_Cost Function 소개 (0) | 2018.02.06 |
---|---|
[시즌1].Lecture 05_1 - Logistic Classification_Hypothesis 함수 소개 (0) | 2018.02.05 |
[시즌1].Lecture 03 - Linear Regression Cost Function 최소화 (0) | 2018.02.01 |
[시즌1].Lecture 02 - Linear Regression의 개념 (0) | 2018.01.31 |
[시즌1].Lecture 01 - Machine Learning의 개념과 용어 (3) | 2018.01.30 |