일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- cost function
- 시그모이드 함수
- regression
- reinforcement learning
- Kaggle
- 요약
- 비용 함수
- Deep learning
- 딥 러닝
- machine learning
- convolutional neural network
- Sigmoid Function
- 회귀
- iris
- Logistic regression
- csv
- data
- 합성곱 신경망
- CNN
- 선형 회귀
- 정리
- sklearn
- 논리 회귀
- Gradient descent algorithm
- 강화학습
- 기울기 감소 알고리즘
- RL
- Neural network
- Logistic
- Q-Learning
- Today
- Total
목록선형 회귀 (3)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. 기본적인 Linear Regression 기본적인 Linear Regression(선형 회귀)의 Hypothesis(가설)은 으로 표현하고 여기서 사용하는 Cost Function(비용 함수)는 으로 표현합니다. Multi-Variable Linear Regression 기본적인 Linear Regression은 1개의 입력 변수를 사용하는 Regression 입니다. 하지만 수많은 Linear한 현상들 중에서 1개의 변수에 따라 결과가 달라지는 것 보다는 여러개의 변수의 영향에 의해 결과가 달라지는 현상이 더 많습니다. 예를들어 학생이 1학기 동안 2번의 퀴즈와 1번의 중간..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression Cost Function(선형 회귀에서의 비용 함수) Linear Regression(선형 회귀)은 직선적 관계를 가지고 있기 때문에 Hypothesis(가설)은 1차 방정식인 으로 표현할수 있습니다. 그리고 Linear Regression에서 사용하는 Cost Function(비용 함수)는 모든 x에서의 실제 값 y와 예측한 값 H(x)간의 거리들의 제곱값을 모두 더한 입니다. 일반적인 경우에는 W와 b를 변수로 가지고 있는 Cost Function을 사용하지만, 계산을 최대한 간단하게 해보기 위해서 Hypothesis를 로 간략화한 뒤 에 ..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression(선형 회귀) Regression(회귀)는 Machine Learning(머신 러닝)에서도 Training Data Set을 사용하는 Supervised Learning(지도 학습)의 한 종류입니다. 학생이 공부한 시간 x를 입력하여 학생의 시험 점수 y를 예측하는 것도 Regression이라고 할 수 있습니다. 그리고 이것을 좀더 세부적으로 살펴본자면 학생이 공부한 시간 x가 크면 클수록 학생의 시험 성적 y가 높은 경우가 많기 때문에 이것은 Linear(직선적) 성질을 갖는 Linear Regression(선형 회귀)이라고 분류할 수 있습니다..