반응형
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- regression
- Neural network
- 딥 러닝
- cost function
- Kaggle
- 선형 회귀
- csv
- machine learning
- Gradient descent algorithm
- iris
- Q-Learning
- CNN
- 기울기 감소 알고리즘
- Sigmoid Function
- reinforcement learning
- 정리
- 회귀
- 비용 함수
- Logistic
- 강화학습
- data
- RL
- convolutional neural network
- 논리 회귀
- sklearn
- 요약
- Logistic regression
- 시그모이드 함수
- 합성곱 신경망
- Deep learning
Archives
- Today
- Total
목록최소화 (1)
컴공돌이의 스터디 블로그
[시즌1].Lecture 03 - Linear Regression Cost Function 최소화
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression Cost Function(선형 회귀에서의 비용 함수) Linear Regression(선형 회귀)은 직선적 관계를 가지고 있기 때문에 Hypothesis(가설)은 1차 방정식인 으로 표현할수 있습니다. 그리고 Linear Regression에서 사용하는 Cost Function(비용 함수)는 모든 x에서의 실제 값 y와 예측한 값 H(x)간의 거리들의 제곱값을 모두 더한 입니다. 일반적인 경우에는 W와 b를 변수로 가지고 있는 Cost Function을 사용하지만, 계산을 최대한 간단하게 해보기 위해서 Hypothesis를 로 간략화한 뒤 에 ..
강의 Study/모두를 위한 머신러닝과 딥러닝 강의
2018. 2. 1. 15:00