반응형
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- RL
- 합성곱 신경망
- sklearn
- csv
- cost function
- Logistic regression
- 강화학습
- Q-Learning
- Kaggle
- 요약
- Neural network
- Deep learning
- 선형 회귀
- Gradient descent algorithm
- data
- reinforcement learning
- 논리 회귀
- 시그모이드 함수
- 정리
- 기울기 감소 알고리즘
- convolutional neural network
- machine learning
- 딥 러닝
- 회귀
- Sigmoid Function
- Logistic
- CNN
- regression
- iris
- 비용 함수
Archives
- Today
- Total
목록miniMIZE (1)
컴공돌이의 스터디 블로그
[시즌1].Lecture 03 - Linear Regression Cost Function 최소화
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression Cost Function(선형 회귀에서의 비용 함수) Linear Regression(선형 회귀)은 직선적 관계를 가지고 있기 때문에 Hypothesis(가설)은 1차 방정식인 으로 표현할수 있습니다. 그리고 Linear Regression에서 사용하는 Cost Function(비용 함수)는 모든 x에서의 실제 값 y와 예측한 값 H(x)간의 거리들의 제곱값을 모두 더한 입니다. 일반적인 경우에는 W와 b를 변수로 가지고 있는 Cost Function을 사용하지만, 계산을 최대한 간단하게 해보기 위해서 Hypothesis를 로 간략화한 뒤 에 ..
강의 Study/모두를 위한 머신러닝과 딥러닝 강의
2018. 2. 1. 15:00