일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- RL
- regression
- 합성곱 신경망
- Sigmoid Function
- reinforcement learning
- cost function
- 회귀
- Neural network
- data
- 선형 회귀
- Gradient descent algorithm
- sklearn
- 비용 함수
- machine learning
- CNN
- Q-Learning
- Logistic
- 요약
- 시그모이드 함수
- 기울기 감소 알고리즘
- iris
- Logistic regression
- 논리 회귀
- 강화학습
- csv
- convolutional neural network
- Deep learning
- 정리
- Kaggle
- 딥 러닝
- Today
- Total
목록비용 함수 (6)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Learning Rate(학습율) Machine Learning(기계 학습)에서 학습을 할때, Cost Function(비용 함수)의 최소지점을 찾기 위하여 Gradient Descent Algorithm(기울기 감소 알고리즘)을 많이 사용합니다. 이 Gradient Descent Algorithm의 공식 을 보면 Cost Function의 미분값에 를 곱한것을 볼 수 있습니다. 여기서 이 가 바로 Learning Rate(학습율)를 의미합니다. 이 Learning Rate는 적절한 수준의 값을 정하는 것이 매우 중요합니다. 왜냐하면 학습을 할때 만약 Learning Rate..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Softmax Regression(소프트맥스 회귀) Logistic Regression(논리 회귀)은 단순히 입력한 결과를 2가지 종류로 분류하는 것이라고 한다면 Softmax Regression(소프트맥스 회귀)은 여러개의 종류로 분류하는 것을 말합니다. Logistic Regression과 Softmax Regression은 기본적인 과정은 비슷하지만 가장 큰 차이점을 말하자면, Logistic Regression은 Hypothesis(가설)에서의 결과를 Sigmoid 함수를 통해 0과 1사이의 값으로 도출시킨 후 분류하고 Softmax Regression에서는 Sigmo..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Cost Function(비용 함수) Cost Function(비용 함수)은 대입하는데 사용되는 Hypothesis(가설)에 의해서 그래프의 모양이 결정됩니다. 예를들어 Linear Regression(선형 회귀)에서 사용되는 Hypothesis 를 Cost Function에 대입하면 임을 구할 수 있고 이 공식은 W에 대한 2차방정식의 형태라는 것을 알 수 있습니다. Logistic Cost Function(논리적 비용 함수) Logistic Regression(논리 회귀)에서는 새로운 Cost Function이 필요합니다. Linear Regression에서 사용하는 Co..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Regression(회귀) 일반화 Regression(회귀)의 Hypothesis(가설)을 일반화 해보면 으로 표현이 가능합니다. 일반화시킨 Hypothesis를 Cost Function(비용 함수)에 대입해서 를 도출하고, 이 새로이 도출한 Cost Function을 Gradient Descent Algorithm(기울기 감소 알고리즘)에 대입하여 일반화된 공식인 를 도출할 수 있습니다. Logistic Regression/Classification(논리 회귀/분류) Classification(분류)에서 가장 기본적인 것은 Binary Classification(이진 분류)..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression Cost Function(선형 회귀에서의 비용 함수) Linear Regression(선형 회귀)은 직선적 관계를 가지고 있기 때문에 Hypothesis(가설)은 1차 방정식인 으로 표현할수 있습니다. 그리고 Linear Regression에서 사용하는 Cost Function(비용 함수)는 모든 x에서의 실제 값 y와 예측한 값 H(x)간의 거리들의 제곱값을 모두 더한 입니다. 일반적인 경우에는 W와 b를 변수로 가지고 있는 Cost Function을 사용하지만, 계산을 최대한 간단하게 해보기 위해서 Hypothesis를 로 간략화한 뒤 에 ..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression(선형 회귀) Regression(회귀)는 Machine Learning(머신 러닝)에서도 Training Data Set을 사용하는 Supervised Learning(지도 학습)의 한 종류입니다. 학생이 공부한 시간 x를 입력하여 학생의 시험 점수 y를 예측하는 것도 Regression이라고 할 수 있습니다. 그리고 이것을 좀더 세부적으로 살펴본자면 학생이 공부한 시간 x가 크면 클수록 학생의 시험 성적 y가 높은 경우가 많기 때문에 이것은 Linear(직선적) 성질을 갖는 Linear Regression(선형 회귀)이라고 분류할 수 있습니다..