일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 비용 함수
- 요약
- Kaggle
- convolutional neural network
- 합성곱 신경망
- 강화학습
- regression
- 논리 회귀
- Logistic regression
- Neural network
- 정리
- Q-Learning
- 시그모이드 함수
- CNN
- Gradient descent algorithm
- reinforcement learning
- 딥 러닝
- Sigmoid Function
- 회귀
- machine learning
- RL
- 기울기 감소 알고리즘
- sklearn
- csv
- Deep learning
- cost function
- iris
- Logistic
- 선형 회귀
- data
- Today
- Total
목록Logistic regression (3)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. XOR 문제 해결방법 과거 사람들이 해결하려고 했던 XOR 문제는 , 가 (0,0)이면 0을, (0,1)이면 1을, (1,0)이면 1을, (1,1)이면 0을 반환하는 문제입니다. 하지만 결국 이런 문제는 1개의 Logistic Regression(논리 회귀) 으로는 해결할 수 없다는 사실이 밝혀지게 되었고 여러개 즉 Multiple Logistic Regression(다중 논리 회귀) 으로는 해결할 수 있다는 것이 밝혀졌습니다. 왼쪽의 그림과 같이 입력값 , 를 2개의 다른 Logistic Regression에 넣어서 얻어낸 결과값 , 를 다시 새로운 Logistic Regr..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Logistic Regression(논리 회귀) Logistic Regression(논리 회귀) 이란 Linear Regression(선형회귀)의 Hypothesis(가설) 를 z 변수라고 하고 이 z변수를 Sigmoid Function(시그모이드 함수)의 변수로 사용한 공식을 Hypothesis로 사용한 Regression 입니다. Logistic Regression의 결과값은 0과 1사이의 값이 나오며 이것을 통하여 Classification(분류)도 가능하기 때문에 Logistic Classification(논리 분류) 이라고도 부릅니다. Multinomial Class..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Cost Function(비용 함수) Cost Function(비용 함수)은 대입하는데 사용되는 Hypothesis(가설)에 의해서 그래프의 모양이 결정됩니다. 예를들어 Linear Regression(선형 회귀)에서 사용되는 Hypothesis 를 Cost Function에 대입하면 임을 구할 수 있고 이 공식은 W에 대한 2차방정식의 형태라는 것을 알 수 있습니다. Logistic Cost Function(논리적 비용 함수) Logistic Regression(논리 회귀)에서는 새로운 Cost Function이 필요합니다. Linear Regression에서 사용하는 Co..