일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- csv
- 딥 러닝
- reinforcement learning
- Gradient descent algorithm
- cost function
- data
- iris
- 논리 회귀
- machine learning
- Sigmoid Function
- 합성곱 신경망
- sklearn
- 기울기 감소 알고리즘
- 요약
- RL
- Deep learning
- Kaggle
- regression
- Logistic
- Logistic regression
- CNN
- 선형 회귀
- convolutional neural network
- Neural network
- 시그모이드 함수
- 정리
- 비용 함수
- Q-Learning
- 회귀
- 강화학습
- Today
- Total
목록회귀 (5)
컴공돌이의 스터디 블로그
* 이 글은 www.scikit-learn.org에서 볼 수 있는 내용을 정리한 글 입니다. sklearn.svm.SVR [변수]- kernel : 알고리즘에 사용할 kernel을 결정('linear', 'poly', 'rbf', 'sigmoid', 'precomputed')- degree : polynomial 함수의 차수- gamma : kernel의 계수- coef0 : kernel 함수의 독립적인 구간- tol : 중지 기준에 대한 허용 오차 값- C : 오차 구간에 대한 페널티 값- epsilon : Support Vector Machine 모델의 입실론 값- shrinking : 휴리스틱 값이 줄어드는지 여부를 결정- cache_size : kernel에 사용되는 캐시 값- verbose : ..
* 이 글은 www.scikit-learn.org에서 볼 수 있는 내용을 정리한 글 입니다. sklearn.linear_model.LogisticRegression [변수]- penalty : 페널티를 부여할 때 사용할 기준을 결정('l1', 'l2')- dual : Dual Formulation인지 Primal Formulation인지를 결정(True, False)- tol : 중지 기준에 대한 허용 오차 값- C : 규칙의 강도의 역수 값- fit_intercept : 의사 결정 기능에 상수를 추가할 지 여부 결정(True, False)- intercept_scaling : - class_weight : 클래스에 대한 가중치들의 값- random_state : 데이터를 섞을 때 사용하는 랜덤 번호 생..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Softmax Regression(소프트맥스 회귀) Logistic Regression(논리 회귀)은 단순히 입력한 결과를 2가지 종류로 분류하는 것이라고 한다면 Softmax Regression(소프트맥스 회귀)은 여러개의 종류로 분류하는 것을 말합니다. Logistic Regression과 Softmax Regression은 기본적인 과정은 비슷하지만 가장 큰 차이점을 말하자면, Logistic Regression은 Hypothesis(가설)에서의 결과를 Sigmoid 함수를 통해 0과 1사이의 값으로 도출시킨 후 분류하고 Softmax Regression에서는 Sigmo..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Regression(회귀) 일반화 Regression(회귀)의 Hypothesis(가설)을 일반화 해보면 으로 표현이 가능합니다. 일반화시킨 Hypothesis를 Cost Function(비용 함수)에 대입해서 를 도출하고, 이 새로이 도출한 Cost Function을 Gradient Descent Algorithm(기울기 감소 알고리즘)에 대입하여 일반화된 공식인 를 도출할 수 있습니다. Logistic Regression/Classification(논리 회귀/분류) Classification(분류)에서 가장 기본적인 것은 Binary Classification(이진 분류)..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Machine Learning(머신 러닝) 프로그램들 중에서는 스팸메일의 필터링과 자동차의 자율주행등과 같이 너무 많은 Rule(규칙)들이 있어야하는 프로그램들이 있습니다. 1959년에 Arthur Samuel은 "이러한 많은 규칙들을 일일이 프로그래밍을 하지 않고 어떤 자료나 현상으로부터 컴퓨터가 자동적으로 학습을 하면 어떨까?"라는 생각을 하게되었고 이 생각은 Machine Learning의 기초가 되었습니다. 즉, Machine Learning이란 컴퓨터에게 명시적 프로그래밍 없이 학습할 수 있는 능력을 주는 연구 분야를 의미합니다. Machine Learning(머신 ..