일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- regression
- reinforcement learning
- convolutional neural network
- machine learning
- Deep learning
- 강화학습
- sklearn
- 딥 러닝
- csv
- cost function
- Q-Learning
- data
- 비용 함수
- 시그모이드 함수
- iris
- Kaggle
- 기울기 감소 알고리즘
- Gradient descent algorithm
- CNN
- 선형 회귀
- 회귀
- 정리
- 합성곱 신경망
- 요약
- 논리 회귀
- Neural network
- Logistic
- RL
- Sigmoid Function
- Logistic regression
- Today
- Total
목록regression (7)
컴공돌이의 스터디 블로그
* 이 글은 www.scikit-learn.org에서 볼 수 있는 내용을 정리한 글 입니다. sklearn.svm.SVR [변수]- kernel : 알고리즘에 사용할 kernel을 결정('linear', 'poly', 'rbf', 'sigmoid', 'precomputed')- degree : polynomial 함수의 차수- gamma : kernel의 계수- coef0 : kernel 함수의 독립적인 구간- tol : 중지 기준에 대한 허용 오차 값- C : 오차 구간에 대한 페널티 값- epsilon : Support Vector Machine 모델의 입실론 값- shrinking : 휴리스틱 값이 줄어드는지 여부를 결정- cache_size : kernel에 사용되는 캐시 값- verbose : ..
* 이 글은 www.scikit-learn.org에서 볼 수 있는 내용을 정리한 글 입니다. sklearn.linear_model.LogisticRegression [변수]- penalty : 페널티를 부여할 때 사용할 기준을 결정('l1', 'l2')- dual : Dual Formulation인지 Primal Formulation인지를 결정(True, False)- tol : 중지 기준에 대한 허용 오차 값- C : 규칙의 강도의 역수 값- fit_intercept : 의사 결정 기능에 상수를 추가할 지 여부 결정(True, False)- intercept_scaling : - class_weight : 클래스에 대한 가중치들의 값- random_state : 데이터를 섞을 때 사용하는 랜덤 번호 생..
* 이 글은 Iris DataSet을 이용한 실습 과정을 정리한 글입니다. Iris DataSet에 Logistic Regression 사용해 보기 Iris DataSet에 사용할 수 있는 많은 Classifier 중에서 이번 글에서는 Logistic Regression에 대해서 알아보겠습니다. Logistic Regression은 sklearn 패키지에 구현되어 있기 때문에 간편하게 사용이 가능하지만 함수를 자세히 살펴본다면 함수 내부의 파라미터 값을 조절 할 수 있고 이 값을 조절 해줌으로써 성능이 향상될 수도 하락할 수도 있습니다. 이번 글에서는 단순한 Default 값의 파라미터들을 사용하는 것이 아닌 몇개의 파라미터들 중에서 Iris DataSet에 가장 좋은 성능을 가질 수 있는 파라미터로 실..
* 이 글은 Iris DataSet을 이용한 실습 과정을 정리한 글입니다. Iris DataSet에 Classifier 사용해 보기 Iris DataSet은 4개의 변수 Sepal Length, Sepal Width, Petal Length, Petal Width와 4개의 변수마다 해당하는 Iris의 종류로 구성되어 있습니다. Iris의 종류가 결과값이기 때문에 Iris DataSet을 사용해서 할 수 있는 실습은 Classification이라는 것을 알 수 있습니다. Classification을 하기 위해서는 데이터에 Classifier를 적용시켜야 합니다. Classifier은 굉장히 종류가 다양하고 많지만 이번 글에서는 많이 알려지고 많이 쓰이는 Classifier들인 Logistic (Regres..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Softmax Regression(소프트맥스 회귀) Logistic Regression(논리 회귀)은 단순히 입력한 결과를 2가지 종류로 분류하는 것이라고 한다면 Softmax Regression(소프트맥스 회귀)은 여러개의 종류로 분류하는 것을 말합니다. Logistic Regression과 Softmax Regression은 기본적인 과정은 비슷하지만 가장 큰 차이점을 말하자면, Logistic Regression은 Hypothesis(가설)에서의 결과를 Sigmoid 함수를 통해 0과 1사이의 값으로 도출시킨 후 분류하고 Softmax Regression에서는 Sigmo..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Regression(회귀) 일반화 Regression(회귀)의 Hypothesis(가설)을 일반화 해보면 으로 표현이 가능합니다. 일반화시킨 Hypothesis를 Cost Function(비용 함수)에 대입해서 를 도출하고, 이 새로이 도출한 Cost Function을 Gradient Descent Algorithm(기울기 감소 알고리즘)에 대입하여 일반화된 공식인 를 도출할 수 있습니다. Logistic Regression/Classification(논리 회귀/분류) Classification(분류)에서 가장 기본적인 것은 Binary Classification(이진 분류)..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Machine Learning(머신 러닝) 프로그램들 중에서는 스팸메일의 필터링과 자동차의 자율주행등과 같이 너무 많은 Rule(규칙)들이 있어야하는 프로그램들이 있습니다. 1959년에 Arthur Samuel은 "이러한 많은 규칙들을 일일이 프로그래밍을 하지 않고 어떤 자료나 현상으로부터 컴퓨터가 자동적으로 학습을 하면 어떨까?"라는 생각을 하게되었고 이 생각은 Machine Learning의 기초가 되었습니다. 즉, Machine Learning이란 컴퓨터에게 명시적 프로그래밍 없이 학습할 수 있는 능력을 주는 연구 분야를 의미합니다. Machine Learning(머신 ..