일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- regression
- 정리
- data
- Logistic
- Deep learning
- 시그모이드 함수
- iris
- Gradient descent algorithm
- 선형 회귀
- Q-Learning
- Logistic regression
- RL
- cost function
- 강화학습
- reinforcement learning
- machine learning
- 비용 함수
- 기울기 감소 알고리즘
- 합성곱 신경망
- 딥 러닝
- Kaggle
- 논리 회귀
- 회귀
- CNN
- 요약
- csv
- Sigmoid Function
- convolutional neural network
- sklearn
- Neural network
- Today
- Total
목록전체 글 (50)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Regression(회귀) 일반화 Regression(회귀)의 Hypothesis(가설)을 일반화 해보면 으로 표현이 가능합니다. 일반화시킨 Hypothesis를 Cost Function(비용 함수)에 대입해서 를 도출하고, 이 새로이 도출한 Cost Function을 Gradient Descent Algorithm(기울기 감소 알고리즘)에 대입하여 일반화된 공식인 를 도출할 수 있습니다. Logistic Regression/Classification(논리 회귀/분류) Classification(분류)에서 가장 기본적인 것은 Binary Classification(이진 분류)..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. 기본적인 Linear Regression 기본적인 Linear Regression(선형 회귀)의 Hypothesis(가설)은 으로 표현하고 여기서 사용하는 Cost Function(비용 함수)는 으로 표현합니다. Multi-Variable Linear Regression 기본적인 Linear Regression은 1개의 입력 변수를 사용하는 Regression 입니다. 하지만 수많은 Linear한 현상들 중에서 1개의 변수에 따라 결과가 달라지는 것 보다는 여러개의 변수의 영향에 의해 결과가 달라지는 현상이 더 많습니다. 예를들어 학생이 1학기 동안 2번의 퀴즈와 1번의 중간..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression Cost Function(선형 회귀에서의 비용 함수) Linear Regression(선형 회귀)은 직선적 관계를 가지고 있기 때문에 Hypothesis(가설)은 1차 방정식인 으로 표현할수 있습니다. 그리고 Linear Regression에서 사용하는 Cost Function(비용 함수)는 모든 x에서의 실제 값 y와 예측한 값 H(x)간의 거리들의 제곱값을 모두 더한 입니다. 일반적인 경우에는 W와 b를 변수로 가지고 있는 Cost Function을 사용하지만, 계산을 최대한 간단하게 해보기 위해서 Hypothesis를 로 간략화한 뒤 에 ..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Linear Regression(선형 회귀) Regression(회귀)는 Machine Learning(머신 러닝)에서도 Training Data Set을 사용하는 Supervised Learning(지도 학습)의 한 종류입니다. 학생이 공부한 시간 x를 입력하여 학생의 시험 점수 y를 예측하는 것도 Regression이라고 할 수 있습니다. 그리고 이것을 좀더 세부적으로 살펴본자면 학생이 공부한 시간 x가 크면 클수록 학생의 시험 성적 y가 높은 경우가 많기 때문에 이것은 Linear(직선적) 성질을 갖는 Linear Regression(선형 회귀)이라고 분류할 수 있습니다..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Machine Learning(머신 러닝) 프로그램들 중에서는 스팸메일의 필터링과 자동차의 자율주행등과 같이 너무 많은 Rule(규칙)들이 있어야하는 프로그램들이 있습니다. 1959년에 Arthur Samuel은 "이러한 많은 규칙들을 일일이 프로그래밍을 하지 않고 어떤 자료나 현상으로부터 컴퓨터가 자동적으로 학습을 하면 어떨까?"라는 생각을 하게되었고 이 생각은 Machine Learning의 기초가 되었습니다. 즉, Machine Learning이란 컴퓨터에게 명시적 프로그래밍 없이 학습할 수 있는 능력을 주는 연구 분야를 의미합니다. Machine Learning(머신 ..