일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 강화학습
- Logistic regression
- csv
- Neural network
- 비용 함수
- Q-Learning
- CNN
- 시그모이드 함수
- machine learning
- 기울기 감소 알고리즘
- Deep learning
- regression
- Gradient descent algorithm
- 논리 회귀
- 요약
- reinforcement learning
- Logistic
- 딥 러닝
- 정리
- cost function
- sklearn
- 선형 회귀
- Kaggle
- 합성곱 신경망
- iris
- 회귀
- Sigmoid Function
- RL
- data
- convolutional neural network
- Today
- Total
목록강의 Study/모두를 위한 머신러닝과 딥러닝 강의 (29)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Convolutional Neural Network(CNN, 합성곱 신경망) Convolutional Neural Network(CNN, 합성곱 신경망)은 서로 다른 이미지를 볼 때 사용되는 신경세포가 다르다는 사실으로부터 착안된 학습방법입으로 이미지를 인식하는 부분에 있어서 매우 높은 정확도를 갖는 아주 좋은 학습법 입니다. CNN은 Convolutional Layer, Pooling Layer, Fully Connected Layer 들으로 구성됩니다. Convolutional Layer와 Pooling Layer를 적절하게 여러번 사용한 후 마지막에 Fully Conne..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. 다양한 형태의 Neural Network 위의 사진에서 볼 수 있듯이 Neural Network는 마치 레고처럼 생각한대로 만들 수가 있습니다. Neural Network 중간에 Layer를 나누는 것도 가능하고, 여러개의 Layer를 1개로 합치는 것도 가능합니다. 이런 다양한 모양의 Neural Network는 상상력에 의해서 얼마든지 새로운 모양이 나올 수 있습니다. 현재 상태를 분석하는데 이전 상태의 결과를 포함하는 모델인 Recurrent Neural Network 또한 이런 상상력에 의해서 발견되었다고 말할 수 있습니다. * Summary *1. Neural Net..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Dropout Machine Learning(기계 학습)의 가장 중요한 문제점들 중 하나는 바로 Overfitting(과적합)입니다. 이 Overfitting은 Training Data Set에 너무 적합해진 현상을 의미합니다. Training Data Set으로 입력데이터를 집어넣으면 결과는 잘 나오지만 그밖의 데이터 Test Data Set을 입력데이터로하여 집어넣으면 좋지 않은 결과가 나오게되는 것이 이 Overfitting의 문제점이라고 할 수 있습니다. Error율과 Neural Network의 Layer수를 비교해 보면 Training Data Set을 입력데이터로..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Restricted Boltzmann Machine(RBM)과 Deep Belief Network(DBN) 많은 Layer를 갖는 Neural Network(신경망)의 제일 중요한 문제점이 바로 Vanishing Gradient(기울기 소실) 문제 입니다. 이 문제를 해결하기 위해서는 내부 Layer들의 Activation Function(활성화 함수)으로 Sigmoid Function(시그모이드 함수)이 아닌 ReLU와 같은 다른 함수를 사용하는 방법이 있고, 초기 Weight값을 잘 설정해주는 방법이 있습니다. 만약 모든 초기 Weight(가중치) 값을 0으로 설정한다면 ..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. ReLU(Rectified Linear Unit) 복잡한 문제를 해결하기 위해서는 많은 Layer를 가지고 있는 Neural Network(신경망)를 사용해야합니다. 각각의 Layer에서는 Weight(가중치)와 Bias를 적용시켜서 계산해 주어야 하고 계산한 값을 Activation Function(활성화 함수)을 통해서 한번 바꾸어준 뒤 다음 Layer로 넘겨주어야합니다. 모든 Layer를 계산하고 도출된 마지막 결과값은 0과 1사이의 값이 나와야하기 때문에 Activation Function으로 Sigmoid Function(시그모이드 함수)을 사용해야합니다. 하지만 이..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. BackPropagation(Chain Rule) 수많은 복잡하고 어려운 문제를 해결하기 위해서는 왼쪽의 그림과 같이 많은 Layer를 가지고 있는 Neural Network를 사용해야만 합니다. 과거에는 이런 많은 수의 Layer에 적용해야 하는 각각의 Weight(가중치)와 Bias 값을 학습시킬수 있는 방법이 없을 것이라고 생각했지만 결국 BackPropagation(역전파)을 사용한다면 충분히 학습이 가능하다는 결론을 얻게 되었습니다. 학습의 궁극적인 목표는 Gradient Descent Algorithm(기울기 감소 알고리즘)과 같은 알고리즘을 사용하여 Cost Fu..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. XOR 문제 해결방법 과거 사람들이 해결하려고 했던 XOR 문제는 , 가 (0,0)이면 0을, (0,1)이면 1을, (1,0)이면 1을, (1,1)이면 0을 반환하는 문제입니다. 하지만 결국 이런 문제는 1개의 Logistic Regression(논리 회귀) 으로는 해결할 수 없다는 사실이 밝혀지게 되었고 여러개 즉 Multiple Logistic Regression(다중 논리 회귀) 으로는 해결할 수 있다는 것이 밝혀졌습니다. 왼쪽의 그림과 같이 입력값 , 를 2개의 다른 Logistic Regression에 넣어서 얻어낸 결과값 , 를 다시 새로운 Logistic Regr..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Deep Learning(딥 러닝)의 발전 CIFAR(Canadian Institute for Advanced Research)에서 발표된 2개의 논문에 의해서 우리들이 알고있는 Deep Learning 혹은 Deep Network가 발전했다고 할 수 있습니다. 이 2개의 논문들은 2006년 Hinton과 2007년에 Bengio에 의해서 발표되었습니다. 2006년에 Hinton이 발표한 논문에는 Labeled Data의 수가 부족하고, 컴퓨터가 느리고, 잘못된 비선형을 사용하였고, 초기 Weight값을 잘못 설정하여서 많은 Layer를 가지고 있는 Neural Network..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Deep Learning(딥 러닝)의 시작 인류의 궁극적 목표 중 하나는 우리를 대신해서 골치 아픈 일을 생각해 주는 기계를 만드는 것 일것입니다. 이러한 목표를 이루기 위해서 사람들은 인간의 뇌에 대하여 연구를 하게 되었고 연구해본 결과 인간의 뇌가 굉장히 복잡하게 연결되어 있다는 사실에 놀랐고 이것과 반대로 뇌에서의 가장 작은 단위인 뉴런이 굉장히 단순하게 동작된다는 것에 놀라게 되었습니다. 뉴런은 어떠한 입력 신호를 받아서 다른 뉴런으로 보내주거나 어떠한 반응을 일으킵니다. 뉴런은 달려있는 여러개의 돌기로부터 신호를 받아들이는데 이 돌기들의 길이에 따라 입력받는 신호의 ..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Training/Test Data Set(학습/테스트 데이터셋) Machine Learning(기계 학습) 에서는 Data Set을 사용해서 학습을 하게됩니다. 만약 보유하고 있는 Data Set 전부를 사용해서 학습을 마친 후 같은 데이터를 입력해서 결과를 얻는다면 100%의 정확도를 얻을 가능성이 있지만 이것은 단순히 데이터를 기억하고 있는 것 일수도 있기 때문에 좋은 방법이 아닙니다. 이러한 이유 때문에 일반적으로는 보유하고 있는 Data Set에서 약 70%를 학습하는 데 사용하고 나머지 30%를 학습시킨 모델을 테스트 하는데 사용합니다. 이것을 각각 Training ..