일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- reinforcement learning
- data
- Logistic
- 정리
- Deep learning
- 요약
- regression
- Sigmoid Function
- Kaggle
- 비용 함수
- Gradient descent algorithm
- RL
- 기울기 감소 알고리즘
- 시그모이드 함수
- 딥 러닝
- Neural network
- 합성곱 신경망
- machine learning
- iris
- csv
- convolutional neural network
- 논리 회귀
- 강화학습
- Logistic regression
- 선형 회귀
- 회귀
- cost function
- sklearn
- Q-Learning
- CNN
- Today
- Total
목록전체 글 (50)
컴공돌이의 스터디 블로그
* 이 글은 Iris DataSet을 이용한 실습 과정을 정리한 글입니다. Iris DataSet 가져오기 Iris DataSet은 1930년대부터 시작된 고전적인 데이터셋이기 때문에 DataSet을 가져오는 방법에도 여러가지 방법이 존재합니다. 하지만 가장 간단한 방법은 Scikit-Learn에 들어있는 Iris DataSet을 코드상으로 불러오는 방법일 것입니다. 1234567891011from sklearn.datasets import load_irisimport pandas as pdimport numpy as np Iris = load_iris() Iris_Data = pd.DataFrame(data= np.c_[Iris['data'], Iris['target']], columns= Iris['..
* 정기적으로 업데이트 할 예정입니다. [무료 동영상 강좌]1. "모두를 위한 머신러닝과 딥러닝 강의" - 김성훈 교수님(홍콩과기대)http://hunkim.github.io/ml/2. "Coursera Machine Learning" - Andrew Ng 교수님(Stanford University)https://www.coursera.org/learn/machine-learning/home/welcome 3. "(기계학습,인공지능,머신러닝)한국어 기계학습 강좌" - 문일철 교수님(KAIST)https://www.youtube.com/channel/UC9caTTXVw19PtY07es58NDg/playlists 4. "러닝 딥러닝" - 이찬우 연구원https://www.youtube.com/channel/..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. DQN 대부분의 Reinforcement Learning을 적용시키는 부분은 카메라를 통해 입력받은 화면을 사용하기 때문에 Q-Table로는 표현하기가 매우 어렵습니다. 이러한 이유 때문에 Q-Table을 대체할 것을 선택하였고 대안인 Neural Network를 사용한 방법을 Q-Network라고 합니다. Q-Network의 알고리즘은 매우 훌륭하지만 실질적으로 실행시켜보면 잘 돌아가지 않습니다. 그 이유는 2가지 요인 때문인데 첫번째 요인은 Sample Data들 간의 연관성을 고려해야 한다는 점이고 두번째 요인은 예측한 값을 비교해야하는 값이 안정되어 있지 않다는 점 입..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Q-Network Q-Table을 사용한 학습은 굉장히 쉽게 사용할 수 있습니다. 하지만 카메라를 통해 입력받은 화면에 대한 Q-Table은 엄청난 크기를 가지게 됩니다. Reinforcement Learning(강화 학습)을 사용할 수 있는 대부분이 이런 카메라를 통해 입력받는 화면을 사용해야 하기 때문에 Q-Table를 대신할 새로운 방법을 생각해야 했습니다. 이런 Q-Table을 대신하여 문제를 해결하기 위해서 선택된 방법이 바로 Neural Network(신경망)입니다. 이 Neural network를 사용한 Reinforcement Learning을 다른 말로 Q-N..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Q-Learning in non-deterministic world Environment(환경)는 Stochastic(확률론적인)한 성질을 가지고 있다고 할 수 있습니다. 따라서 Deterministic한 모델에서처럼 모델의 출력이 매개변수 값과 초기 조건에 의해 완전히 결정되는 것이 아니라 특유의 무작위성이 있기 때문에, 동일한 설정의 매개변수 값과 초기 조건이어도 다른 출력이 발생될 수 있습니다. 따라서 을 그대로 사용하게 되면 실제로는 학습이 잘 되지 않을 수 있습니다. 예를 들어, 목표에 도달한 학습 단계에서 A1라는 Action을 선택하였지만 환경의 무작위성 때문에 ..