일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 선형 회귀
- Kaggle
- 비용 함수
- Gradient descent algorithm
- data
- 회귀
- Deep learning
- sklearn
- 요약
- Logistic
- Logistic regression
- 시그모이드 함수
- 논리 회귀
- 기울기 감소 알고리즘
- csv
- Sigmoid Function
- regression
- Neural network
- 딥 러닝
- RL
- CNN
- reinforcement learning
- convolutional neural network
- machine learning
- 정리
- cost function
- iris
- 강화학습
- Q-Learning
- 합성곱 신경망
- Today
- Total
목록딥 네트워크 (2)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. ReLU(Rectified Linear Unit) 복잡한 문제를 해결하기 위해서는 많은 Layer를 가지고 있는 Neural Network(신경망)를 사용해야합니다. 각각의 Layer에서는 Weight(가중치)와 Bias를 적용시켜서 계산해 주어야 하고 계산한 값을 Activation Function(활성화 함수)을 통해서 한번 바꾸어준 뒤 다음 Layer로 넘겨주어야합니다. 모든 Layer를 계산하고 도출된 마지막 결과값은 0과 1사이의 값이 나와야하기 때문에 Activation Function으로 Sigmoid Function(시그모이드 함수)을 사용해야합니다. 하지만 이..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Deep Learning(딥 러닝)의 발전 CIFAR(Canadian Institute for Advanced Research)에서 발표된 2개의 논문에 의해서 우리들이 알고있는 Deep Learning 혹은 Deep Network가 발전했다고 할 수 있습니다. 이 2개의 논문들은 2006년 Hinton과 2007년에 Bengio에 의해서 발표되었습니다. 2006년에 Hinton이 발표한 논문에는 Labeled Data의 수가 부족하고, 컴퓨터가 느리고, 잘못된 비선형을 사용하였고, 초기 Weight값을 잘못 설정하여서 많은 Layer를 가지고 있는 Neural Network..