일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- regression
- 기울기 감소 알고리즘
- reinforcement learning
- 딥 러닝
- Kaggle
- data
- 강화학습
- sklearn
- iris
- 선형 회귀
- cost function
- 논리 회귀
- Logistic regression
- convolutional neural network
- Deep learning
- 비용 함수
- 합성곱 신경망
- csv
- Gradient descent algorithm
- 정리
- 시그모이드 함수
- Sigmoid Function
- Q-Learning
- RL
- 회귀
- CNN
- 요약
- Neural network
- Logistic
- machine learning
- Today
- Total
목록신경망 (2)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. 다양한 형태의 Neural Network 위의 사진에서 볼 수 있듯이 Neural Network는 마치 레고처럼 생각한대로 만들 수가 있습니다. Neural Network 중간에 Layer를 나누는 것도 가능하고, 여러개의 Layer를 1개로 합치는 것도 가능합니다. 이런 다양한 모양의 Neural Network는 상상력에 의해서 얼마든지 새로운 모양이 나올 수 있습니다. 현재 상태를 분석하는데 이전 상태의 결과를 포함하는 모델인 Recurrent Neural Network 또한 이런 상상력에 의해서 발견되었다고 말할 수 있습니다. * Summary *1. Neural Net..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Dropout Machine Learning(기계 학습)의 가장 중요한 문제점들 중 하나는 바로 Overfitting(과적합)입니다. 이 Overfitting은 Training Data Set에 너무 적합해진 현상을 의미합니다. Training Data Set으로 입력데이터를 집어넣으면 결과는 잘 나오지만 그밖의 데이터 Test Data Set을 입력데이터로하여 집어넣으면 좋지 않은 결과가 나오게되는 것이 이 Overfitting의 문제점이라고 할 수 있습니다. Error율과 Neural Network의 Layer수를 비교해 보면 Training Data Set을 입력데이터로..