일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 정리
- iris
- regression
- 비용 함수
- 딥 러닝
- Logistic regression
- 기울기 감소 알고리즘
- 논리 회귀
- Q-Learning
- Kaggle
- Sigmoid Function
- Logistic
- cost function
- 강화학습
- convolutional neural network
- Neural network
- sklearn
- 선형 회귀
- Deep learning
- machine learning
- 회귀
- CNN
- 요약
- 시그모이드 함수
- data
- RL
- Gradient descent algorithm
- 합성곱 신경망
- csv
- reinforcement learning
- Today
- Total
목록전체 글 (50)
컴공돌이의 스터디 블로그
* 이 글은 www.tensorflow.org에서 볼 수 있는 내용을 정리한 글 입니다. tf.constant [변수]- value : dtype에 설정한 출력 타입의 상수 값(또는 리스트)- dtype : 결과 tensor의 구성요소 타입- shape : 결과 tensor의 치수- name : tensor의 이름- verify_shape : 입력한 value의 shape를 확인할지 결정하는 Boolean [용도]- tf.constant는 입력한 변수값들을 기반으로 한 상수 tensor를 생성하는 문법입니다. [주의할 점]- value에는 상수값이 들어갈 수도 있고 리스트값이 들어갈 수도 있습니다. 리스트값이 들어간다면 shape에서 설정한 모양의 항목 수보다 작거나 같은 길이의 리스트가 들어가야 합니다..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Convolutional Neural Network(CNN, 합성곱 신경망) Convolutional Neural Network(CNN, 합성곱 신경망)은 서로 다른 이미지를 볼 때 사용되는 신경세포가 다르다는 사실으로부터 착안된 학습방법입으로 이미지를 인식하는 부분에 있어서 매우 높은 정확도를 갖는 아주 좋은 학습법 입니다. CNN은 Convolutional Layer, Pooling Layer, Fully Connected Layer 들으로 구성됩니다. Convolutional Layer와 Pooling Layer를 적절하게 여러번 사용한 후 마지막에 Fully Conne..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. 다양한 형태의 Neural Network 위의 사진에서 볼 수 있듯이 Neural Network는 마치 레고처럼 생각한대로 만들 수가 있습니다. Neural Network 중간에 Layer를 나누는 것도 가능하고, 여러개의 Layer를 1개로 합치는 것도 가능합니다. 이런 다양한 모양의 Neural Network는 상상력에 의해서 얼마든지 새로운 모양이 나올 수 있습니다. 현재 상태를 분석하는데 이전 상태의 결과를 포함하는 모델인 Recurrent Neural Network 또한 이런 상상력에 의해서 발견되었다고 말할 수 있습니다. * Summary *1. Neural Net..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Dropout Machine Learning(기계 학습)의 가장 중요한 문제점들 중 하나는 바로 Overfitting(과적합)입니다. 이 Overfitting은 Training Data Set에 너무 적합해진 현상을 의미합니다. Training Data Set으로 입력데이터를 집어넣으면 결과는 잘 나오지만 그밖의 데이터 Test Data Set을 입력데이터로하여 집어넣으면 좋지 않은 결과가 나오게되는 것이 이 Overfitting의 문제점이라고 할 수 있습니다. Error율과 Neural Network의 Layer수를 비교해 보면 Training Data Set을 입력데이터로..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Restricted Boltzmann Machine(RBM)과 Deep Belief Network(DBN) 많은 Layer를 갖는 Neural Network(신경망)의 제일 중요한 문제점이 바로 Vanishing Gradient(기울기 소실) 문제 입니다. 이 문제를 해결하기 위해서는 내부 Layer들의 Activation Function(활성화 함수)으로 Sigmoid Function(시그모이드 함수)이 아닌 ReLU와 같은 다른 함수를 사용하는 방법이 있고, 초기 Weight값을 잘 설정해주는 방법이 있습니다. 만약 모든 초기 Weight(가중치) 값을 0으로 설정한다면 ..