일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 시그모이드 함수
- 합성곱 신경망
- Neural network
- data
- 강화학습
- 요약
- RL
- CNN
- Q-Learning
- Gradient descent algorithm
- 회귀
- machine learning
- 선형 회귀
- 정리
- sklearn
- regression
- convolutional neural network
- Deep learning
- 딥 러닝
- iris
- csv
- Logistic regression
- Sigmoid Function
- 논리 회귀
- cost function
- Kaggle
- reinforcement learning
- 비용 함수
- 기울기 감소 알고리즘
- Logistic
- Today
- Total
목록전체 글 (50)
컴공돌이의 스터디 블로그
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Reinforcement Learning(RL, 강화 학습) Reinforcement Learning(강화 학습)은 Deep Learning(딥 러닝)과 함께 최근 많은 주목을 받는 분야입니다. 우리는 과거의 경험으로부터 학습을 할 수 있습니다. 자라왔던 수년동안 경험했었던 칭찬과 꾸중을 통해 지금의 우리가 형성되었다고 할 수 있을것입니다. 이런 인간이 학습하는 과정을 Machine Learning(기계 학습)에 적용해볼수 없을까 해서 만들어진것이 바로 이 Reinforcement Learning 입니다. Reinforcement Learning은 Agent와 Environm..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Recurrent Neural Network(RNN) 우리가 사용하는 데이터에는 Sequence Data(순차적 데이터)가 굉장히 많습니다. Sequence Data란 하나의 데이터가 아니라 음성, 문장과 같은 연속적인 데이터를 의미합니다. 기본적인 Neural Network나 Convolutional Neural Network 같은 경우에는 1개의 입력이 1개의 출력으로 반환되는 형태이기 때문에 Sequence Data 같은 Series Data를 적용하기에는 어려움이 있습니다. 이전 State의 값이 현재 State의 값에 영향을 끼치는 Sequence Data를 사용하기..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. LeNet-5 LeCun 교수님은 1990년에 LeNet-1을 발표하였고 이것을 조금씩 보완해서 1998년에 LeNet-5를 만들어 내었습니다. LeNet-5에서는 입력데이터의 크기를 32 x 32로 만들었고 Convolution Layer에서 사용되는 Filter의 크기를 5 x 5로 Stride는 1으로, Pooling Layer에서 사용되는 Filter의 크기를 2 x 2로 Stride는 2로 설정하였습니다. AlexNet Alex는 2012년에 AlexNet을 논문으로 발표하였습니다. AlexNet은 2개의 병렬구조인 점을 제외하면 LeNet-5와 크게 다르지는 않습니..
* 이 글은 www.tensorflow.org에서 볼 수 있는 내용을 정리한 글 입니다. tf.placeholder[변수]- dtype : tensor에 넣을 값의 타입- shape : tensor에 넣을 값의 치수- name : 함수의 이름 [용도]- tf.placeholder는 입력한 변수값들을 기반으로 나중에 값을 입력할 수 있는 변수 tensor를 생성하는 문법입니다. [주의할 점]- shape를 정의하지 않은 경우에는 어떠한 모양의 값도 넣을 수 있습니다. [중요한 것]- 이 tensor는 값을 넣지 않은채로 실행시키면 에러가 발생합니다. 따라서 선언해 준 후에 Session.run(), Tensor.eval(), Operation.run()의 변수인 feed_dict를 사용하여 값을 반드시 넣..
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다. Pooling Layer Pooling Layer에서 Pooling은 다른 말로 Sampling이라고 부를 수도 있습니다. Layer의 이름에서 알 수 있듯이 Pooling Layer에서는 여러 Depth를 가지고 있는 Feature Map의 각각의 Depth마다 Resize(Sampling)을 해준 뒤 다시 합쳐주는 작업을 하게 됩니다. Pooling Layer에서도 Convolution Layer처럼 Filter를 사용합니다. Filter의 크기와 Stride를 정해주면 그것을 사용해서 Sampling을 해주게 되는데 여기서 주로 사용되는 방법이 바로 Max Pooling..