일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 정리
- 비용 함수
- Q-Learning
- sklearn
- convolutional neural network
- 합성곱 신경망
- 딥 러닝
- 요약
- 강화학습
- Sigmoid Function
- 기울기 감소 알고리즘
- Kaggle
- Neural network
- data
- CNN
- RL
- Deep learning
- cost function
- csv
- reinforcement learning
- machine learning
- regression
- 시그모이드 함수
- 논리 회귀
- Logistic
- 선형 회귀
- iris
- Logistic regression
- 회귀
- Gradient descent algorithm
- Today
- Total
컴공돌이의 스터디 블로그
[시즌RL].Lecture 2 - OpenAI GYM 게임해보기 본문
* 이 글은 홍콩과기대 김성훈 교수님의 무료 동영상 강좌 "모두를 위한 머신러닝과 딥러닝 강의"를 보고 요점을 정리한 글 입니다.
OpenAI GYM
Reinforcement Learning(강화 학습)은 Agent와 Environment(환경)로 구성되어 있습니다. Agent가 어떠한 Action(행동)을 하게 되면 그것에 따른 Environment에서의 State(상태)와 Reward(보상)에 대한 정보를 받게 되고 이것을 통하여 학습을 하는 것이 Reinforcement Learning인데, 여기서 Environment를 전부 구현하는 것은 매우 어렵습니다. 이런 구현하기 어려운 Environment가 미리 구현되어져 있고 이것을 라이브러리를 통해 쉽게 사용할 수 있게 제공하는 것이 OpenAI GYM입니다. OpenAI GYM에는 Atari, Frozen Lake등 많은 게임에 대한 Environment들이 구현되어져 있습니다.
OpenAI GYM를 사용하면 현재 상태, 보상, 게임의 종료, 추가정보들을 Environment에서 얻을 수 있습니다. Agent가 Action을 취하면 State와 Reward를 받고 만약 Agent가 Goal에 도착하면 Reward값은 1, 그 외에는 0을 받습니다. 이런 규칙들을 일반화하면 이론적으로 모든 게임에 적용이 가능합니다.
* Summary *
1. OpenAI GYM은 Atari, Frozen Lake등 많은 게임에 대한 Environment들이 구현되어 있고 이것들을 라이브러리를 사용함으로써 쉽게 이용할수 있게 해주는 것이다.
'강의 Study > 모두를 위한 머신러닝과 딥러닝 강의' 카테고리의 다른 글
[시즌RL].Lecture 4 - Q-Learning exploit&exploration and discounted reward (0) | 2018.03.09 |
---|---|
[시즌RL].Lecture 3 - Dummy Q-Learning (0) | 2018.03.08 |
[시즌RL].Lecture 1 - 수업의 개요 (0) | 2018.03.06 |
[시즌1].Lecture 12 - Recurrent Neural Network_NN의 꽃 RNN 이야기 (0) | 2018.03.05 |
[시즌1].Lecture 11_3 - Convolutional Neural Networks_ConvNet의 활용예 (0) | 2018.03.02 |