일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 요약
- 논리 회귀
- Sigmoid Function
- Deep learning
- Logistic regression
- data
- 기울기 감소 알고리즘
- reinforcement learning
- 회귀
- Kaggle
- Q-Learning
- 시그모이드 함수
- 합성곱 신경망
- RL
- Neural network
- machine learning
- 딥 러닝
- 선형 회귀
- 비용 함수
- 강화학습
- regression
- 정리
- csv
- Gradient descent algorithm
- cost function
- Logistic
- CNN
- convolutional neural network
- iris
- sklearn
- Today
- Total
목록전체 글 (50)
컴공돌이의 스터디 블로그
제목: Improving Acoustic Model for English ASR System using Deep Neural Network 저자: Quoc Bao Nguyen, Tat Thang Vu, and Chi Mai Luong 논문 출처: The 2015 IEEE RIVF International Conference on Computing & Communication Technologies-Research, Innovation, and Vision for Future (RIVF) 초록 In this paper, a method based on deep learning is applied to improve acoustic model for English Automatic Speech Recogni..
* 이 글은 수업 내용을 개인적으로 정리한 글입니다. 고성능 컴퓨팅의 측정 단위 고성능 컴퓨팅의 성능 측정은 Flop, Flops/s, Bytes 등을 사용해서 측정합니다. Flop는 Floating Point Operation의 줄임말으로 부동소소점 연산을 의미하고, Flops/s는 초장 부동소수점 연산을, Bytes는 데이터의 크기를 의미합니다. 고성능 컴퓨팅의 성능을 이러한 것들을 사용해서 측정해 보면 그 크기가 을 훌쩍 뛰어넘기 때문에 적절한 단위를 설정해 주는 것도 매우 중요합니다. 단위는 메가(Mega), 기가(Giga), 테라(Tera), 페타(Peta), 엑사(Exa), 제타(Zeta), 요타(Yotta)의 순서로 점차 커지며 각각의 단위는 , , , , , , 를 의미합니다. 2018년 ..
* 이 글은 수업 내용을 개인적으로 정리한 글입니다. 컴퓨팅 분야의 최근 이슈 - 자연어(키워드, 문장, 질문 등)를 사용한 즉각적인 검색 - 클라우드, 웹, 데이터베이스 등을 사용한 언제 어디서나 가능한 정보 접근 - 다양한 기기에 연결되어 있는 사물 인터넷(IoT : Internet of Things) - 인공지능 기술이 결합되어 있는 스마트 기기, 스마트 리빙 포탈사이트에서 검색을 위해 수행하는 과정 1단계 : 데이터 수집(자동)- 페이지에 들어가서 키워드를 추출한 뒤 Indexing을 수행- Indexing된 데이터들을 저장 2단계 : 쿼리 매칭 3단계 : 데이터베이스에서 쿼리 실행- 여러개의 키워드를 각각 개별적으로 검색한 후 나온 결과들을 Join한 후 결과를 보여줌 컴퓨터의 속도 고객은 어떠..
* 이 글은 www.scikit-learn.org에서 볼 수 있는 내용을 정리한 글 입니다. sklearn.svm.SVR [변수]- kernel : 알고리즘에 사용할 kernel을 결정('linear', 'poly', 'rbf', 'sigmoid', 'precomputed')- degree : polynomial 함수의 차수- gamma : kernel의 계수- coef0 : kernel 함수의 독립적인 구간- tol : 중지 기준에 대한 허용 오차 값- C : 오차 구간에 대한 페널티 값- epsilon : Support Vector Machine 모델의 입실론 값- shrinking : 휴리스틱 값이 줄어드는지 여부를 결정- cache_size : kernel에 사용되는 캐시 값- verbose : ..
* 이 글은 www.scikit-learn.org에서 볼 수 있는 내용을 정리한 글 입니다. sklearn.linear_model.LogisticRegression [변수]- penalty : 페널티를 부여할 때 사용할 기준을 결정('l1', 'l2')- dual : Dual Formulation인지 Primal Formulation인지를 결정(True, False)- tol : 중지 기준에 대한 허용 오차 값- C : 규칙의 강도의 역수 값- fit_intercept : 의사 결정 기능에 상수를 추가할 지 여부 결정(True, False)- intercept_scaling : - class_weight : 클래스에 대한 가중치들의 값- random_state : 데이터를 섞을 때 사용하는 랜덤 번호 생..