본문 바로가기

machine learning17

deep learning 자료 Unsupervised Feature Learning and Deep Learning 튜토리얼http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial Unsupervised Feature Learning and Deep Learning Recommended Readingshttp://deeplearning.stanford.edu/wiki/index.php/UFLDL_Recommended_Readings Wiki- autoencoderhttps://en.wikipedia.org/wiki/Autoencoder 논문 Deep neural network with weight sparsity control and pre-training extracts hie.. 2015. 6. 25.
베이지안 이론 (Bayesian Theroy) 이란? 말도 많고 탈도 많은 베이지안. 머신러닝 이니 인공지능이니 이런것들이 뜰수록 덩달아 자주 사람들입에 오르 내리는게 베이지안(bayesian) 이다. 수식을 가지고 어렵게 이야기하지만, 기초적인 개념을 소홀히 하고 있는 것 같아, 정리차 포스팅 한다. 1. 베이지안 확률 (Bayesian Probability) 베이지안 확률이란 무엇인가? 기존에 우리가 알고 있는 확률과는 다른것인가? 동전을 1000회 던졌을 때, 앞면이 나오는 횟수는 대략 500회 로 기대할수있다. 전통적인 확률 계산은 이렇게 표현한다. 일어난횟수/전체시도횟수이런 확률론을 frequentist probability , 경험 확률 라고 한다. 일정한 확률로 반복시행이 충분히 가능한 많은 경우가 이에 해당도니다. 그러면, A라는 도시에서 철.. 2014. 9. 10.
Supervised learning(지도학습)과 Unsupervised learning(자율학습) * Supervised learning (지도학습) supervised learning은 훈련데이터가 존재하고 그 훈련데이터로 machine learning을 해 predictive model을 만든다. 그리고 그 모델을 이용해 새로 도입되는 데이터가 어떤 class에 속하는지 판단하는 것이다. 모델을 만들때 Training데이터에 기초하여 만들게 된다. 이런 supervised learning의 평가를 위해 주로 교차검증(Cross validation)을 하게 된다. 교차검증은데이터를 훈련집합(A training set) 검증집합(A validation set) 테스트집합(A test set)으로 나누고 교차검증을 통해 훈련된 함수에 대해서 정밀도(Precision)과 재현률(recall)을 측정함으로.. 2014. 2. 26.
k-fold cross validation, k겹 교차검증 machine learning을 할때 사용자가 가지는 데이터는 오직 훈련집합(Training set) 과 테스트집합(Test set) 뿐이다. 집합내에 샘플의 수가 굉장히 많다면 물론 좋겠지만, 실제상황에서 샘플수가 무한정 제공 될 수는 없다. 따라서 데이터의 양이 충분치 않을 때, 분류기 성능측정의 통계적 신뢰도를 높이기 위해서 쓰는 방법이 재샘플링(resampling) 기법을 사용하는데 대표적인 방법으로는 k-fold cross validation 과 bootstrap가 있다. 지금은 cross validation , 교차검증 법을 알아보자... 총 N개의 sample이 있다면 이 분류기의 성능은 어떻게 정의 할 수 있을 것인가? 샘플을 k로의 집단으로 나눈다(이때, 각 집단의 mean은 비슷할 수 .. 2014. 2. 3.