본문 바로가기

전체 글195

quebec 에서 2011년 캐나다 퀘벡에서.. 2014. 2. 20.
k-fold cross validation, k겹 교차검증 machine learning을 할때 사용자가 가지는 데이터는 오직 훈련집합(Training set) 과 테스트집합(Test set) 뿐이다. 집합내에 샘플의 수가 굉장히 많다면 물론 좋겠지만, 실제상황에서 샘플수가 무한정 제공 될 수는 없다. 따라서 데이터의 양이 충분치 않을 때, 분류기 성능측정의 통계적 신뢰도를 높이기 위해서 쓰는 방법이 재샘플링(resampling) 기법을 사용하는데 대표적인 방법으로는 k-fold cross validation 과 bootstrap가 있다. 지금은 cross validation , 교차검증 법을 알아보자... 총 N개의 sample이 있다면 이 분류기의 성능은 어떻게 정의 할 수 있을 것인가? 샘플을 k로의 집단으로 나눈다(이때, 각 집단의 mean은 비슷할 수 .. 2014. 2. 3.
multiclass svm, one vs rest, one vs one 기본적으로 svm은 이진 분류기이다. 이진분류법을 확장해서 멀티클래스 분류를 하는 방법이 있는데 대표적으로 one vs one approach 그리고 one vs rest approach(또는 one vs all 라고 부르기도함) 이 있다 . 1. one vs rest전체 class의 수가 M개 라고 하면 i 번째 class의 부류 와 i클래스를 제외한 나머지 M-1개의 클래스가 속하는 클래스 로 이진화 시키고 분류기를 만들고, 이와 같은 작업을 M번 만큼 한다. 그러면 총 M 개의 이진분류기가 만들어 지게 된다. 즉 i class에 속하는 샘플을 +1 라벨을 붙이고 나머지 샘플에 -1라벨을 붙인다. 그래서 훈련집합(training set)을 만들게 된다. svm의 결정 초평면도 M개가 만들어 지는데 j.. 2014. 1. 31.
[Vim, Vi] 여러줄 주석 처리하기 명령어 모드에서 v 를 누르면 visual 모드로 전환 hjkl을 이용하여 이동하며 블럭 설정(화살표키로 하면 안됨. VIM에서 커서의 이동키는 hjkl !!) 블럭이 설정되면 : 를 누르면 ' 2014. 1. 27.