반응형
Gradient Boosting 의 기초
Gradient Boosting이란 도대체 무엇인지, 약한 Learner를 강화 시켜서 강한 학습기를 만드는 것이 무슨의미인지 직관적으로 이해할 수 있던 자료. https://www.youtube.com/watch?v=sRktKszFmSk Gradient Boosting = Residual Fitting 이다. 매우 Simple한 모델을 구축한 후, Residual에 Fitting한 모델을 만들고, 이 두 개를 결합한다. 그리고 결합된 모델에서 다시 Residual이 나오면 다시 이 Residual에 Fitting하는 모델을 만들어나가고 이를 계속 반복하여 최종 모델을 만들게 된다.
그리고 Stackoverflow에 누군가 Gradient Boosting에 대해 설명한 내용이다. GB는 residual fitting method이다. 아래 그림은 Regression에 GB 방법을 적용시킨 것이지만, Classification에도 GB 를 적용할 수 있다. 적절한 residual만 설정하면 똑같이 적용할 수 있다. 또한 GB 에 가장 인기 많은 베이스모델은 바로 Shallow한 Decision tree이다. decision tree는 다른 통계모형과는 다르게 가정이 적고, 범주형이든 연속형이든 제약없이 쉽게 만들 수 있는 모델이라고 설명하고 있다.
반응형
'Data science' 카테고리의 다른 글
Markov Chain Monte Carlo (Metropolis-Hastings algorithm) (0) | 2018.05.14 |
---|---|
데이터베이스 정규화 1NF, 2NF, 3NF, BCNF (38) | 2017.10.19 |
XGBoost 모델에서의 변수선택 (0) | 2017.09.03 |
머신러닝 - 수식 없이 이해하는 Gaussian Mixture Model (GMM) (4) | 2017.08.04 |
머신러닝 - TF-IDF를 통한 Sentence Classification 실습 (0) | 2017.07.07 |