데이터분석

boosting 계열 알고리즘 3대장 정확도 간단비교.

늘근이 2018. 7. 28. 01:57

아래의 competition은 leak으로 난리가 났지만 그래도, 데이터분석에서 정말 간단하게 쓸수있는 boosting계열 3대장의 정확도를 측정해본다. 

기록용으로 남긴다.

https://www.kaggle.com/c/santander-value-prediction-challenge/kernels


lightGBM

1.42718
1.44043
1.43861
1.47468
1.37851


시간이 더 걸리며, 시대를 잠시 풍미했던 xgboost는 역시 답답하다.

이렇게 약간 끕이 떨어지는 동생 두명은 아래와 같다.

catboost

1.480313585
1.503514099
1.483226552
1.528937262
1.441017107

xgboost

1.43416
1.44707
1.44244
1.48029
1.4013


역시나, 시간이 제일 적게 걸리고 그럴듯한 결과를 내는건 lightGBM이다.


평균적으로는 1.431 / 1.487 / 1.441 의 root mean log square error 를 기록하고있다.


'데이터분석' 카테고리의 다른 글

[링크] tsne 이용  (0) 2018.07.29
lightGBM, CatBoost, xgboost stacking / 코드 예제  (0) 2018.07.28
표본추출  (0) 2018.03.19
윈도우 스파크 실행을 위한 머시기  (0) 2018.03.10
What is Data Science?  (0) 2018.03.06